Auswahl der wissenschaftlichen Literatur zum Thema „Environnements instationnaires et hétérogènes“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Environnements instationnaires et hétérogènes" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Environnements instationnaires et hétérogènes"

1

Damascelli, Adriana Teresa, und Marie-Berthe Vittoz. „Être créatif avec les technologies : enseigner le français de spécialité au niveau Master dans les cours de langues étrangères à l’Université de Turin“. Voix Plurielles 13, Nr. 1 (14.05.2016): 86–100. http://dx.doi.org/10.26522/vp.v13i1.1372.

Der volle Inhalt der Quelle
Annotation:
Aujourd’hui le monde du travail et la situation complexe de la société exigent des connaissances spécialisées et des compétences hétérogènes surtout orientées vers le numérique pour pouvoir répondre, au mieux, aux attentes professionnelles. Il devient alors nécessaire de penser à une éducation plus dynamique, où la didactique, y compris celle des langues, soit conçue dans des termes différents. Grâce à la créativité, il est possible d’adopter des stratégies innovatrices qui permettent, en même temps, de développer de nouvelles méthodes, de nouveaux outils, de nouveaux contenus et des environnements d’apprentissage efficaces. En effet, à travers ces stratégies, on peut impliquer les étudiants dans des activités qui leur permettent de développer eux-mêmes leur créativité comme moyen pour résoudre des problèmes ou pour développer des capacités analytiques. Mais alors comment peut-on être créatif dans l’enseignement du français de spécialité au niveau avancé ? Le but de cet article est de rendre compte d’une expérimentation qui a eu lieu au Centre des Langues de l’Université de Turin où un environnement numérique technologique à disposition des professeurs et des étudiants permet de programmer des parcours spécifiques et articulés pour enseigner et apprendre les langues étrangères. Par l’intégration d’applications numériques, les activités didactiques peuvent être menées d’une manière innovante par les étudiants à travers des travaux individuels de recherche grâce à Internet et à l’intégration de la linguistique de corpus avec la traduction assistée par ordinateur. Les étudiants ont collecté un corpus de textes extraits de sites institutionnels et à travers un logiciel de traitement des textes tels que SketchEngine (liste de mots, concordancier) et un logiciel professionnel tel que Trados 2011 (mémoire de traduction et base de données terminologique) ont accompli les tâches assignées pour l’analyse de la communication institutionnelle internationale et sa médiation dans la langue italienne et française et de la terminologie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Ng, Michelle, Joanne de Montigny, Marianna Ofner und Minh Do. „Facteurs environnementaux associés au trouble du spectre de l’autisme : étude de délimitation portant sur les années 2003 à 2013“. Promotion de la santé et prévention des maladies chroniques au Canada 37, Nr. 1 (Januar 2017): 1–26. http://dx.doi.org/10.24095/hpcdp.37.1.01f.

Der volle Inhalt der Quelle
Annotation:
Introduction Le nombre d’enfants chez lesquels on diagnostique un trouble du spectre de l’autisme (TSA) grimpe rapidement depuis une décennie. L’étiologie de ce trouble est toutefois en grande partie inconnue, même si la contribution de l’environnement est importante par rapport à celle de la génétique. Nous avons procédé à une étude de délimitation pour évaluer en détail l’état actuel des connaissances sur les facteurs environnementaux présents depuis le stade de la préconception jusqu’au début de la vie que l’on associe au TSA et pour dégager les lacunes de la recherche. Méthodologie Nous avons cherché dans les bases de données électroniques MEDLINE, PsycINFO et ERIC des articles portant sur des facteurs de risque potentiels ou des facteurs de protection des environnements physiques et sociaux associés au TSA et à ses sous-catégories entre le 1er janvier 2003 et le 12 juillet 2013. Nous avons regroupé les articles en thèmes généraux en fonction de l’exposition environnementale : facteurs chimiques, physiologiques, nutritionnels et sociaux. Résultats Nous avons trouvé plus de 50 000 publications, mais après élimination des études inadmissibles il est resté 315 articles. La plupart de ces études portaient sur les facteurs psychologiques, suivis de près par les facteurs chimiques et, à un degré beaucoup moindre, les facteurs nutritionnels et sociaux associés au TSA. En dépit d’une masse importante de publications et de nombreuses études hétérogènes, quelques facteurs de risque se sont démarqués régulièrement : facteurs chimiques comme les polluants atmosphériques causés par la circulation; facteurs physiologiques, dont l’âge avancé des parents, les naissances prématurées, l’insuffisance de poids à la naissance, l’hyperbilirubinémie et les grappes de complications de la grossesse et enfin le statut de la mère vis-à-vis de l’immigration. En dépit de recherches poussées sur les vaccins, les faits révèlent de façon écrasante que rien n’appuie l’existence d’un lien avec le TSA. Conclusion Le manque d’uniformité, de temporalité et de spécificité des liens entre les facteurs environnementaux et le TSA demeure l’obstacle le plus important dans l’établissement de liens de cause à effet. Une recherche plus robuste s’impose pour supprimer le manque d’uniformité dans les publications. Les recherches futures devraient porter sur des mécanismes sous-jacents des liens entre facteurs de risque que nous avons identifiés et le TSA.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Environnements instationnaires et hétérogènes"

1

El, Kadri Mohamad. „Modèle thermo-neurophysiologique du corps humain pour l'étude du confort thermique en conditions climatiques hétérogènes et instationnaires“. Thesis, La Rochelle, 2020. http://www.theses.fr/2020LAROS006.

Der volle Inhalt der Quelle
Annotation:
Dans ces travaux de thèse, nous avons développé un nouveau modèle de thermorégulation du corps humain basé sur la neurophysiologie et nommé Neuro Human Thermal Model (NHTM). Il est dédié à prédire les variables physiologiques dans des environnements instationnaires et hétérogènes. De plus, ce modèle est couplé au modèle de confort thermique de Zhang pour prédire la sensation et le niveau de confort thermique des occupants dans les espaces intérieurs. Le système passif du modèle NHTM est basé sur celui du modèle de Wissler. Ce système est couplé à un système actif basé sur les signaux des thermorécepteurs. Le système passif consiste en 21 cylindres représentants les segments du corps humain. Chaque élément est divisé en 21 couches dont 15 pour les tissus et 6 pour les vêtements. Puis, chaque couche est divisée en 12 secteurs angulaires. Le modèle NHTM calcule la production de chaleur par le métabolisme, le transfert de chaleur par conduction entre les tissus et les échanges de chaleur par convection et rayonnement entre le corps et l’environnement. Le système actif calcule les mécanismes physiologiques grâce aux signaux des thermorécepteurs cutanés et centraux. Ces signaux sont calculés par le modèle de Mekjavic et Morrisson qui ont développé également le modèle de frissonnement utilisé dans le modèle NHTM. Le débit sanguin cutané est calculé par le modèle de Kingma. Par manque de données expérimentales, le modèle de sudation est basé sur l’approche du signal d’erreur des températures cutanée et centrale. Une comparaison a été effectuée entre le modèle de sudation de Wissler et celui de Fiala et al. Au vu des résultats obtenus, ce dernier a été retenu. Le modèle NHTM est en capacité de pouvoir simuler plusieurs types de populations. Pour ce faire, une analyse de sensibilité a été effectuée, grâce à la méthode de Morris, sur les paramètres des systèmes passif et actif pour déterminer les paramètres les plus influents. Ensuite, afin d’optimiser le modèle NHTM, un algorithme génétique a été utilisé pour déterminer le vecteur des paramètres qui correspond à la population des expérimentations de Munir et al. Les résultats ainsi obtenus ont été comparés aux modèles développés par différents auteurs et ont montré que le modèle NHTM est le plus performant dans la très grande majorité des cas. Le modèle NHTM a été couplé au modèle de Zhang pour pouvoir calculer la sensation et le confort thermique. Le modèle de Zhang a été choisi pour sa capacité à calculer les sensations et les niveaux de confort thermique locaux qui correspondent aux segments du corps humain dans des environnements hétérogènes. Il est aussi capable de calculer ces réponses lors des transitions thermiques. Ce modèle effectue le calcul grâce aux sorties du modèle NHTM à savoir les températures cutanées et de l’œsophage
In this thesis, we have developed a new thermoregulation model of the human body based on neurophysiology called Neuro Human Thermal Model (NHTM). It is dedicated to predict physiological variables in asymmetric transient environments. In addition, it is coupled with Zhang’s thermal comfort model to predict the sensation and the thermal comfort of the occupants in indoor spaces.The passive system of the NHTM model is based on that of the Wissler model. This passive system is coupled to an active system based on the signals of thermoreceptors. The passive system is segmented into 21 cylinders which represent the segments of the human body. Each element is divided into 21 layers, in which 15 for tissues and 6 for clothing. Then, each layer is divided into 12 angular sectors. The NHTM model simulates the heat production by metabolism, heat transfer by conduction within the tissues and heat exchange by convection and radiation between the body and the surrounding. The active system simulates physiological mechanisms thanks to signals of central and peripheral thermoreceptors. These signals are calculated by the model of Mekjavic and Morrisson who also developed the shivering model. The skin blood flow is calculated by the Kingma model. We could not develop a sweating model based on the signals of thermoreceptors since experimental data are not available. A comparison was made between the sweating model of Wissler and that of Fiala et al. and the last one was chosen.The NHTM model is able to simulate several types of population. This was done by a sensitivity analysis carried out, using the Morris method, on the parameters of the passive and active systems to find the most influential parameters. Then, an optimization of the NHTM model was done to determine the vector of the parameters which corresponds to the subjects of the experiments of Munir et al. using a genetic algorithm. The obtained results were compared to the models developed by several authors and showed that the NHTM model is the most efficient in most cases.The NHTM model has been coupled to the Zhang model to assess the sensation and thermal comfort. Zhang's model was chosen for its ability to assess local sensations and thermal comfort levels in non-uniform transient environments. Zhang’s model performs the calculation using the NHTM model outputs, namely the skin and esophagus temperatures
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Cheng, Dong. „Gestion et découverte de compétences dans des environnements hétérogènes“. Phd thesis, Université Henri Poincaré - Nancy I, 2008. http://tel.archives-ouvertes.fr/tel-00338226.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de cette thèse, nous nous intéressons au problème général de la gestion et de la découverte de compétences dans des environnements hétérogènes. Nous avons étendu un langage de Logique de Description pour permettre la description et la gestion de compétences. Nos principaux apports sont :
1. définition d'un langage de la description de compétences ALNr+ , fondé sur les logiques de description, pour supporter de la gestion de compétence et les services d'inférence associés;
2. définition d'un algorithme de recherche de compétences dont la caractéristique est, en cas d'échec dans la recherche d'une réponse « exacte », d'essayer de déterminer des réponses composées, i.e. de trouver des individus dont la complémentarité des compétences satisfait la recherche ;
3. conception d'un système de médiation fédéré pour la validation expérimentale de nos propositions. Ce système a la particularité de prendre en compte les situations où les représentations des compétences sont distribuées et homogènes (i.e. les descriptions des capacités sont exprimés dans un langage de description unique) aussi bien qu'hétérogènes (i.e. les descriptions des capacités sont exprimés dans des langages de description différents).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Miquée, Sébastien. „Exécution d'applications parallèles en environnements hétérogènes et volatils : déploiement et virtualisation“. Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00979300.

Der volle Inhalt der Quelle
Annotation:
La technologie actuelle permet aux scientifiques de divers domaines d'obtenir des données de plus en plus précises et volumineuses, Afin de résoudre ces problèmes associés à l'obtention de ces données, les architectures de calcul évoluent, en fournissant toujours plus de ressources, notamment grâce à des machines plus puissantes et à leur mutualisation. Dans cette thèse, nous proposons d'étudier dans un premier temps le placement des tâches d'applications itératives asynchrones dans des environnements hétérogènes et volatils. Notre solution nous permet également de s'affranchir de l(hétérogénéité des machines hôtes tout en offrent une implantation facilitée de politiques de tolérance aux pannes, les expérimentations que nous avons menées sont encourageantes et montrent qu'il existe un réel potentiel quand à l'utilisation d'une telle plateforme pour l'exécution d'applications scientifiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Mercier, Guillaume. „Communications à hautes performances portables en environnements hiérarchiques, hétérogènes et dynamiques“. Phd thesis, Université Sciences et Technologies - Bordeaux I, 2004. http://tel.archives-ouvertes.fr/tel-00009054.

Der volle Inhalt der Quelle
Annotation:
Cette thèse a pour cadre les communications dans les machines paral lèles dans une optique de calcul haute-performance. Les évolutions du matériel ont rendu nécessaire les adaptations des logiciels destinés à exploiter les machines parallèles. En effet, les architectures de type ``grappes'' sont maintenant très répandues et l'apparition des grilles de calcul complique encore plus la situation car l'obtention des hautes performances passe par une exploitation des différents réseaux rapides disponibles et une prise en compte de la hiérarchie intrinsèque des configurations considérées. Au niveau applicatif, de nouvelles exigences émergent comme la dynamicité. Or, ces aspects sont trop souvent partiellement traités, en particulier dans les implémentations du standard de programmation par passage de messages MPI. Les solutions existantes se concentrent sur la hiérarchie et l'hétérogénéité ou la dynamicité, exceptionnellement les deux. En ce qui concerne les premiers aspects, des simplifications conduisent à une exploitation suboptimale du matériel potentiellement disponible. Nous avons analysé des implémentations existantes de MPI et avons proposé une architecture répondant aux besoins formulés. Cette architecture repose sur une for te interaction entre communications et processus légers et son c\oe ur est constitué par un moteur de progression des communications qui permet d'améliorer substantiellement les mécanismes existants. Les deux éléments logiciels fondamentaux sont une bibliothèque de processus légers (Marcel) ainsi qu'une couche générique de communication (Madeleine). L'implémentation de cette architecture a débouché sur le logiciel MPICH-Madeleine, utilisé ou évalué par plusieurs équipes et projets de recherche en France comme à l'étranger. L'évalution des performances (comparaisons avec Madeleine, mesures des opérations point-à-point, noyaux applicatifs) menée avec plusieurs réseaux haut-débit sur des grappes homogènes de machines multi-processeurs et les comparaisons avec MPICH-G2 ou PACX-MPI en environnement hétérogène démontrent que MPICH-Madeleine atteint des résultats de niveau similaire voire supérieur à ceux d'implémentations spécialisées de MPI.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Artero, Gallardo Guillaume. „Qualité de service dans des environnements réseaux mobiles, contraints et hétérogènes“. Phd thesis, Toulouse, INPT, 2015. http://oatao.univ-toulouse.fr/13826/1/artero_gallardo.pdf.

Der volle Inhalt der Quelle
Annotation:
Les télécommunications sans fil ont connu ces dernières années un immense succès à tel point que le spectre des fréquences est désormais surchargé et nécessite la disponibilité de nouvelles ressources. Pour répondre à ce besoin, des techniques de réutilisation dynamique du spectre ont alors vu le jour sous la dénomination de radio cognitive. Elles consistent à partager de manière opportuniste et efficace certaines fréquences ayant été initialement allouées à d'autres systèmes. Cette thèse se place dans le contexte de réseaux sans fil tactiques hétérogènes comportant des segments de radios cognitives. La difficulté provient alors de la garantie de qualité de service de bout en bout : respect du débit négocié, du délai et de la gigue. Nous nous sommes tout d'abord intéressés au contrôle d'admission dans ce type de réseaux en proposant une méthode de calcul de bande passante résiduelle de bout en bout s'appuyant sur un algorithme de complexité polynomiale et pouvant être implanté de manière distribuée. Nous nous sommes ensuite concentrés sur le routage en proposant une nouvelle métrique tenant compte des particularités de ce type de réseaux. Enfin, nous nous focalisons sur la thématique du routage à contraintes multiples en étudiant et implantant en environnement réel des algorithmes d'approximation proposés dans la littérature.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Lemlouma, Tayeb. „Architecture de négociation et d'adaptation de services multimédia dans des environnements hétérogènes“. Grenoble INPG, 2004. https://tel.archives-ouvertes.fr/tel-00006253v2.

Der volle Inhalt der Quelle
Annotation:
Les progrès technologiques récents ont permis l'apparition d'une grande variété de nouveaux moyens pour accéder et utiliser l'information multimédia du Web en tout lieu et à tout moment. L'hétérogénéité des appareils d'accès s'est accompagné une évolution importante de l'information disponible sur le réseau. Aujourd'hui, on trouve une multitude de formats complexes avec de nouvelles fonctionnalités, telles que la vidéo interactive, les animations 3D et le dessin vectoriel. Ces formats s'appuient sur de nouveaux modèles de documents qui intègrent une structure logique, spatiale, temporelle et une dimension hypermédia. Face à cette évolution, il est nécessaire de concevoir des systèmes qui permettent l'accès et l'utilisation de l'information sous une forme qui corresponde aux contraintes imposées par l'environnement. Cette thèse a pour objectif de contribuer à l'adaptation et à la négociation des contenus en considérant les limitations des utilisateurs et les contraintes de leur environnement. Nous présentons une architecture flexible appelée NAC qui permet de définir les composants qui interviennent dans la négociation et l'adaptation de contenu, et qui décrit comment ces composants sont organisés. NAC permet plusieurs types d'adaptation : une adaptation structurelle, une adaptation sémantique et une adaptation des ressources médias. Ces types d'adaptation sont basés sur les différents contextes des clients (caractéristiques des terminaux, préférences des utilisateurs, etc. ). Nous proposons également un modèle de description de contextes UPS (schémas universels pour la description des profils), un protocole de négociation et un ensemble de techniques d'adaptation. Les concepts de l'architecture NAC ont contribué aux travaux de standardisation du consortium W3C, en particulier au cadre de travail CC/PP et aux travaux sur l'indépendance des terminaux. Cette étude est complétée par une évaluation de performances qui démontre que le système proposé est exploitable dans la pratique
In the last few years, new devices such as palm computers, smart phones, pocket PCs became common components of the computing infrastructure. These devices allow multimedia information to be used on the Web at any time and anywhere. At the same time, the content of the Web has known an important revolution. Today, the Web includes continuous medias such as video, audio and 3D animations. The content is created in several formats with new functionalities. Usually, these formats are based on many structural dimensions: logical, spatial, temporal and hypermedia. In order to ensure universal access to Web content, with respect to the constraints of the current environment, it is necessary to design new systems that enable content delivery in different contexts. The objective of our work is to resolve the problems related to content adaptation and negotiation based on the limitations of the target devices and the heterogeneous environment. We propose a flexible architecture called NAC (Negotiation and Adaptation Core) that includes different components for content negotiation and adaptation, and ensures an efficient framework in which these components cooperate and exchange negotiation-based information in order to reach the objective of the universal access. NAC allows several kinds of adaptations to be applied: structural adaptation, semantic adaptation and media resources adaptation. These adaptations satisfy different contexts of the clients (terminal capabilities, user preferences, etc. ). We also propose a description model of the environment context: UPS (Universal Profiling Schema), a negotiation protocol and a rich collection of adaptation techniques. NAC concepts have contributed in W3C standardization efforts, in particolar in the CC/PP framework and in work on device independence. This work includes performance evaluations in order to show the usability of our negotiation of our system in a practical framework
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Liu, Tianxiao. „Proposition d'un cadre générique d'optimisation de requêtes dans les environnements hétérogènes et répartis“. Phd thesis, Université de Cergy Pontoise, 2011. http://tel.archives-ouvertes.fr/tel-00659670.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous proposons un cadre générique d'optimisation de requêtes dans les environnements hétérogènes répartis. Nous proposons un modèle générique de description de sources (GSD), qui permet de décrire tous les types d'informations liées au traitement et à l'optimisation de requêtes. Avec ce modèle, nous pouvons en particulier obtenir les informations de coût afin de calculer le coût des différents plans d'exécution. Notre cadre générique d'optimisation fournit les fonctions unitaires permettant de mettre en œuvre les procédures d'optimisation en appliquant différentes stratégies de recherche. Nos résultats expérimentaux mettent en évidence la précision du calcul de coût avec le modèle GSD et la flexibilité de notre cadre générique d'optimisation lors du changement de stratégie de recherche. Notre cadre générique d'optimisation a été mis en œuvre et intégré dans un produit d'intégration de données (DVS) commercialisé par l'entreprise Xcalia - Progress Software Corporation. Pour des requêtes contenant beaucoup de jointures inter-site et interrogeant des sources de grand volume, le temps de calcul du plan optimal est de l'ordre de 2 secondes et le temps d'exécution du plan optimal est réduit de 28 fois par rapport au plan initial non optimisé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Chakroun, Imen. „Algorithmes Branch and Bound parallèles hétérogènes pour environnements multi-coeurs et multi-GPU“. Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2013. http://tel.archives-ouvertes.fr/tel-00841965.

Der volle Inhalt der Quelle
Annotation:
Les algorithmes Branch and Bound (B&B) sont attractifs pour la résolution exacte de problèmes d'optimisation combinatoire (POC) par exploration d'un espace de recherche arborescent. Néanmoins, ces algorithmes sont très gourmands en temps de calcul pour des instances de problèmes de grande taille (exemple : benchmarks de Taillard pour FSP) même en utilisant le calcul sur grilles informatiques [Mezmaz et al., IEEE IPDPS'2007]. Le calcul massivement parallèle fourni à travers les plates-formes de calcul hétérogènes d'aujourd'hui [TOP500 ] est requis pour traiter effi cacement de telles instances. Le dé fi est alors d'exploiter tous les niveaux de parallélisme sous-jacents et donc de repenser en conséquence les modèles parallèles des algorithmes B&B. Dans cette thèse, nous nous attachons à revisiter la conception et l'implémentation des ces algorithmes pour la résolution de POC de grande taille sur (larges) plates-formes de calcul multi-coeurs et multi-GPUs. Le problème d'ordonnancement Flow-Shop (FSP) est considéré comme étude de cas. Une étude expérimentale préliminaire sur quelques grandes instances du FSP a révélé que l'arbre de recherche est hautement irrégulier (en forme et en taille) et très large (milliards de milliards de noeuds), et que l'opérateur d'évaluation des bornes est exorbitant en temps de calcul (environ 97% du temps de B&B). Par conséquent, notre première contribution est de proposer une approche GPU avec un seul coeur CPU (GB&B) dans laquelle seul l'opérateur d'évaluation est exécuté sur GPU. L'approche traite deux dé fis: la divergence de threads et l'optimisation de la gestion de la mémoire hiérarchique du GPU. Comparée à une version séquentielle, des accélérations allant jusqu'à ( 100) sont obtenues sur Nvidia Tesla C2050. L'analyse des performances de GB&B a montré que le surcoût induit par le transfert des données entre le CPU et le GPU est élevé. Par conséquent, l'objectif de la deuxième contribution est d'étendre l'approche (LL-GB&B) a fin de minimiser la latence de communication CPU-GPU. Cet objectif est réalisé grâce à une parallélisation à grain fin sur GPU des opérateurs de séparation et d'élagage. Le défi majeur relevé ici est la divergence de threads qui est due à la nature fortement irrégulière citée ci-dessus de l'arbre exploré. Comparée à une exécution séquentielle, LL-GB&B permet d'atteindre des accélérations allant jusqu'à ( 160) pour les plus grandes instances. La troisième contribution consiste à étudier l'utilisation combinée des GPUs avec les processeurs multi-coeurs. Deux scénarios ont été explorés conduisant à deux approches: une concurrente (RLL-GB&B) et une coopérative (PLL-GB&B). Dans le premier cas, le processus d'exploration est eff ectué simultanément par le GPU et les coeurs du CPU. Dans l'approche coopérative, les coeurs du CPU préparent et transfèrent les sous-problèmes en utilisant le streaming CUDA tandis que le GPU eff ectue l'exploration. L'utilisation combinée du multi-coeur et du GPU a montré que l'utilisation de RLL-GB&B n'est pas bénéfi que et que PLL-GB&B permet une amélioration allant jusqu'à (36%) par rapport à LL-GB&B. Sachant que récemment des grilles de calcul comme Grid5000 (certains sites) ont été équipées avec des GPU, la quatrième contribution de cette thèse traite de la combinaison du calcul sur GPU et multi-coeur avec le calcul distribué à grande échelle. Pour ce faire, les diff érentes approches proposées ont été réunies dans un méta-algorithme hétérofigène qui sélectionne automatiquement l'algorithme à déployer en fonction de la con figuration matérielle cible. Ce méta-algorithme est couplé avec l'approche B&B@Grid proposée dans [Mezmaz et al., IEEE IPDPS'2007]. B&B@Grid répartit les unités de travail (sous-espaces de recherche codés par des intervalles) entre les noeuds de la grille tandis que le méta-algorithme choisit et déploie localement un algorithme de B&B parallèle sur les intervalles reçus. L'approche combinée nous a permis de résoudre à l'optimalité et e fficacement les instances (20 20) de Taillard.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Liu, Tianxao. „Proposition d'un cadre générique d'optimisation de requêtes dans les environnements hétérogènes et répartis“. Thesis, Cergy-Pontoise, 2011. http://www.theses.fr/2011CERG0513.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous proposons un cadre générique d'optimisation de requêtes dans les environnements hétérogènes répartis. Nous proposons un modèle générique de description de sources (GSD), qui permet de décrire tous les types d'informations liées au traitement et à l'optimisation de requêtes. Avec ce modèle, nous pouvons en particulier obtenir les informations de coût afin de calculer le coût des différents plans d'exécution. Notre cadre générique d'optimisation fournit les fonctions unitaires permettant de mettre en œuvre les procédures d'optimisation en appliquant différentes stratégies de recherche. Nos résultats expérimentaux mettent en évidence la précision du calcul de coût avec le modèle GSD et la flexibilité de notre cadre générique d'optimisation lors du changement de stratégie de recherche. Notre cadre générique d'optimisation a été mis en œuvre et intégré dans un produit d'intégration de données (DVS) commercialisé par l'entreprise Xcalia - Progress Software Corporation. Pour des requêtes contenant beaucoup de jointures inter-site et interrogeant des sources de grand volume, le temps de calcul du plan optimal est de l'ordre de 2 secondes et le temps d'exécution du plan optimal est réduit de 28 fois par rapport au plan initial non optimisé
This thesis proposes a generic framework for query optimization in heterogeneous and distributed environments. We propose a generic source description model (GSD), which allows describing any type of information related to query processing and optimization. With GSD, we can use cost information to calculate the costs of execution plans. Our generic framework for query optimization provides a set of unitary functions used to perform optimization by applying different search strategies. Our experimental results show the accuracy of cost calculus when using GSD, and the flexibility of our generic framework when changing search strategies. Our proposed approach has been implemented and integrated in a data integration product (DVS) licensed by Xcalia – Progress Software Corporation. For queries with many inter-site joins accessing large size data sources, the time used for finding the optimal plan is in the order of 2 seconds, and the execution time of the optimized plan is reduced by 28 times, as compared with the execution time of the non optimized original plan
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Jeannot, Emmanuel. „Algorithmes et protocoles pour la gestion des données et des calculs dans les environnements distribués et hétérogènes“. Habilitation à diriger des recherches, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00185887.

Der volle Inhalt der Quelle
Annotation:
L'objectif des travaux que j'ai mené depuis ma thèse est de rendre possible l'exécution efficace d'applications sur les infrastructures parallèles. Ce document présente donc les problématiques scientifiques essentiellement centrées sur les modèles, les algorithmes et les protocoles pour les services de gestion des ressources. Plus précisément, nous développerons deux types de services qui doivent être particulièrement bien conçus pour atteindre une efficacité optimale. Il s'agit des services d'ordonnancement (chapitre 2), et des services de transfert de données (chapitre 3). Une fois mis au point les modèles, les algorithmes et les protocoles, la question de leur validation se pose. Or, compte tenu de la complexité des environnements que nous étudions, il n'est pas toujours possible de prouver analytiquement les propriétés des algorithmes et des protocoles. Une validation expérimentale s'impose alors. Il en va de même pour les modèles que seule l'expérimentation peut valider. Nous détaillons dans le chapitre 4 quelle est l'importance de la validation expérimentale des modèles et des algorithmes dans les infrastructures distribuées, ainsi que les différentes méthodologies pour l'expérience dont, en particulier, Grid'5000.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie