Tesi sul tema "Flux parallèle"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Flux parallèle.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Flux parallèle".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Chouchene, Wissem. "Vers une reconfiguration dynamique partielle parallèle par prise en compte de la régularité des architectures FPGA-Xilinx". Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10135/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail propose deux flots de conception complémentaires permettant le broadcast d’un bitstream partiel vers un ensemble de Régions Partiellement Reconfigurables (RPRs) identiques. Ces deux flots de conception sont applicables avec les FPGAs – Xilinx. Le premier appelé ADForMe (Automatic DPPR Flow For Multi-RPRs Architecture) permet l’automatisation du flot traditionnel de la RDP de Xilinx grâce à l’automatisation de la phase de floorplanning. Ce floorplanning est assuré par l’algorithme AFLORA (Automatic Floorplanning For Multi-RPRs Architectures) que nous avons conçu qui permet l'allocation identique de ces RPRs en termes de forme géométrique en tenant compte des paramètres technologiques du FPGA et des paramètres architecturaux de la conception dans le but de permettre la relocalisation de bitstream. Le deuxième flot proposé vise à favoriser la technique de relocalisation 1D et 2D afin de permettre le broadcast d’un bitstream partiel (fonctionnalité) vers un ensemble de RPRs pour une configuration du système. Ce flot permet donc l’optimisation de la taille de la mémoire de bitstream. Nous avons également proposé une architecture matérielle adéquate capable d’effectuer ce broadcast. Les résultats expérimentaux ont été effectués sur les FPGAs-Xilinx récents et ont prouvé la rapidité d’exécution de notre algorithme AFLORA ainsi que l’efficacité des résultats obtenus suite à l’application du flot d’automatisation de la relocalisation de bitstream. Ces deux flots permettent d’assurer la flexibilité et la réutilisabilité des composants IPs intégrés dans les architectures à Multi-RPRs afin de réduire la complexité en termes de temps de conception et d’améliorer productivité des concepteurs
This work proposes two complementary design flows allowing the broadcast of a partial bitstream to a set of identical Partially Reconfigurable Regions (PRRs). These two design flows are applicable with FPGAs - Xilinx. The first one called ADForMe (Automatic DPPR Flow For Multi-RPRs Architecture) allows the automation of the traditional flow of Xilinx RDP through the automation of the floorplanning phase. This floorplanning is carried out by the AFLORA (Automatic Floorplanning For Multi-RPRs Architectures) algorithm which we have designed that allows the same allocation of these RPRs in terms of geometric shape taking into account the technological parameters of the FPGA and the architectural parameters of the design in order to allow the relocation of bitstream. The second proposed flow aims to promote the 1D and 2D relocation technique in order to allow the broadcast of a partial bitstream (functionality) to a set of RPRs for a system configuration. Therefore, this flow allows optimizing the size of the bitstream memory. We have also proposed suitable hardware architecture capable of performing this broadcast. The experimental results have been performed on the recent Xilinx FPGAs and have proved the speed of execution of our AFLORA algorithm as well as the efficiency of the results obtained by the application of the automation of the bitstream relocation technique flow. These two flows allow flexibility and reusability of IP components embedded in Multi-RPRs architectures to reduce complexity in design time and improve design productivity
2

Preud'Homme, Thomas. "Communication inter-cœurs optimisée pour le parallélisme de flux". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00931833.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Parmi les différents paradigmes de programmation parallèle, le parallélisme de flux présente l'avantage de conserver la séquentialité des algorithmes et d'être ainsi applicable en présence de dépendances de données. De plus, l'extension de calcul par flux pour OpenMP proposée par Pop et Cohen permet de mettre en œuvre cette forme de parallélisme sans requérir de réécriture complète du code, en y ajoutant simplement des annotations. Cependant, en raison de l'importance de la communication nécessaire entre les cœurs de calcul, les performances obtenues en suivant ce paradigme sont très dépendantes de l'algorithme de communication utilisé. Or l'algorithme de communication utilisé dans cette extension repose sur des files gérant plusieurs producteurs et consommateurs alors que les applications mettant en œuvre le parallélisme de flux fonctionnent principalement avec des chaînes de communication linéaires. Afin d'améliorer les performances du parallélisme de flux mis en œuvre par l'extension de calcul par flux pour OpenMP, cette thèse propose d'utiliser, lorsque cela est possible, un algorithme de communication plus spécialisé nommé BatchQueue. En ne gérant que le cas particulier d'une communication avec un seul producteur et un seul consommateur, BatchQueue atteint des débits jusqu'à deux fois supérieurs à ceux des algorithmes existants. De plus, une fois intégré à l'extension de calcul par flux pour OpenMP, l'évaluation montre que BatchQueue permet d'améliorer l'accélération des applications jusqu'à un facteur 2 également. L'étude montre ainsi qu'utiliser des algorithmes de communication spécialisés plus efficaces peut avoir un impact significatif sur les performances générales des applications mettant en œuvre le parallélisme de flux.
3

Perrinet, Laurent. "Comment déchiffrer le code impulsionnel de la Vision? Étude du flux parallèle, asynchrone et épars dans le traitement visuel ultra-rapide". Phd thesis, Université Paul Sabatier - Toulouse III, 2003. http://tel.archives-ouvertes.fr/tel-00002693.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le cadre de ce travail est l'étude de modèles neuromimétiques de codage parallèle et asynchrone de l'information visuelle ---tel qu'il est mis en évidence dans des taches de traitement ultra-rapide--- en la transformant en une vague d'événements élémentaires d'importance décroissante. Nous allons baser dans un premier temps les mécanismes de ce code sur les processus biologiques à l'échelle du neurone et de la synapse. En particulier, la plasticité synaptique peut induire l'extraction non-supervisée de l'information cohérente dans le flux des impulsions neuronales. Le codage par la latence de la première décharge permet de définir un code impulsionnel dans le nerf optique grâce une architecture multiéchelle. Nous avons étendu cette démarche en utilisant une approche \emph(écologique) qui permet exploiter les régularités de ses coefficients sur les images naturelles pour les quantifier par le rang d'arrivée des impulsions neuronales. Ce code par le rang des décharges, est basé sur une architecture hiérarchique et ``en avant'' qui se distingue, outre sa simplicité, par la richesse des résultats mathématiques et de par ses performances computationnelles. Enfin, nous avons répondu aux besoins d'un modèle efficace de la Vision en fondant une théorie de \emph(représentation impulsionnelle sur-complète) de l'image. Cette formalisation conduit alors à une stratégie de \emph(code impulsionnel épars) en définissant des interactions latérales. Cette stratégie est étendue à un modèle général de \emph(colonne corticale adaptative) permettant l'émergence de dictionnaires de représentation et s'adapte particulièrement à la construction d'une carte de saillance. Ces techniques font émerger de nouveaux outils pour le traitement de l'image et de vision active adaptés à des architectures de calcul distribué.
4

Perrinet, Laurent. "Comment déchiffrer le code impulsionnel de la vision ? Etude du flux parallèle, asynchrone et épars dans le traitement visuel ultra-rapide". Toulouse 3, 2003. http://www.theses.fr/2003TOU30033.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Aymard, Benjamin. "Simulation numérique d'un modèle multi-échelle de cinétique cellulaire formulé à partir d'équations de transport non conservatives". Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066254/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La thèse porte sur la calibration d'un modèle biomathématique multi-échelle expliquant le phénomène de sélection des follicules ovariens à partir du niveau cellulaire. Le modèle EDP consiste en un système hyperbolique quasi linéaire de grande taille gouvernant l'évolution des fonctions de densité cellulaire pour une cohorte de follicules (en pratique, une vingtaine).Les équations sont couplées de manière non locale par l'intermédiaire de termes de contrôle faisant intervenir les moments de la solution, intégrée à l'échelle mésoscopique et macroscopique. Trois chapitres de la thèse présentent, sous forme d'articles publiés, la méthode développée pour simuler numériquement ce modèle. Elle est conçue pour être implémentée sur une architecture parallèle. Les EDP sont discrétisées avec un schéma Volumes Finis sur un maillage adaptatif piloté par une analyse multirésolution. Le modèle présente des discontinuités de flux aux interfaces entre les différents états cellulaires, qui nécessitent la mise en ½uvre d'un couplage spécifique, compatible avec le schéma d'ordre élevé et le raffinement de maillage.Un chapitre de la thèse est dévolu à la méthode de calibration, qui consiste à traduire les connaissances biologiques en contraintes sur les paramètres et sur les sorties du modèle. Le caractère multi-échelle est là encore crucial. Les paramètres interviennent au niveau microscopique dans les équations gouvernant l'évolution des densités de cellules au sein de chaque follicule, alors que les données biologiques quantitatives sont disponibles aux niveaux mésoscopique et macroscopique
The thesis focuses on the numerical simulation of a biomathematical, multiscale model explaining the phenomenon of selection within the population of ovarian follicles, and grounded on a cellular basis. The PDE model consists of a large dimension hyperbolic quasilinear system governing the evolution of cell density functions for a cohort of follicles (around twenty in practice).The equations are coupled in a nonlocal way by control terms involving moments of the solution, defined on either the mesoscopic or macroscopic scale.Three chapters of the thesis, presented in the form of articles, develop the method used to simulate the model numerically. The numerical code is implemented on a parallel architecture. PDEs are discretized with a Finite Volume scheme on an adaptive mesh driven by a multiresolution analysis. Flux discontinuities, at the interfaces between different cellular states, require a specific treatment to be compatible with the high order numerical scheme and mesh refinement.A chapter of the thesis is devoted to the calibration method, which translates the biological knowledge into constraints on the parameters and model outputs. The multiscale character is crucial, since parameters are used at the microscopic level in the equations governing the evolution of the density of cells within each follicle, whereas quantitative biological data are rather available at the mesoscopic and macroscopic levels.The last chapter of the thesis focuses on the analysis of computational performances of the parallel code, based on statistical methods inspired from the field of uncertainty quantification
6

Belmajdoub, Fouad. "Développement d'une méthode de reconstruction 3D du tronc scoliotique par imagerie numérique stéréoscopique et modélisation des calculs par réseaux de Pétri à flux de données en vue d'une implémentation sur une architecture parallèle". Aix-Marseille 3, 1993. http://www.theses.fr/1993AIX30087.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Notre etude a pour objet la reconstruction tridimensionnelle d'un moulage de tronc d'un scoliotique, en vue d'une cfao de corset de scoliose. Cette these se compose de deux parties: la premiere partie presente les resultats concernant le developpement d'un nouvel outil informatique permettant aux orthesistes l'amelioration du procede de fabrication des corsets de scoliose. Le principe de base repose sur l'utilisation de la stereovision passive pour l'extraction des informations tridimensionnelles du moulage, puis le recours a l'outil cadkey de cao pour la phase de modelisation. Dans la seconde partie de la these, nous presentons une methode d'ordonnancement temporel des reseaux de petri a flux de donnees pour une implementation des calculs sur une architecture parallele. A cet effet, des algorithmes performants ont ete elabores tenant compte du nombre de coefficients nuls dans la matrice d'adjacence.
7

Bouaziz, Mohamed. "Réseaux de neurones récurrents pour la classification de séquences dans des flux audiovisuels parallèles". Thesis, Avignon, 2017. http://www.theses.fr/2017AVIG0224/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les flux de contenus audiovisuels peuvent être représentés sous forme de séquences d’événements (par exemple, des suites d’émissions, de scènes, etc.). Ces données séquentielles se caractérisent par des relations chronologiques pouvant exister entre les événements successifs. Dans le contexte d’une chaîne TV, la programmation des émissions suit une cohérence définie par cette même chaîne, mais peut également être influencée par les programmations des chaînes concurrentes. Dans de telles conditions,les séquences d’événements des flux parallèles pourraient ainsi fournir des connaissances supplémentaires sur les événements d’un flux considéré.La modélisation de séquences est un sujet classique qui a été largement étudié, notamment dans le domaine de l’apprentissage automatique. Les réseaux de neurones récurrents de type Long Short-Term Memory (LSTM) ont notamment fait leur preuve dans de nombreuses applications incluant le traitement de ce type de données. Néanmoins,ces approches sont conçues pour traiter uniquement une seule séquence d’entrée à la fois. Notre contribution dans le cadre de cette thèse consiste à élaborer des approches capables d’intégrer conjointement des données séquentielles provenant de plusieurs flux parallèles.Le contexte applicatif de ce travail de thèse, réalisé en collaboration avec le Laboratoire Informatique d’Avignon et l’entreprise EDD, consiste en une tâche de prédiction du genre d’une émission télévisée. Cette prédiction peut s’appuyer sur les historiques de genres des émissions précédentes de la même chaîne mais également sur les historiques appartenant à des chaînes parallèles. Nous proposons une taxonomie de genres adaptée à de tels traitements automatiques ainsi qu’un corpus de données contenant les historiques parallèles pour 4 chaînes françaises.Deux méthodes originales sont proposées dans ce manuscrit, permettant d’intégrer les séquences des flux parallèles. La première, à savoir, l’architecture des LSTM parallèles(PLSTM) consiste en une extension du modèle LSTM. Les PLSTM traitent simultanément chaque séquence dans une couche récurrente indépendante et somment les sorties de chacune de ces couches pour produire la sortie finale. Pour ce qui est de la seconde proposition, dénommée MSE-SVM, elle permet de tirer profit des avantages des méthodes LSTM et SVM. D’abord, des vecteurs de caractéristiques latentes sont générés indépendamment, pour chaque flux en entrée, en prenant en sortie l’événement à prédire dans le flux principal. Ces nouvelles représentations sont ensuite fusionnées et données en entrée à un algorithme SVM. Les approches PLSTM et MSE-SVM ont prouvé leur efficacité dans l’intégration des séquences parallèles en surpassant respectivement les modèles LSTM et SVM prenant uniquement en compte les séquences du flux principal. Les deux approches proposées parviennent bien à tirer profit des informations contenues dans les longues séquences. En revanche, elles ont des difficultés à traiter des séquences courtes.L’approche MSE-SVM atteint globalement de meilleures performances que celles obtenues par l’approche PLSTM. Cependant, le problème rencontré avec les séquences courtes est plus prononcé pour le cas de l’approche MSE-SVM. Nous proposons enfin d’étendre cette approche en permettant d’intégrer des informations supplémentaires sur les événements des séquences en entrée (par exemple, le jour de la semaine des émissions de l’historique). Cette extension, dénommée AMSE-SVM améliore remarquablement la performance pour les séquences courtes sans les baisser lorsque des séquences longues sont présentées
In the same way as TV channels, data streams are represented as a sequence of successive events that can exhibit chronological relations (e.g. a series of programs, scenes, etc.). For a targeted channel, broadcast programming follows the rules defined by the channel itself, but can also be affected by the programming of competing ones. In such conditions, event sequences of parallel streams could provide additional knowledge about the events of a particular stream. In the sphere of machine learning, various methods that are suited for processing sequential data have been proposed. Long Short-Term Memory (LSTM) Recurrent Neural Networks have proven its worth in many applications dealing with this type of data. Nevertheless, these approaches are designed to handle only a single input sequence at a time. The main contribution of this thesis is about developing approaches that jointly process sequential data derived from multiple parallel streams. The application task of our work, carried out in collaboration with the computer science laboratory of Avignon (LIA) and the EDD company, seeks to predict the genre of a telecast. This prediction can be based on the histories of previous telecast genres in the same channel but also on those belonging to other parallel channels. We propose a telecast genre taxonomy adapted to such automatic processes as well as a dataset containing the parallel history sequences of 4 French TV channels. Two original methods are proposed in this work in order to take into account parallel stream sequences. The first one, namely the Parallel LSTM (PLSTM) architecture, is an extension of the LSTM model. PLSTM simultaneously processes each sequence in a separate recurrent layer and sums the outputs of each of these layers to produce the final output. The second approach, called MSE-SVM, takes advantage of both LSTM and Support Vector Machines (SVM) methods. Firstly, latent feature vectors are independently generated for each input stream, using the output event of the main one. These new representations are then merged and fed to an SVM algorithm. The PLSTM and MSE-SVM approaches proved their ability to integrate parallel sequences by outperforming, respectively, the LSTM and SVM models that only take into account the sequences of the main stream. The two proposed approaches take profit of the information contained in long sequences. However, they have difficulties to deal with short ones. Though MSE-SVM generally outperforms the PLSTM approach, the problem experienced with short sequences is more pronounced for MSE-SVM. Finally, we propose to extend this approach by feeding additional information related to each event in the input sequences (e.g. the weekday of a telecast). This extension, named AMSE-SVM, has a remarkably better behavior with short sequences without affecting the performance when processing long ones
8

Garrigues, Matthieu. "Accélération Algorithmique et Logicielle del’Analyse Vidéo du Mouvement". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLY018.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’analyse du mouvement dans une vidéo consiste à estimer, à partir d’une séquence d’images, le déplacement apparent des objets projetés sur le plan focal d’une caméra, statique ou mobile. Un grand nombre de domaines comme la robotique, la vidéo surveillance, le cinéma ou encore les applications militaires, reposent sur cette analyse pour interpréter le contenu d’une vidéo. Ce problème a été l’un des premiers à être approché par les chercheurs en traitement d’image. De nombreuses solutions ont été proposées et permettent une estimation suffisamment précise et robuste pour un grand nombre d’applications. Cependant, la complexité algorithmique de ces solutions et/ou le manque d’optimisations de leur implantations logicielles rendent leur utilisation dans les applications à forte contraintes de calculs difficile voire impossible.Dans les travaux présentés dans cette thèse, nous avons optimisé trois types d’analyses de mouvement en prenant en compte, non seulement la complexité algorithmique, mais aussi tous les facteurs impactant le temps de calcul sur les processeurs actuels comme la parallélisation, la consommation mémoire, la régularité des accès mémoire ou encore le type des opérations arithmétiques. Cette diversité des problématiques nous a conduits à élaborer notre thèse à l’intersection des domaines du génie logiciel et du traitement d’image. Nos contributions ont permis le développement d’applications temps réel comme la reconnaissance d’actions, la stabilisation vidéo et la segmentation d’objets mobiles
Motion analysis in a video consists in estimating, from a sequence of images, the displacement of the objects projected on the focal plane of a camera, static or mobile. A large number of fields such as robotics, video surveillance, cinema or military applications rely on this analysis to interpret the contentof a video.This problem was one of the first to be approached by researchers in image processing. Numerous solutions have been proposed and allow a sufficiently accurate and robust estimate for a large number of applications. However, the algorithmic complexity of these solutions and/or the lack of optimizations of their software implementations make their use in applications with high computational constraints difficult or impossible.In the work presented in this thesis, we optimized three types of motion analysis taking into account not only the algorithmic complexity, but also all the factors affecting computation time on current processors such as parallelization, memory consumption, the regularity of memory accesses, or the type of arithmetic operations. This led us to develop our thesis at the intersection of software engineering and image processing. Our contributions have enabled the development of real-time applications such as action recognition, video stabilization andsegmentation of mobile objects
9

Gorin, Jérôme. "Machine virtuelle universelle pour codage vidéo reconfigurable". Phd thesis, Institut National des Télécommunications, 2011. http://tel.archives-ouvertes.fr/tel-00997683.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse propose un nouveau paradigme de représentation d'applications pour les machines virtuelles, capable d'abstraire l'architecture des systèmes informatiques. Les machines virtuelles actuelles reposent sur un modèle unique de représentation d'application qui abstrait les instructions des machines et sur un modèle d'exécution qui traduit le fonctionnement de ces instructions vers les machines cibles. S'ils sont capables de rendre les applications portables sur une vaste gamme de systèmes, ces deux modèles ne permettent pas en revanche d'exprimer la concurrence sur les instructions. Or, celle-ci est indispensable pour optimiser le traitement des applications selon les ressources disponibles de la plate-forme cible. Nous avons tout d'abord développé une représentation " universelle " d'applications pour machine virtuelle fondée sur la modélisation par graphe flux de données. Une application est ainsi modélisée par un graphe orienté dont les sommets sont des unités de calcul (les acteurs) et dont les arcs représentent le flux de données passant au travers de ces sommets. Chaque unité de calcul peut être traitée indépendamment des autres sur des ressources distinctes. La concurrence sur les instructions dans l'application est alors explicite. Exploiter ce nouveau formalisme de description d'applications nécessite de modifier les règles de programmation. A cette fin, nous avons introduit et défini le concept de " Représentation Canonique et Minimale " d'acteur. Il se fonde à la fois sur le langage de programmation orienté acteur CAL et sur les modèles d'abstraction d'instructions des machines virtuelles existantes. Notre contribution majeure qui intègre les deux nouvelles représentations proposées, est le développement d'une " Machine Virtuelle Universelle " (MVU) dont la spécificité est de gérer les mécanismes d'adaptation, d'optimisation et d'ordonnancement à partir de l'infrastructure de compilation Low-Level Virtual Machine. La pertinence de cette MVU est démontrée dans le contexte normatif du codage vidéo reconfigurable (RVC). En effet, MPEG RVC fournit des applications de référence de décodeurs conformes à la norme MPEG-4 partie 2 Simple Profile sous la forme de graphe flux de données. L'une des applications de cette thèse est la modélisation par graphe flux de données d'un décodeur conforme à la norme MPEG-4 partie 10 Constrained Baseline Profile qui est deux fois plus complexe que les applications de référence MPEG RVC. Les résultats expérimentaux montrent un gain en performance en exécution de deux pour des plates-formes dotées de deux cœurs par rapport à une exécution mono-cœur. Les optimisations développées aboutissent à un gain de 25% sur ces performances pour des temps de compilation diminués de moitié. Les travaux effectués démontrent le caractère opérationnel et universel de cette norme dont le cadre d'utilisation dépasse le domaine vidéo pour s'appliquer à d'autres domaine de traitement du signal (3D, son, photo...)
10

Grosjean, Alex. "Impact of geometry and shaping of the plasma facing components on hot spot generation in tokamak devices". Electronic Thesis or Diss., Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0556.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s’inscrit en support du projet ITER, sur l’étude du comportement thermique de prototypes de CFP dans des tokamaks supraconducteurs : EAST et WEST. Ces prototypes correspondent à un enchaînement de monoblocs de tungstène le long d’un tube de refroidissement, séparés par des interstices (0.5 mm), qui permet d’extraire la chaleur de ces composants. L’introduction de ces interstices entre monoblocs (toroïdaux) ou entre barres de monoblocs (poloïdaux), implique que le bord poloïdal peut être exposé aux lignes de champ avec une incidence quasi-normale. Un échauffement local très important est attendu sur une fine bande latérale de la surface supérieure de chaque monobloc, qui peut être accentué dans le cas où les composants sont désalignés. Nous proposons dans ce travail d’étudier l’impact de deux géométries (arête vive et chanfrein) de ces composants ainsi que de leurs désalignements sur la génération de points chauds locaux, à l’aide de diagnostics embarqués (TC/FBG), et d’une caméra infrarouge très haute résolution (~0.1 mm/pixel), dont l’émissivité varie en fonction de la longueur d’onde, de la température, et de l’état de surface, qui évolue au contact du plasma, lors des différentes campagnes expérimentales. Les sondes de Langmuir permettront de mesurer la température du plasma, et par conséquent d’estimer les rayons de Larmor des ions, qui pourront jouer un rôle important dans la distribution locale du flux de chaleur autour des bords poloïdaux et toroïdaux. Les travaux menés ici, montrent la cohérence entre les calculs prédictifs et les résultats expérimentaux et appuient la décision d'ITER de biseauter les MBs pour protéger leurs bords d'attaque
This PhD falls within ITER project support, aiming to study the thermal behavior of ITER-like PFC prototypes in two superconducting tokamaks: EAST (Hefei) and WEST (Cadarache). These prototypes correspond to castellated tungsten monoblocks placed along a cooling tube with small gaps (0.5 mm) between them, called plasma-facing units, to extract the heat from the components. The introduction of gaps between monoblocks (toroidal) and plasma-facing units (poloidal), to relieve the thermomechanical stresses in the divertor, implies that poloidal leading edges may be exposed to near-normal incidence angle. A local overheating is expected in a thin lateral band at the top of each monoblocks, which can be enhanced when the neighboring components are misaligned. In this work, we propose to study the impact of two geometries (sharp and chamfered LEs) of these components, as well as their misalignments on local hot spot generation, by means of embedded diagnostics (TC/FBG), and a submillimeter infrared system (~0.1 mm/pixel), whose emissivity varies with wavelength, and the temperature, but above all, the surface state of the component, which evolves under plasma exposure, during the experimental campaigns. The divertor Langmuir probes measure the plasma temperature, and thus estimate the ion Larmor radius that may play a role in the local heat flux distribution around poloidal and toroidal edges. The results presented in this thesis, confirming the modelling predictions by experimental measurements, support the final decision by ITER to include 0.5 mm toroidal beveling of monoblocks on the vertical divertor targets to protect poloidal leading edges from excessive heat flux
11

Song, Ge. "Méthodes parallèles pour le traitement des flux de données continus". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC059/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous vivons dans un monde où une grande quantité de données est généré en continu. Par exemple, quand on fait une recherche sur Google, quand on achète quelque chose sur Amazon, quand on clique en ‘Aimer’ sur Facebook, quand on upload une image sur Instagram, et quand un capteur est activé, etc., de nouvelles données vont être généré. Les données sont différentes d’une simple information numérique, mais viennent dans de nombreux format. Cependant, les données prisent isolément n’ont aucun sens. Mais quand ces données sont reliées ensemble on peut en extraire de nouvelles informations. De plus, les données sont sensibles au temps. La façon la plus précise et efficace de représenter les données est de les exprimer en tant que flux de données. Si les données les plus récentes ne sont pas traitées rapidement, les résultats obtenus ne sont pas aussi utiles. Ainsi, un système parallèle et distribué pour traiter de grandes quantités de flux de données en temps réel est un problème de recherche important. Il offre aussi de bonne perspective d’application. Dans cette thèse nous étudions l’opération de jointure sur des flux de données, de manière parallèle et continue. Nous séparons ce problème en deux catégories. La première est la jointure en parallèle et continue guidée par les données. La second est la jointure en parallèle et continue guidée par les requêtes
We live in a world where a vast amount of data is being continuously generated. Data is coming in a variety of ways. For example, every time we do a search on Google, every time we purchase something on Amazon, every time we click a ‘like’ on Facebook, every time we upload an image on Instagram, every time a sensor is activated, etc., it will generate new data. Data is different than simple numerical information, it now comes in a variety of forms. However, isolated data is valueless. But when this huge amount of data is connected, it is very valuable to look for new insights. At the same time, data is time sensitive. The most accurate and effective way of describing data is to express it as a data stream. If the latest data is not promptly processed, the opportunity of having the most useful results will be missed.So a parallel and distributed system for processing large amount of data streams in real time has an important research value and a good application prospect. This thesis focuses on the study of parallel and continuous data stream Joins. We divide this problem into two categories. The first one is Data Driven Parallel and Continuous Join, and the second one is Query Driven Parallel and Continuous Join
12

Nguyen, Phuong Thanh. "Study of the aquatic dissolved organic matter from the Seine River catchment (France) by optical spectroscopy combined to asymmetrical flow field-flow fractionation". Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0154/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but principal de cette thèse était d'étudier les caractéristiques de la matière organique dissoute (MOD) dans le bassin versant de la Seine. Ce travail a été réalisé dans le cadre du programme de recherche PIREN-Seine. Les travaux présentés ici visaient plus particulièrement à identifier les sources de MOD et à suivre son évolution dans les zones d’étude. L’analyse des propriétés optiques (UV-Visible, fluorescence) de la MOD, couplée aux traitements PARAFAC et ACP, a permis de discriminer différentes sources de MOD et de mettre en évidence des variations spatio-temporelles de ses propriétés. L’axe Seine, en aval de Paris, a notamment été caractérisé par l'activité biologique la plus forte. La MOD du bassin de l’Oise a montré des caractéristiques plus "humiques", tandis que le bassin de la Marne a été caractérisé par un troisième type spécifique de MOD. Il a d’autre part été mis en évidence la présence de MODs spécifiques dans chaque zone pour les échantillons prélevés en périodes d’étiage, alors qu’une distribution homogène des composants a été obtenue pour l’ensemble des échantillons prélevés en période de crue.Le rôle environnemental des colloïdes naturels étant étroitement lié à leur taille, il a d’autre part été développé une technique analytique/séparative originale pour l’étude de ce matériel complexe, un fractionnement par couplage flux/force avec flux asymétrique (AF4). Le fractionnement par AF4 des échantillons a confirmé la variabilité spatio-temporelle en composition et en taille de la MOD d'un site de prélèvement à un autre et a permis de distinguer différentes sources de MOD colloïdale confirmant les résultats de l’étude de ses propriétés optiques
The main goal of this thesis was to investigate the characteristics of dissolvedorganic matter (DOM) within the Seine River catchment in the Northern part of France. ThisPhD thesis was performed within the framework of the PIREN-Seine research program. Theapplication of UV/visible absorbance and EEM fluorescence spectroscopy combined toPARAFAC and PCA analyses allowed us to identify different sources of DOM andhighlighted spatial and temporal variations of DOM properties. The Seine River wascharacterized by the strongest biological activity. DOM from the Oise basin seemed to havemore "humic" characteristics, while the Marne basin was characterized by a third specifictype of DOM. For samples collected during low-water periods, the distributions of the 7components determined by PARAFAC treatment varied between the studied sub-basins,highlighting different organic materials in each zone. A homogeneous distribution of thecomponents was obtained for the samples collected in period of flood.Then, a semi-quantitative asymmetrical flow field-flow fractionation (AF4) methodology wasdeveloped to fractionate DOM. The following optimized parameters were determined: across-flow rate of 2 ml min-1 during the focus step with a focusing time of 2 min and anexponential gradient of cross-flow from 3.5 to 0.2 ml min-1 during the elution step. Thefluorescence properties of various size-based fractions of DOM were evaluated by applyingthe optimized AF4 methodology to fractionate 13 samples, selected from the three sub-basins.The fluorescence properties of these fractions were analysed, allowing us to discriminatebetween the terrestrial or autochthonous origin of DOM
13

Lalevée, Philippe. "Algorithmes paralleles par flux dans les graphes : des fondements aux applications". Paris 6, 1995. http://www.theses.fr/1995PA066640.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these traite de la parallelisation d'algorithmes de graphe sur des machines multiprocesseurs sans memoire partagee. Les algorithmes de graphe sont utilises dans les systemes d'exploitation repartis pour fournir des operateurs lies au reseau. Nous proposons l'approche inverse, c'est a dire la construction, a partir des graphes a traiter, de machines-reseau qui soient capables de resoudre de facon efficace les algorithmes de graphe. Nous definissons un principe de resolution d'algorithmes de graphe, que nous avons appele principe de flux diffusant, extension de techniques algorithmiques reparties presentees dans le memoire. Il s'agit d'un principe de simulation qui prend la topologie du graphe comme element structurel dans l'execution de l'algorithme, ce qui entraine la parallelisation immediate et optimale du probleme. Selon ce principe, nous avons developpe plusieurs algorithmes dont la reconnaissance des graphes series-paralleles et le flot maximal dans un graphe. Nous proposons ensuite une implantation sur machine a transputers d'un logiciel appele apf dont les objectifs sont le developpement des algorithmes de graphe selon le principe de flux mais egalement de tout type d'algorithme en reseau, la facilitation de la mise au point de ces algorithmes et une plateforme d'execution permettant l'analyse des performances. Ce logiciel offre de grandes opportunites d'integration dans des machines-reseau plus vastes
14

Denoulet, Julien. "Architectures massivement parallèles de systèmes sur circuits (SoC) pour le traitement de flux vidéos". Paris 11, 2004. http://www.theses.fr/2004PA112223.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these porte sur l'evolution d'une architecture simd massivement parallele, reconfigurable et partiellement asynchrone dediee a l'analyse d'images, la maille associative. Cette architecture est tiree d'un modele de calcul theorique appele reseaux associatifs, qui permet d'implementer de faÇon efficace un grand nombre d'algorithme de traitements d'images. Dans l'optique d'une integration materielle sur une plate-forme de type system on chip (soc), cette etude presente les diverses possibilites d'evolution de l'architecture, en evalue les couts materiels et les repercussions sur les performances du circuit, dans une problematique d'adequation algorithme architecture. Nous montrons qu'une reorganisation de la structure fondee sur la virtualisation de ses processeurs elementaires permet de reduire de faÇon substantielle la surface du circuit, et ouvre de nouvelles perspectives de calcul ou de gestion de la memoire. A l'aide d'un environnement de programmation et d'evaluation bati autour d'une bibliotheque de simulation des reseaux associatifs et d'une description parametrable de l'architecture en langage system c, nous montrons que la maille associative virtualisee permet de soutenir des cadences de traitement temps-reel pour un grand nombre d'algorithmes d'analyse d'images : operations de pretraitements (filtrage par convolution, operations statistiques ou de morphologie mathematique), segmentations par decoupe ou fusion de voronoï et ligne de partage des eaux, detection de mouvements par relaxation markovienne
This thesis describes the evolution of the associative mesh, a massively parallel simd architecture dedicated to image processing. This design is drawn from a theoretical model called associative nets, which implements a large number of image processing algorithms in an efficient way. In the prospect of a system on chip (soc) implementation of the associative mesh, this study presents the various possibilities of evolution for this architecture, and evaluates their consequences in terms of hardware costs and algorithmic performances. We show that a reorganisation of the structure based on the virtualisation of its elementary processors allows to reduce the design's area in substantial proportions, and opens new prospects in terms of calculation or memory management. Using an evaluation environment based on a programming library of associative nets and a parameterized description of the architecture using the system c language, we show that a virtualised associative mesh achieves real-time treatments for a great number of algorithms: low-level operations such as convolution filters, statistical statistical algorithms or mathematical morphology, and more complex treatments such as a split & merge segmentation, watershed segmentation, and motion detection using markovian relaxation
15

Abellard, Patrick. "Contribution a l'etude d'extensions des reseaux de petri a flux de donnees pour la telesymbiotique assistee par calculateur". Toulon, 1988. http://www.theses.fr/1988TOUL0003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Etude d'extensions concernant le traitement des donnees matricielles, la colorabilite des reseaux et la modelisation des reseaux systoliques permet de couvrir un large champ d'applications. Les resultats theoriques obtenus ont ete implementes sur un multiprocesseur construit a base de processeurs a flux de donnees
16

Togbe, Maurras Ulbricht. "Détection distribuée d'anomalies dans les flux de données". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS400.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La détection d'anomalies est une problématique importante dans de nombreux domaines d'application comme la santé, le transport, l'industrie etc. Il s'agit d'un sujet d'actualité qui tente de répondre à la demande toujours croissante dans différents domaines tels que la détection d'intrusion, de fraude, etc. Dans cette thèse, après un état de l'art général complet, la méthode non supervisé Isolation Forest (IForest) a été étudiée en profondeur en présentant ses limites qui n'ont pas été abordées dans la littérature. Notre nouvelle version de IForest appelée Majority Voting IForest permet d'améliorer son temps d'exécution. Nos méthodes ADWIN-based IForest ASD et NDKSWIN-based IForest ASD permettent la détection d'anomalies dans les flux de données avec une meilleure gestion du concept drift. Enfin, la détection distribuée d'anomalies en utilisant IForest a été étudiée et évaluée. Toutes nos propositions ont été validées avec des expérimentations sur différents jeux de données
Anomaly detection is an important issue in many application areas such as healthcare, transportation, industry etc. It is a current topic that tries to meet the ever increasing demand in different areas such as intrusion detection, fraud detection, etc. In this thesis, after a general complet state of the art, the unsupervised method Isolation Forest (IForest) has been studied in depth by presenting its limitations that have not been addressed in the literature. Our new version of IForest called Majority Voting IForest improves its execution time. Our ADWIN-based IForest ASD and NDKSWIN-based IForest ASD methods allow the detection of anomalies in data stream with a better management of the drift concept. Finally, distributed anomaly detection using IForest has been studied and evaluated. All our proposals have been validated with experiments on different datasets
17

Gorin, Jérôme. "Machine virtuelle universelle pour codage vidéo reconfigurable". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2011. http://www.theses.fr/2011TELE0025.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse propose un nouveau paradigme de représentation d’applications pour les machines virtuelles, capable d’abstraire l’architecture des systèmes informatiques. Les machines virtuelles actuelles reposent sur un modèle unique de représentation d’application qui abstrait les instructions des machines et sur un modèle d’exécution qui traduit le fonctionnement de ces instructions vers les machines cibles. S’ils sont capables de rendre les applications portables sur une vaste gamme de systèmes, ces deux modèles ne permettent pas en revanche d’exprimer la concurrence sur les instructions. Or, celle-ci est indispensable pour optimiser le traitement des applications selon les ressources disponibles de la plate-forme cible. Nous avons tout d’abord développé une représentation « universelle » d’applications pour machine virtuelle fondée sur la modélisation par graphe flux de données. Une application est ainsi modélisée par un graphe orienté dont les sommets sont des unités de calcul (les acteurs) et dont les arcs représentent le flux de données passant au travers de ces sommets. Chaque unité de calcul peut être traitée indépendamment des autres sur des ressources distinctes. La concurrence sur les instructions dans l’application est alors explicite. Exploiter ce nouveau formalisme de description d'applications nécessite de modifier les règles de programmation. A cette fin, nous avons introduit et défini le concept de « Représentation Canonique et Minimale » d’acteur. Il se fonde à la fois sur le langage de programmation orienté acteur CAL et sur les modèles d’abstraction d’instructions des machines virtuelles existantes. Notre contribution majeure qui intègre les deux nouvelles représentations proposées, est le développement d’une « Machine Virtuelle Universelle » (MVU) dont la spécificité est de gérer les mécanismes d’adaptation, d’optimisation et d’ordonnancement à partir de l’infrastructure de compilation Low-Level Virtual Machine. La pertinence de cette MVU est démontrée dans le contexte normatif du codage vidéo reconfigurable (RVC). En effet, MPEG RVC fournit des applications de référence de décodeurs conformes à la norme MPEG-4 partie 2 Simple Profile sous la forme de graphe flux de données. L’une des applications de cette thèse est la modélisation par graphe flux de données d’un décodeur conforme à la norme MPEG-4 partie 10 Constrained Baseline Profile qui est deux fois plus complexe que les applications de référence MPEG RVC. Les résultats expérimentaux montrent un gain en performance en exécution de deux pour des plates-formes dotées de deux cœurs par rapport à une exécution mono-cœur. Les optimisations développées aboutissent à un gain de 25% sur ces performances pour des temps de compilation diminués de moitié. Les travaux effectués démontrent le caractère opérationnel et universel de cette norme dont le cadre d’utilisation dépasse le domaine vidéo pour s’appliquer à d’autres domaine de traitement du signal (3D, son, photo…)
This thesis proposes a new paradigm that abstracts the architecture of computer systems for representing virtual machines’ applications. Current applications are based on abstraction of machine’s instructions and on an execution model that reflects operations of these instructions on the target machine. While these two models are efficient to make applications portable across a wide range of systems, they do not express concurrency between instructions. Expressing concurrency is yet essential to optimize processing of application as the number of processing units is increasing in computer systems. We first develop a “universal” representation of applications for virtual machines based on dataflow graph modeling. Thus, an application is modeled by a directed graph where vertices are computation units (the actors) and edges represent the flow of data between vertices. Each processing units can be treated apart independently on separate resources. Concurrency in the instructions is then made explicitly. Exploit this new description formalism of applications requires a change in programming rules. To that purpose, we introduce and define a “Minimal and Canonical Representation” of actors. It is both based on actor-oriented programming and on instructions ‘abstraction used in existing Virtual Machines. Our major contribution, which incorporates the two new representations proposed, is the development of a “Universal Virtual Machine” (UVM) for managing specific mechanisms of adaptation, optimization and scheduling based on the Low-Level Virtual Machine (LLVM) infrastructure. The relevance of the MVU is demonstrated on the MPEG Reconfigurable Video Coding standard. In fact, MPEG RVC provides decoder’s reference application compliant with the MPEG-4 part 2 Simple Profile in the form of dataflow graph. One application of this thesis is a new dataflow description of a decoder compliant with the MPEG-4 part 10 Constrained Baseline Profile, which is twice as complex as the reference MPEG RVC application. Experimental results show a gain in performance close to double on a two cores compare to a single core execution. Developed optimizations result in a gain on performance of 25% for compile times reduced by half. The work developed demonstrates the operational nature of this standard and offers a universal framework which exceeds the field of video domain (3D, sound, picture...)
18

Skordos, Panayotis Augoustos. "Modeling flue pipes--subsonic flow, lattice Boltzmann, and parallel distributed computers". Thesis, Massachusetts Institute of Technology, 1995. http://hdl.handle.net/1721.1/36534.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Thesis (Ph. D.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 1995.
Includes bibliographical references (p. 251-256).
by Panayotis A. Skordos.
Ph.D.
19

Kang, Yong Tae. "Experimental investigation of critical heat flux in transient boiling systems with vertical thin rectangular parallel plate channels /". The Ohio State University, 1994. http://rave.ohiolink.edu/etdc/view?acc_num=osu1244826053.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Cureton, Christopher Wayne. "The implementation of four additional inviscid flux methods in the U²NCLE parallel unstructured Navier-Stokes solver". Master's thesis, Mississippi State : Mississippi State University, 2007. http://library.msstate.edu/etd/show.asp?etd=etd-04032007-221145.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Enomoto, Cristina. "Uma linguagem para especificação de fluxo de execução em aplicações paralelas". [s.n.], 2005. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261813.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Orientador: Marco Aurelio Amaral Henriques
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-08-05T12:56:47Z (GMT). No. of bitstreams: 1 Enomoto_Cristina_M.pdf: 856279 bytes, checksum: ce524a49db0f67734e28d8458d5deb0b (MD5) Previous issue date: 2005
Resumo: Vários sistemas de grid e computação distribuída existentes só permitem a execução de aplicações com um fluxo de execução de tarefas básico, no qual é feita a distribuição das tarefas executadas em paralelo e depois a coleta de seus resultados. Outros sistemas permitem definir uma relação de dependências entre as tarefas, formando um grafo direcionado acíclico. Porém, mesmo com este modelo de fluxo de execução não é possível executar vários tipos de aplicações que poderiam ser paralelizadas, como, por exemplo, algoritmos genéticos e de cálculo numérico que utilizam algum tipo de processamento iterativo. Nesta dissertação é proposta uma linguagem de especificação para fluxo de execução de aplicações paralelas que permite um controle de fluxo de tarefas mais flexível, viabilizando desvios condicionais e laços com iterações controladas. A linguagem é baseada na notação XML (eXtensible Markup Language), o que lhe confere características importantes tais como flexibilidade e simplicidade. Para avaliar estas e outras características da linguagem proposta, foi feita uma implementação sobre o sistema de processamento paralelo JoiN. Além de viabilizar a criação e execução de novas aplicações paralelas cujos fluxos de tarefas contêm laços e/ou desvios condicionais, a linguagem se mostrou simples de usar e não causou sobrecarga perceptível ao sistema paralelo
Abstract: Many distributed and parallel systems allow only a basic task flow, in which the parallel tasks are distributed and their results collected. In some systems the application execution flow gives support to a dependence relationship among tasks, represented by a directed acyclic graph. Even with this model it is not possible to execute in parallel some important applications as, for example, genetic algorithms. Therefore, there is a need for a new specification model with more sophisticated flow controls that allow some kind of iterative processing at the level of task management. The purpose of this work is to present a proposal for a specification language for parallel application execution workflow, which provides new types of control structures and allows the implementation of a broader range of applications. This language is based on XML (eXtensible Markup Language) notation, which provides characteristics like simplicity and flexibility to the proposed language. To evaluate these and other characteristics of the language, it was implemented on the JoiN parallel processing system. Besides allowing the creation and execution of new parallel applications containing task flows with loops and conditional branches, the proposedlanguage was easy to use and did not cause any significant overhead to the parallel system
Mestrado
Engenharia de Computação
Mestre em Engenharia Elétrica
22

Magna, Patrícia. "Redução dos bits de emparelhamento da máquina de fluxo de dados de Manchester". Universidade de São Paulo, 1992. http://www.teses.usp.br/teses/disponiveis/54/54132/tde-17042009-115457/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
O modelo a fluxo de dados tem grande destaque em pesquisas em arquiteturas de alto desempenho. Neste modelo, o controle de execução é feito apenas pela disponibilidade dos dados, permitindo que seja explorado o máximo de paralelismo implícito em um programa. As propostas que serão expostas neste trabalho visam solucionar um particular problema da máquina de fluxo de dados de Manchester. Esta arquitetura para tratar código reentrante, impõe que as fichas de dados, além da indicação da instrução destino, possuam um rótulo. Estas informações extras, que formam 70% da ficha de dado, fazem com que a implantação da máquina seja complexa. Assim, o hardware impõe um sério limite a velocidade de processamento, impedindo a plena utilização do modelo. Neste trabalho, serão apresentadas propostas para a redução do número de informações necessárias para o correto funcionamento da máquina, possibilitando uma implementação mais simples e mais eficiente.
The dataflow model is specially relevant you research in high-performance architectures. In this model, the execution control is done by taking into account only the dates availability, thus allowing maximum exploitation of the paralelism implicit in programs. The present work is based on the Manchester dataflow machine, which, in to order you handle the reentran code, imposes the dates token you have, in addition you the destination instruction Field, albel. Additional This information, which corresponds you 70% of the dates token, compounds the machine implementation it substantially bounds the execution speed and prevents the full model utilization. This work presents approaches will be reducing the amount of information needed will be to proper machine operation in to order you achieve to simpler and lives effective implementation.
23

Magna, Patrícia. "Proposta e simulação de uma arquitetura a fluxo de dados de segunda geração". Universidade de São Paulo, 1997. http://www.teses.usp.br/teses/disponiveis/76/76132/tde-06042009-113436/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Neste trabalho é apresentada a arquitetura SEED, proposta a partir das experiências adquiridas com as arquiteturas baseadas no modelo a fluxo de dados que foram estudadas até o presente. A arquitetura SEED utiliza o modelo a fluxo de dados para escalonar e executar blocos de instruções, visando aproveitar a principal qualidade apresentada pelo modelo, que consiste em expor o máximo de paralelismo existente nos programas. No entanto, a arquitetura explora paralelismo de granularidade mais grossa que as arquiteturas a fluxo de dados, a fim de reduzir o trafego de fichas de dados na arquitetura. Esta redução tenta resolver ou amenizar problemas como a excessiva ocupação de memória e a grande complexidade exigida do hardware. Além da especificação da funcionalidade de toda a arquitetura SEED, este trabalho apresenta uma proposta para o particionamento do código. A utilização desta proposta permite a geração de blocos de códigos que podem ser executados corretamente pela arquitetura SEED. Alguns benchmarks foram gerados utilizando essa proposta de particionamento de código. Estes benchmarks foram executados no simulador da arquitetura SEED, visando analisar e avaliar o comportamento da arquitetura com diversas configurações de hardware.
In this work is presented the SEED architecture. This architecture was proposed considering the experiences obtained with existing architectures based on dataflow model. The SEED architecture uses dataflow model to schedule and execute sets of instructions, called code blocks. This approach tries to make use of the main quality of the dataflow model that is to expose the maximum parallelism of the programs. However, this architecture explores coarser granularity than the one usually considered in dataflow architectures in order to reduce the data token traffic in the architecture. This type of reduction tries to solve problems like excessive occupation of memory and high complexity of the hardware. Besides the specification of all units that compose the SEED architecture, this work also proposes a way of partitioning programs, creating code blocks that may be executed by SEED architecture. Some benchmarks were generated using this proposal for partitioning programs. These benchmarks were executed in the SEED architecture simulator, in order to analyze the behavior of the proposed architecture under special configurations.
24

Toss, Julio. "Algorithmes et structures de données parallèles pour applications interactives". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM056/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La quête de performance a été une constante à travers l'histoire des systèmes informatiques.Il y a plus d'une décennie maintenant, le modèle de traitement séquentiel montrait ses premiers signes d'épuisement pour satisfaire les exigences de performance.Les barrières du calcul séquentiel ont poussé à un changement de paradigme et ont établi le traitement parallèle comme standard dans les systèmes informatiques modernes.Avec l'adoption généralisée d'ordinateurs parallèles, de nombreux algorithmes et applications ont été développés pour s'adapter à ces nouvelles architectures.Cependant, dans des applications non conventionnelles, avec des exigences d'interactivité et de temps réel, la parallélisation efficace est encore un défi majeur.L'exigence de performance en temps réel apparaît, par exemple, dans les simulations interactives où le système doit prendre en compte l'entrée de l'utilisateur dans une itération de calcul de la boucle de simulation.Le même type de contrainte apparaît dans les applications d'analyse de données en continu.Par exemple, lorsque des donnes issues de capteurs de trafic ou de messages de réseaux sociaux sont produites en flux continu, le système d'analyse doit être capable de traiter ces données à la volée rapidement sur ce flux tout en conservant un budget de mémoire contrôlé.La caractéristique dynamique des données soulève plusieurs problèmes de performance tel que la décomposition du problème pour le traitement en parallèle et la maintenance de la localité mémoire pour une utilisation efficace du cache.Les optimisations classiques qui reposent sur des modèles pré-calculés ou sur l'indexation statique des données ne conduisent pas aux performances souhaitées.Dans cette thèse, nous abordons les problèmes dépendants de données sur deux applications différentes: la première dans le domaine de la simulation physique interactive et la seconde sur l'analyse des données en continu.Pour le problème de simulation, nous présentons un algorithme GPU parallèle pour calculer les multiples plus courts chemins et des diagrammes de Voronoi sur un graphe en forme de grille.Pour le problème d'analyse de données en continu, nous présentons une structure de données parallélisable, basée sur des Packed Memory Arrays, pour indexer des données dynamiques géo-référencées tout en conservant une bonne localité de mémoire
The quest for performance has been a constant through the history of computing systems. It has been more than a decade now since the sequential processing model had shown its first signs of exhaustion to keep performance improvements.Walls to the sequential computation pushed a paradigm shift and established the parallel processing as the standard in modern computing systems. With the widespread adoption of parallel computers, many algorithms and applications have been ported to fit these new architectures. However, in unconventional applications, with interactivity and real-time requirements, achieving efficient parallelizations is still a major challenge.Real-time performance requirement shows-up, for instance, in user-interactive simulations where the system must be able to react to the user's input within a computation time-step of the simulation loop. The same kind of constraint appears in streaming data monitoring applications. For instance, when an external source of data, such as traffic sensors or social media posts, provides a continuous flow of information to be consumed by an on-line analysis system. The consumer system has to keep a controlled memory budget and delivery fast processed information about the stream.Common optimizations relying on pre-computed models or static index of data are not possible in these highly dynamic scenarios. The dynamic nature of the data brings up several performance issues originated from the problem decomposition for parallel processing and from the data locality maintenance for efficient cache utilization.In this thesis we address data-dependent problems on two different application: one in physics-based simulation and other on streaming data analysis. To the simulation problem, we present a parallel GPU algorithm for computing multiple shortest paths and Voronoi diagrams on a grid-like graph. To the streaming data analysis problem we present a parallelizable data structure, based on packed memory arrays, for indexing dynamic geo-located data while keeping good memory locality
25

McLaughlin, Jared D. "Parallel Processing of Reactive Transport Models Using OpenMP". Diss., CLICK HERE for online access, 2008. http://contentdm.lib.byu.edu/ETD/image/etd2328.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Sisman, Cagri Tahsin. "Parallel Processing Of Three-dimensional Navier-stokes Equations For Compressible Flows". Master's thesis, METU, 2005. http://etd.lib.metu.edu.tr/upload/12606544/index.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The aim of this study is to develop a code that is capable of solving three-dimensional compressible flows which are viscous and turbulent, and parallelization of this code. Purpose of parallelization is to obtain a computational efficiency in time respect which enables the solution of complex flow problems in reasonable computational times. In the first part of the study, which is the development of a three-dimensional Navier-Stokes solver for turbulent flows, first step is to develop a two-dimensional Euler code using Roe flux difference splitting method. This is followed by addition of sub programs involving calculation of viscous fluxes. Third step involves implementation of Baldwin-Lomax turbulence model to the code. Finally, the Euler code is generalized to three-dimensions. At every step, code validation is done by comparing numerical results with theoretical, experimental or other numerical results, and adequate consistency between these results is obtained. In the second part, which is the parallelization of the developed code, two-dimensional code is parallelized by using Message Passing Interface (MPI), and important improvements in computational times are obtained.
27

Beucher, Jérôme. "Recherche et développement d'un détecteur gazeux PIM (Parallel Ionization Multiplier) pour la trajectographie de particules sous un haut flux de hadrons". Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00191999.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
PIM (Parallel Ionization Multiplier) est un détecteur gazeux à microstructure multi-étage utilisant la technologie des micro-grilles. Ce nouveau dispositif, basé sur le principe de fonctionnement du détecteur MICROMEGAS (MICRO-MEsh GAseous Structure), offre d'excellentes caractéristiques pour la trajectographie de particules au minimum d'ionisation. Cependant, lorsque ce type de détecteur est placé dans un environnement à forte composante hadronique, des décharges apparaissent et dégradent sensiblement l'efficacité de détection et constituent un risque non négligeable pour l'électronique frontale. Afin de diminuer la probabilité d'avoir de tels événements, il est possible de réaliser la multiplication des charges par étapes successives.
Dans le cadre du programme européen de physique hadronique (EU-I3HP-JRA4), nous avons investigué le détecteur multi-étage PIM pour une application sous un haut flux de hadrons.
Lors de ce travail de recherche et développement, nous avons caractérisé de nombreuses configurations géométriques d'une structure PIM à 2 étages d'amplification séparés par un espace de transfert opérant avec un mélange gazeux Ne+10%CO2. Des tests réalisés sous faisceau de hadrons de hautes énergies auprès du CERN ont montrés que la probabilité de décharges peut être fortement réduite avec une structure adéquate du détecteur PIM. Un taux de décharges inférieur à 10-9 par hadron incident et une résolution spatiale de 51 µm ont par ailleurs été mesurés au point de fonctionnement correspondant au début du plateau d'efficacité (>96%).
28

Moraes, Jorge Marcos de. "Etude de la convection naturelle laminaire permanente entre deux plans paralleles avec des conditions pariétales imposées sur la densité du flux de chaleur". Perpignan, 1992. http://www.theses.fr/1992PERP0118.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
On etudie le developpement de l'ecoulement de convection naturelle laminaire permanente entre deux plans verticaux paralleles avec une entree adiabatique suivie des parois soumises a des densites de flux thermique constantes mais non necessairement egales. Deux methodes numeriques ont ete utilisees pour resoudre le probleme physique: dans la premiere, le canal est place dans un grand domaine rectangulaire, ce qui permet la prise en compte des regions environnantes au canal dans l'analyse des comportements dynamique et thermique a l'interieur de celui-ci; dans la seconde, l'ecoulement n'est analyse qu'a l'interieur du canal et les equations de transferts sont simplifiees dans le cadre des approximations de la couche limite. Pour le cas ou la longueur adiabatique est egale a zero, les resultats sont compares a ceux des etudes numeriques et experimentales d'autres auteurs. Pour les autres cas, les resultats obtenus par les deux methodes sont compares
29

Toss, Julio. "Parallel algorithms and data structures for interactive applications". reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2017. http://hdl.handle.net/10183/172043.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La quête de performance a été une constante à travers l’histoire des systèmes informatiques. Il y a plus d’une décennie maintenant, le modèle de traitement séquentiel montrait ses premiers signes d’épuisement pour satisfaire les exigences de performance. Les barrières du calcul séquentiel ont poussé à un changement de paradigme et ont établi le traitement parallèle comme standard dans les systèmes informatiques modernes. Avec l’adoption généralisée d’ordinateurs parallèles, de nombreux algorithmes et applications ont été développés pour s’adapter à ces nouvelles architectures. Cependant, dans des applications non conventionnelles, avec des exigences d’interactivité et de temps réel, la parallélisation efficace est encore un défi majeur. L’exigence de performance en temps réel apparaît, par exemple, dans les simulations interactives où le système doit prendre en compte l’entrée de l’utilisateur dans une itération de calcul de la boucle de simulation. Le même type de contrainte apparaît dans les applications d’analyse de données en continu. Par exemple, lorsque des donnes issues de capteurs de trafic ou de messages de réseaux sociaux sont produites en flux continu, le système d’analyse doit être capable de traiter ces données à la volée rapidement sur ce flux tout en conservant un budget de mémoire contrôlé La caractéristique dynamique des données soulève plusieurs problèmes de performance tel que la décomposition du problème pour le traitement en parallèle et la maintenance de la localité mémoire pour une utilisation efficace du cache. Les optimisations classiques qui reposent sur des modèles pré-calculés ou sur l’indexation statique des données ne conduisent pas aux performances souhaitées. Dans cette thèse, nous abordons les problèmes dépendants de données sur deux applications différentes : la première dans le domaine de la simulation physique interactive et la seconde sur l’analyse des données en continu. Pour le problème de simulation, nous présentons un algorithme GPU parallèle pour calculer les multiples plus courts chemins et des diagrammes de Voronoi sur un graphe en forme de grille. Pour le problème d’analyse de données en continu, nous présentons une structure de données parallélisable, basée sur des Packed Memory Arrays, pour indexer des données dynamiques géo-référencées tout en conservant une bonne localité de mémoire.
A busca por desempenho tem sido uma constante na história dos sistemas computacionais. Ha mais de uma década, o modelo de processamento sequencial já mostrava seus primeiro sinais de exaustão pare suprir a crescente exigência por performance. Houveram "barreiras"para a computação sequencial que levaram a uma mudança de paradigma e estabeleceram o processamento paralelo como padrão nos sistemas computacionais modernos. Com a adoção generalizada de computadores paralelos, novos algoritmos foram desenvolvidos e aplicações reprojetadas para se adequar às características dessas novas arquiteturas. No entanto, em aplicações menos convencionais, com características de interatividade e tempo real, alcançar paralelizações eficientes ainda representa um grande desafio. O requisito por desempenho de tempo real apresenta-se, por exemplo, em simulações interativas onde o sistema deve ser capaz de reagir às entradas do usuário dentro do tempo de uma iteração da simulação. O mesmo tipo de exigência aparece em aplicações de monitoramento de fluxos contínuos de dados (streams). Por exemplo, quando dados provenientes de sensores de tráfego ou postagens em redes sociais são produzidos em fluxo contínuo, o sistema de análise on-line deve ser capaz de processar essas informações em tempo real e ao mesmo tempo manter um consumo de memória controlada A natureza dinâmica desses dados traz diversos problemas de performance, tais como a decomposição do problema para processamento em paralelo e a manutenção da localidade de dados para uma utilização eficiente da memória cache. As estratégias de otimização tradicionais, que dependem de modelos pré-computados ou de índices estáticos sobre os dados, não atendem às exigências de performance necessárias nesses cenários. Nesta tese, abordamos os problemas dependentes de dados em dois contextos diferentes: um na área de simulações baseada em física e outro em análise de dados em fluxo contínuo. Para o problema de simulação, apresentamos um algoritmo paralelo, em GPU, para computar múltiplos caminhos mínimos e diagramas de Voronoi em um grafo com topologia de grade. Para o problema de análise de fluxos de dados, apresentamos uma estrutura de dados paralelizável, baseada em Packed Memory Arrays, para indexar dados dinâmicos geo-localizados ao passo que mantém uma boa localidade de memória.
The quest for performance has been a constant through the history of computing systems. It has been more than a decade now since the sequential processing model had shown its first signs of exhaustion to keep performance improvements. Walls to the sequential computation pushed a paradigm shift and established the parallel processing as the standard in modern computing systems. With the widespread adoption of parallel computers, many algorithms and applications have been ported to fit these new architectures. However, in unconventional applications, with interactivity and real-time requirements, achieving efficient parallelizations is still a major challenge. Real-time performance requirement shows up, for instance, in user-interactive simulations where the system must be able to react to the user’s input within a computation time-step of the simulation loop. The same kind of constraint appears in streaming data monitoring applications. For instance, when an external source of data, such as traffic sensors or social media posts, provides a continuous flow of information to be consumed by an online analysis system. The consumer system has to keep a controlled memory budget and deliver a fast processed information about the stream Common optimizations relying on pre-computed models or static index of data are not possible in these highly dynamic scenarios. The dynamic nature of the data brings up several performance issues originated from the problem decomposition for parallel processing and from the data locality maintenance for efficient cache utilization. In this thesis we address data-dependent problems on two different applications: one on physically based simulations and another on streaming data analysis. To deal with the simulation problem, we present a parallel GPU algorithm for computing multiple shortest paths and Voronoi diagrams on a grid-like graph. Our contribution to the streaming data analysis problem is a parallelizable data structure, based on packed memory arrays, for indexing dynamic geo-located data while keeping good memory locality.
30

Chen, Jiuqiang. "Designing scientific workflow following a structure and provenance-aware strategy". Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112221/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les expériences bioinformatiques sont généralement effectuées à l'aide de workflows scientifiques dans lesquels les tâches sont enchaînées les unes aux autres pour former des structures de graphes très complexes et imbriquées. Les systèmes de workflows scientifiques ont ensuite été développés pour guider les utilisateurs dans la conception et l'exécution de workflows. Un avantage de ces systèmes par rapport aux approches traditionnelles est leur capacité à mémoriser automatiquement la provenance (ou lignage) des produits de données intermédiaires et finaux générés au cours de l'exécution du workflow. La provenance d'un produit de données contient des informations sur la façon dont le produit est dérivé, et est cruciale pour permettre aux scientifiques de comprendre, reproduire, et vérifier les résultats scientifiques facilement. Pour plusieurs raisons, la complexité du workflow et des structures d'exécution du workflow est en augmentation au fil du temps, ce qui a un impact évident sur la réutilisation des workflows scientifiques.L'objectif global de cette thèse est d'améliorer la réutilisation des workflows en fournissant des stratégies visant à réduire la complexité des structures de workflow tout en préservant la provenance. Deux stratégies sont introduites. Tout d'abord, nous proposons une approche de réécriture de la structure du graphe de n'importe quel workflow scientifique (classiquement représentée comme un graphe acyclique orienté (DAG)) dans une structure plus simple, à savoir une structure série-parallèle (SP) tout en préservant la provenance. Les SP-graphes sont simples et bien structurés, ce qui permet de mieux distinguer les principales étapes du workflow. En outre, d'un point de vue plus formel, on peut utiliser des algorithmes polynomiaux pour effectuer des opérations complexes fondées sur les graphiques (par exemple, la comparaison de workflows, ce qui est directement lié au problème d’homomorphisme de sous-graphes) lorsque les workflows ont des SP-structures alors que ces opérations sont reliées à des problèmes NP-hard pour des graphes qui sont des DAG sans aucune restriction sur leur structure. Nous avons introduit la notion de préservation de la provenance, conçu l’algorithme de réécriture SPFlow et réalisé l’outil associé.Deuxièmement, nous proposons une méthodologie avec une technique capable de réduire la redondance présente dans les workflow (en supprimant les occurrences inutiles de tâches). Plus précisément, nous détectons des « anti-modèles », un terme largement utilisé dans le domaine de la conception de programme, pour indiquer l'utilisation de formes idiomatiques qui mènent à une conception trop compliquée, et qui doit donc être évitée. Nous avons ainsi conçu l'algorithme DistillFlow qui est capable de transformer un workflow donné en un workflow sémantiquement équivalent «distillé», c’est-à-dire, qui est libre ou partiellement libre des anti-modèles et possède une structure plus concise et plus simple. Les deux principales approches de cette thèse (à savoir, SPFlow et DistillFlow) sont basées sur un modèle de provenance que nous avons introduit pour représenter la structure de la provenance des exécutions du workflowl. La notion de «provenance-équivalence» qui détermine si deux workflows ont la même signification est également au centre de notre travail. Nos solutions ont été testées systématiquement sur de grandes collections de workflows réels, en particulier avec le système Taverna. Nos outils sont disponibles à l'adresse: https://www.lri.fr/~chenj/
Bioinformatics experiments are usually performed using scientific workflows in which tasks are chained together forming very intricate and nested graph structures. Scientific workflow systems have then been developed to guide users in the design and execution of workflows. An advantage of these systems over traditional approaches is their ability to automatically record the provenance (or lineage) of intermediate and final data products generated during workflow execution. The provenance of a data product contains information about how the product was derived, and it is crucial for enabling scientists to easily understand, reproduce, and verify scientific results. For several reasons, the complexity of workflow and workflow execution structures is increasing over time, which has a clear impact on scientific workflows reuse.The global aim of this thesis is to enhance workflow reuse by providing strategies to reduce the complexity of workflow structures while preserving provenance. Two strategies are introduced.First, we propose an approach to rewrite the graph structure of any scientific workflow (classically represented as a directed acyclic graph (DAG)) into a simpler structure, namely, a series-parallel (SP) structure while preserving provenance. SP-graphs are simple and layered, making the main phases of workflow easier to distinguish. Additionally, from a more formal point of view, polynomial-time algorithms for performing complex graph-based operations (e.g., comparing workflows, which is directly related to the problem of subgraph homomorphism) can be designed when workflows have SP-structures while such operations are related to an NP-hard problem for DAG structures without any restriction on their structures. The SPFlow rewriting and provenance-preserving algorithm and its associated tool are thus introduced.Second, we provide a methodology together with a technique able to reduce the redundancy present in workflows (by removing unnecessary occurrences of tasks). More precisely, we detect "anti-patterns", a term broadly used in program design to indicate the use of idiomatic forms that lead to over-complicated design, and which should therefore be avoided. We thus provide the DistillFlow algorithm able to transform a workflow into a distilled semantically-equivalent workflow, which is free or partly free of anti-patterns and has a more concise and simpler structure.The two main approaches of this thesis (namely, SPFlow and DistillFlow) are based on a provenance model that we have introduced to represent the provenance structure of the workflow executions. The notion of provenance-equivalence which determines whether two workflows have the same meaning is also at the center of our work. Our solutions have been systematically tested on large collections of real workflows, especially from the Taverna system. Our approaches are available for use at https://www.lri.fr/~chenj/
31

Hu, Chih-Chieh. "Mechanistic modeling of evaporating thin liquid film instability on a bwr fuel rod with parallel and cross vapor flow". Diss., Atlanta, Ga. : Georgia Institute of Technology, 2009. http://hdl.handle.net/1853/28148.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Thesis (M. S.)--Mechanical Engineering, Georgia Institute of Technology, 2009.
Committee Chair: Abdel-Khalik, Said; Committee Member: Ammar, Mostafa H.; Committee Member: Ghiaasiaan, S. Mostafa; Committee Member: Hertel, Nolan E.; Committee Member: Liu, Yingjie.
32

Veloso, Lays Helena Lopes. "ALGORITMO K-MEANS PARALELO BASEADO EM HADOOP-MAPREDUCE PARA MINERAÇÃO DE DADOS AGRÍCOLAS". UNIVERSIDADE ESTADUAL DE PONTA GROSSA, 2015. http://tede2.uepg.br/jspui/handle/prefix/127.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Made available in DSpace on 2017-07-21T14:19:24Z (GMT). No. of bitstreams: 1 Lays Veloso.pdf: 1140015 bytes, checksum: c544c69a03612a2909b7011c936788ee (MD5) Previous issue date: 2015-04-29
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
This study aimed to investigate the use of a parallel K-means clustering algorithm,based on parallel MapReduce model, to improve the response time of the data mining. The parallel K-Means was implemented in three phases, performed in each iteration: assignment of samples to groups with nearest centroid by Mappers, in parallel; local grouping of samples assigned to the same group from Mappers using a Combiner and update of the centroids by the Reducer. The performance of the algorithm was evaluated in respect to SpeedUp and ScaleUp. To achieve this, experiments were run in single-node mode and on a Hadoop cluster consisting of six of-the-shelf computers. The data were clustered comprise flux towers measurements from agricultural regions and belong to Ameriflux. The results showed performance gains with increasing number of machines and the best time was obtained using six machines reaching the speedup of 3,25. To support our results, ANOVA analysis was applied from repetitions using 3, 4 and 6 machines in the cluster, respectively. The ANOVA show low variance between the execution times obtained for the same number of machines and a significant difference between means of each number of machines. The ScaleUp analysis show that the application scale well with an equivalent increase in data size and the number of machines, achieving similar performance. With the results as expected, this paper presents a parallel and scalable implementation of the K-Means to run on a Hadoop cluster and improve the response time of clustering to large databases.
Este trabalho teve como objetivo investigar a utilização de um algoritmo de agrupamento K-Means paralelo, com base no modelo paralelo MapReduce, para melhorar o tempo de resposta da mineração de dados. O K-Means paralelo foi implementado em três fases, executadas em cada iteração: atribuição das amostras aos grupos com centróide mais próximo pelos Mappers, em paralelo; agrupamento local das amostras atribuídas ao mesmo grupo pelos Mappers usando um Combiner e atualização dos centróides pelo Reducer. O desempenho do algoritmo foi avaliado quanto ao SpeedUp e ScaleUp. Para isso foram executados experimentos em modo single-node e em um cluster Hadoop formado por seis computadores de hardware comum. Os dados agrupados são medições de torres de fluxo de regiões agrícolas e pertencem a Ameriflux. Os resultados mostraram que com o aumento do número de máquinas houve ganho no desempenho, sendo que o melhor tempo obtido foi usando seis máquinas chegando ao SpeedUp de 3,25. Para apoiar nossos resultados foi construída uma tabela ANOVA a partir de repetições usando 3, 4 e 6 máquinas no cluster, pespectivamente. Os resultados da análise ANOVA mostram que existe pouca variância entre os tempos de execução obtidos com o mesmo número de máquinas e existe uma diferença significativa entre as médias para cada número de máquinas. A partir dos experimentos para analisar o ScaleUp verificou-se que a aplicação escala bem com o aumento equivalente do tamanho dos dados e do número de máquinas no cluster,atingindo um desempenho próximo. Com os resultados conforme esperados, esse trabalho apresenta uma implementação paralela e escalável do K-Means para ser executada em um cluster Hadoop e melhorar o tempo de resposta do agrupamento de grandes bases de dados.
33

Ferlin, Edson Pedro. "Arquitetura paralela reconfigurável baseada em fluxo de dados implementada em FPGA". Universidade Tecnológica Federal do Paraná, 2008. http://repositorio.utfpr.edu.br/jspui/handle/1/128.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Os problemas de engenharia cada vez mais exigem grandes necessidades computacionais, principalmente em termos de capacidade de processamento, sendo que o tempo de execução é um dos pontos-chave em toda esta discussção. Neste sentido o processamento paralelo surge como um elemento decisivo, pois possibilita uma redução do tempo de processamento em decorrência da execução paralela das operações. Outro fator importante é a questão da computação reconfigurável que possibilita combinar o desempenho do hardware com a flexibilidade do software, permitindo o desenvolvimento de sistemas extremamente complexos e compactos. Este trabalho tem por objetivo apresentar uma proposta de uma arquitetura paralela reconfigurável baseada em fluxo de dados (dataflow), que aproveita a potencialidade tanto do processamento paralelo quanto da computação reconfigurável, e que proporciona uma rápida adequação da máquina paralela ao problema a ser resolvido, garantindo um alto desempenho e uma grande flexibilidade de adaptar o sistema paralelo à aplicação desejada. Esta arquitetura visa explorar o paralelismo existente entre as operações envolvidas nos cálculos numéricos, baseando-se no grafo de fluxo de dados do problema a ser solucionado. A arquitetura é composta por uma unidade de controle, responsável por todo o controle dos Elementos Processadores (EPs) e o fluxo de dados entre eles, e de vários EPs que efetivamente realizam a execução da operação. Ao contrário da computação sequencial, a computação paralela aproveita a disponibilidade dos EPs presentes na arquitetura, garantindo um maior desempenho. Além disso, a arquitetura pode facilmente ser reorganizada, adaptando-se à aplicação, o que garante uma flexibilidade na classe de problemas computacionais que podem ser executados nesta arquitetura.
Many real-world engineering problems require high computational power, especially concerning to the processing speed. Modern parallel processing techniques play an important role in reducing the processing time as a consequence of the parallel execution of machinelevel operations for a given application software , taking advantage of possible independence between data and operations during processing time. Recently, reconfigurable computation has gained large attention thanks to its ability to combine hardware performance and software flexibility, allowed the developmentof very complex, compact and powerful systems for custom application. Tjis work proposes a new architecturefor parallel reconfigurable computation that associate the power of parallel processing and the flexibility of reconfigurable devices. This architecture allows quick customization of the system for many problems and, particularly, for numerical computation. For instance, this architecture can exploit the inherent parallelism of the numerical computation of differential equations, where several operations can be executed at the same time using a dataflow graph model of the problem. The proposedarchitecture is composed by a Control Unit , responsible for the control of all Processing Elements (PEs) and the data flow between them; and many application-customized PEs, responsible for the executionof operations. Diferrently from sequential computation, the parallel computation takes advantageof the available PEs and theirspecificity for the aplication. Therefore, the proposed architecture can offerhigh performance, scalability and customized solutions for engineering problems.
34

Silva, Bruno de Abreu. "Gerenciamento de tags na arquitetura ChipCflow - uma máquina a fluxo de dados dinâmica". Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-17052011-085128/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nos últimos anos, percebeu-se uma crescente busca por softwares e arquiteturas alternativas. Essa busca acontece porque houve avanços na tecnologia do hardware e estes avanços devem ser complementados por inovações nas metodologias de projetos, testes e verificação para que haja um uso eficaz da tecnologia. Muitos dos softwares e arquiteturas alternativas, geralmente partem para modelos que exploram o paralelismo das aplicações, ao contrário do modelo de von Neumann. Dentre as arquiteturas alternativas de alto desempenho, tem-se a arquitetura a fluxo de dados. Nesse tipo de arquitetura, o processo de execução de programas é determinado pela disponibilidade dos dados. Logo, o paralelismo está embutido na própria natureza do sistema. O modelo a fluxo de dados possui a vantagem de expressar o paralelismo de maneira intrínseca, eliminando a necessidade de o programador explicitar em seu código os trechos onde deve haver paralelismo. As arquiteturas a fluxo de dados voltaram a ser um tema de pesquisa devido aos avanços do hardware, em particular, os avanços da Computação Reconfigurável e os FPGAs (Field-Programmable Gate Arrays). O projeto ChipCflow é uma ferramenta para execução de algoritmos usando o modelo a fluxo de dados dinâmico em FPGA. Este trabalho apresenta o formato para os tagged-tokens do ChipCflow, os operadores de manipulação das tags dos tokens e suas implementações a fim de que se tenha a PROVA-DE-CONCEITOS para tais operadores na arquitetura ChipCflow
The alternative architectures and softwares researches have been growing in the last years. These researches are happening due to the advance of hardware technology and such advances must be complemented by improvements on design methodologies, test and verification techniques in order to use technology effectively. Many of the alternative architectures and softwares, in general, explore the parallelism of applications, differently to von Neumann model. Among high performance alternative architectures, there is the Dataflow Architecture. In this kind of architecture, the execution of programs is determined by data availability, thus the parallelism is intrinsic in these systems. The dataflow architectures become again a highlighted research area due to hardware advances, in particular, the advances of Reconfigurable Computing and FPGAs (Field-Programmable Gate Arrays). ChipCflow project is a tool for execution of algorithms using dynamic dataflow graph in FPGA. The main goal in this module of the ChipCflow project is to define the tagged-token format, the iterative operators that will manipulate the tags of tokens and to implement them
35

Spelta, Michele. "Commissioning of the third n_TOF spallation target: characterization of the neutron flux and beam profile using PPACs". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amslaurea.unibo.it/25126/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Beyond their application in fundamental nuclear physics and nuclear astrophysics research, neutron-induced reactions play an increasingly important role in emerging nuclear technologies. For instance, in the fields of sustainable low-carbon power production (ADS, generation four fission and fusion reactors), medicine and industry, neutron data are required with high accuracy in a wide energy range. The measurement of neutron-induced reaction cross sections is therefore crucial and it is indeed the main objective of the n_TOF facility, a pulsed white neutron spallation source at CERN. Recently the facility has been upgraded with the installation of its new third-generation spallation target and a subsequent commissioning was carried out in order to characterize the performances of the experimental areas in terms of neutron flux, energy resolution and background in view of the future experimental campaigns. I was involved in the first phase of the commissioning at CERN, testing the DAQ system and taking care in particular of one of the employed detectors: a fission chamber based on Parallel Plate Avalanche Counters (PPACs). The data collected in the first experimental area (EAR1) were analyzed to obtain the neutron flux from near thermal energy (0.025 eV) to 1 GeV and the spatial beam profile. The flux from the present analysis is compared to the Monte Carlo simulations and to the preliminary results of another flux detector, while the spatial beam profile is compared to the one obtained with a Timepix Quad detector. In addition, a preliminary analysis of the data collected in the second experimental area (EAR2) was also carried out.
36

Schulz, Leonhard Ferdinand [Verfasser], e Klaus [Akademischer Betreuer] Klitzing. "Parallel arrangements of quantum dots and quantum point contacts in high magnetic fields : periodic conductance modulations with magnetic flux change / Leonhard Ferdinand Schulz. Betreuer: Klaus Klitzing". Stuttgart : Universitätsbibliothek der Universität Stuttgart, 2015. http://d-nb.info/1065235798/34.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Marin, Manuel. "GPU-enhanced power flow analysis". Thesis, Perpignan, 2015. http://www.theses.fr/2015PERP0041.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse propose un large éventail d'approches afin d'améliorer différents aspects de l'analyse des flux de puissance avec comme fils conducteur l'utilisation du processeurs graphiques (GPU). Si les GPU ont rapidement prouvés leurs efficacités sur des applications régulières pour lesquelles le parallélisme de données était facilement exploitable, il en est tout autrement pour les applications dites irrégulières. Ceci est précisément le cas de la plupart des algorithmes d'analyse de flux de puissance. Pour ce travail, nous nous inscrivons dans cette problématique d'optimisation de l'analyse de flux de puissance à l'aide de coprocesseur de type GPU. L'intérêt est double. Il étend le domaine d'application des GPU à une nouvelle classe de problème et/ou d'algorithme en proposant des solutions originales. Il permet aussi à l'analyse des flux de puissance de rester pertinent dans un contexte de changements continus dans les systèmes énergétiques, et ainsi d'en faciliter leur évolution. Nos principales contributions liées à la programmation sur GPU sont: (i) l'analyse des différentes méthodes de parcours d'arbre pour apporter une réponse au problème de la régularité par rapport à l'équilibrage de charge ; (ii) l'analyse de l'impact du format de représentation sur la performance des implémentations d'arithmétique floue. Nos contributions à l'analyse des flux de puissance sont les suivantes: (ii) une nouvelle méthode pour l'évaluation de l'incertitude dans l'analyse des flux de puissance ; (ii) une nouvelle méthode de point fixe pour l'analyse des flux de puissance, problème que l'on qualifie d'intrinsèquement parallèle
This thesis addresses the utilization of Graphics Processing Units (GPUs) for improving the Power Flow (PF) analysis of modern power systems. Currently, GPUs are challenged by applications exhibiting an irregular computational pattern, as is the case of most known methods for PF analysis. At the same time, the PF analysis needs to be improved in order to cope with new requirements of efficiency and accuracy coming from the Smart Grid concept. The relevance of GPU-enhanced PF analysis is twofold. On one hand, it expands the application domain of GPU to a new class of problems. On the other hand, it consistently increases the computational capacity available for power system operation and design. The present work attempts to achieve that in two complementary ways: (i) by developing novel GPU programming strategies for available PF algorithms, and (ii) by proposing novel PF analysis methods that can exploit the numerous features present in GPU architectures. Specific contributions on GPU computing include: (i) a comparison of two programming paradigms, namely regularity and load-balancing, for implementing the so-called treefix operations; (ii) a study of the impact of the representation format over performance and accuracy, for fuzzy interval algebraic operations; and (iii) the utilization of architecture-specific design, as a novel strategy to improve performance scalability of applications. Contributions on PF analysis include: (i) the design and evaluation of a novel method for the uncertainty assessment, based on the fuzzy interval approach; and (ii) the development of an intrinsically parallel method for PF analysis, which is not affected by the Amdahl's law
38

Amine, Ramdani Ahmed, e Sebastian Rudnik. "Design and Construction of High Current Winding for a Transverse Flux Linear Generator Intended for Wave Power Generation". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-240366.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
There is currently a high demand for electric power from renewablesources. One source that remains relatively untapped is the motionof ocean waves. Anders Hagnestål has been developing a uniquelyefficient and simplified design for a point-absorb buoy generator byconverting its linear motion directly into alternating electric power usinga linear PM engine. To test this method, a smaller prototype isbuilt. Its characteristics present some unusual challenges in the designand construction of its winding.Devices of this type typically use relatively low voltage (690V typicallyfor a wind turbine, compared to the 10kV range of traditionalpower plants). To achieve high power, they need high current, whichin turn requires splitting the conductors in the winding into isolatedparallel strands to avoid losses due to eddy currents and current crowding.However, new losses from circulating currents can then arise. Inorder to reduce said losses, the parallel conductors should be transposedin such a way that the aggregate electromotive force the circuitsthat each pair of them forms is minimized.This research and prototyping was performed in absence of advancedindustrial means of construction, with limited space, budget,materials, manpower, know-how, and technology. Manual ingenuityand empirical experimentation were required to find a practical implementationfor: laying the cables, fixing them in place, transferringthem to the machine, stripping their coating at the ends and establishinga reliable connection to the current source.Using theoretical derivations and FEM simulation, a sufficientlygood transposition scheme is proposed for the specific machine thatthe winding is built for. A bobbin replicating the shape of the enginecore is built to lay down the strands.The parallel strands are then organized each into their respectivebobbin, with a bobbin rack and conductor funneling device being designedand constructed to gather them together into a strictly-organizedbundle. An adhesive is found to set the cables in place.Problems with maintaining the orientation and configuration of thecables in the face of repeated torsion are met and solved. A chemicalsolution is used to strip the ends of the conductors, and a reliableconnection is established by crimping the conductors into a bi-metalCu-Al lug.ivIn conclusion, the ideal transposition schemes required to cancelout circulating currents due to magnetic flux leakage are impossibleto put in practice without appropriate technological means. The feasibletransposition scheme turns out to be a simple mirroring of conductors’positions, implemented by building each half of the windingseparately around replicas of the core and then connecting them usingcrimping lugs.
Efterfrågan på el från förnybara källor är hög och inget tyder på att det kommer ändras den närmsta tiden. En källa till förnybar el som än idag står relativt orörd är den där man använder energin från havsvå- gor. Det är denna förnybara källa Anders Hagnestål haft i åtanke när han nu bygger en unikt effektiv generator med syftet att i ett senare skede utvinna el med hjälp av flytande punktabsorberande vågkraft- system. Generatorn är av den linjära typen och omvandlar det punk- tabsorberande systemet rörelse till el. För att testa denna generator- modell så påbörjades bygget av två fullskaliga prototyper 2017. Denna uppsats behandlar specifikt arbetet med generatorlindningen till pro- totyperna och innefattar processen från design till själva byggnatio- nen. Lindingen består av flertalet mindre och isolerade lindningsleda- re med uppgift att bland annat minska skinneffekt och virvelströms- förluster. När man använder denna metod så uppkommer dock ett nytt problem vilket härstammar från att lindningsledarna är samman- kopplade i vardera ända och bildar på så sätt n slutna strömkretsar. Konsekvensen kan vara stora förluster från cirkulerande strömmar på grund av det magnetiska ströflöde som finns runt järnkärnan som lindningen omsluter. Utgångspunkten för att minimera dessa cirkule- rande strömmar är att transponera alla lindningsledare på ett sätt så att den resulterande elektromotoriska spänningen för varje strömkrets blir så liten som möjligt. Med hjälp av förenklade modeller samt FEM simuleringar så bestämdes ett lämpligt sätt att transponera lindningstrådarna utifrån oli- ka kriterier. Lösningen blev att lindningstrådarna endast transponera- des en gång med en så kallad 180 grader transponering. Detta ger en tillräckligt god minimering av de cirkulerande ström- marna, men den stora fördelen med denna lösning är att det är möjligt att linda maskinen med de små resurser projektet hade tillgång till, dock var detta till en stor nackdel då väldigt mycket tid gick till att hitta egna tillvägagångsätt för att utföra byggandet av lindningen på ibland okonventionella sätt.
39

Lopes, Joelmir José. "ChipCflow - uma ferramenta para execução de algoritmos utilizando o modelo a fluxo de dados dinâmico em hardware reconfigurável". Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-05122012-154304/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Devido à complexidade das aplicações, a demanda crescente por sistemas que usam milhões de transistores e hardware complexo; tem sido desenvolvidas ferramentas que convertem C em Linguagem de Descrição de Hardware, tais como VHDL e Verilog. Neste contexto, esta tese apresenta o projeto ChipCflow, o qual usa arquitetura a fluxo de dados, para implementar lógica de alto desempenho em Field Programmable Gate Array (FPGA). Maquinas a fluxo de dados são computadores programáveis, cujo hardware é otimizado para computação paralela de granularidade fina dirigida por dados. Em outras palavras, a execução de programas é determinado pela disponibilidade dos dados, assim, o paralelismo é intrínseco neste sistema. Por outro lado, com o avanço da tecnologia da microeletrônica, o FPGA tem sido utilizado principalmente devido a sua flexibilidade, facilidade para implementar sistemas complexos e paralelismo intrínseco. Um dos desafios é criar ferramentas para programadores que usam linguagem de alto nível (HLL), como a linguagem C, e produzir hardware diretamente. Essas ferramentas devem usar a máxima experiência dos programadores, o paralelismo das arquiteturas a fluxo de dados dinâmica, a flexibilidade e o paralelismo do FPGA, para produzir um hardware eficiente, otimizado para alto desempenho e baixo consumo de energia. O projeto ChipCflow é uma ferramenta que converte os programas de aplicação escritos em linguagem C para a linguagem VHDL, baseado na arquitetura a fluxo de dados dinâmica. O principal objetivo dessa tese é definir e implementar os operadores do ChipCflow, usando a arquitetura a fluxo de dados dinâmica em FPGA. Esses operadores usam tagged tokens para identificar dados, com base em instâncias de operadores. A implementação dos operadores e das instâncias usam um modelo de implementação assíncrono em FPGA para obter maior velocidade e menor consumo
Due to the complexity of applications, the growing demand for both systems using millions of transistors and consecutive complex hardware, tools that convert C into a Hardware Description Language (HDL), as VHDL and Verilog, have been developed. In this context this thesis presents the ChipCflow project, which uses dataflow architecture to implement high-performance logics in Field Programmable Gate Array (FPGA). Dataflow machines are programmable computers whose hardware is optimized for fine-grain data-flow parallel computation. In other words the execution of programs is determined by data availability, thus parallelism is intrinsic in these systems. On the other hand, with the advance of technology of microelectronics, the FPGA has been used mainly because of its flexibility, facilities to implement complex systems and intrinsic parallelism. One of the challenges is to create tools for programmers who use HLL (High Level Language), such as C language, producing hardware directly. These tools should use the utmost experience of the programmers, the parallelism of dynamic dataflow architecture and the flexibility and parallelism of FPGA to produce efficient hardware optimized for high performance and lower power consumption. The ChipCflow project is a tool that converts application programs written in C language into VHDL, based on the dynamic dataflow architecture. The main goal in this thesis is to define and implement the operators of ChipCflow using dynamic dataflow architecture in FPGA. These operators use tagged tokens to identify data based on instances of operators and their implementation and instances use an asynchronous implementation model in FPGA to achieve faster speed and lower consumption
40

Rojas, Balderrama Javier. "Gestion du cycle de vie de services déployés sur une infrastructure de calcul distribuée en neuroinformatique". Phd thesis, Université de Nice Sophia-Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00804893.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'intérêt va croissant parmi les communautés scientifiques pour le partage de données et d'applications qui facilitent les recherches et l'établissement de collaborations fructueuses. Les domaines interdisciplinaires tels que les neurosciences nécessitent particulièrement de disposer d'une puissance de calcul suffisante pour l'expérimentation à grande échelle. Malgré les progrès réalisés dans la mise en œuvre de telles infrastructures distribuées, de nombreux défis sur l'interopérabilité et le passage à l'échelle ne sont pas complètement résolus. L'évolution permanente des technologies, la complexité intrinsèque des environnements de production et leur faible fiabilité à l'exécution sont autant de facteurs pénalisants. Ce travail porte sur la modélisation et l'implantation d'un environnement orienté services qui permet l'exécution d'applications scientifiques sur des infrastructures de calcul distribué, exploitant leur capacité de calcul haut débit. Le modèle comprend une spécification de description d'interfaces en ligne de commande; un pont entre les architectures orientées services et le calcul globalisé; ainsi que l'utilisation efficace de ressources locales et distantes pour le passage à l'échelle. Une implantation de référence est réalisée pour démontrer la faisabilité de cette approche. Sa pertinence et illustrée dans le contexte de deux projets de recherche dirigés par des campagnes expérimentales de grande ampleur réalisées sur des ressources distribuées. L'environnement développé se substitue aux systèmes existants dont les préoccupations se concentrent souvent sur la seule exécution. Il permet la gestion de codes patrimoniaux en tant que services, prenant en compte leur cycle de vie entier. De plus, l'approche orientée services aide à la conception de flux de calcul scientifique qui sont utilisés en tant que moyen flexible pour décrire des applications composées de services multiples. L'approche proposée est évaluée à la fois qualitativement et quantitativement en utilisant des applications réelles en analyse de neuroimages. Les expériences qualitatives sont basées sur l'optimisation de la spécificité et la sensibilité des outils de segmentation du cerveau utilisés pour traiter des Image par Raisonnance Magnétique de patients atteints de sclérose en plaques. Les expériences quantitative traitent de l'accélération et de la latence mesurées pendant l'exécution d'études longitudinales portant sur la mesure d'atrophie cérébrale chez des patients affectés de la maladie d'Alzheimer.
41

Alanazi, Mohammed Awwad. "Non-invasive Method to Measure Energy Flow Rate in a Pipe". Thesis, Virginia Tech, 2018. http://hdl.handle.net/10919/103179.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Current methods for measuring energy flow rate in a pipe use a variety of invasive sensors, including temperature sensors, turbine flow meters, and vortex shedding devices. These systems are costly to buy and install. A new approach that uses non-invasive sensors that are easy to install and less expensive has been developed. A thermal interrogation method using heat flux and temperature measurements is used. A transient thermal model, lumped capacitance method LCM, before and during activation of an external heater provides estimates of the fluid heat transfer coefficient h and fluid temperature. The major components of the system are a thin-foil thermocouple, a heat flux sensor (PHFS), and a heater. To minimize the thermal contact resistance R" between the thermocouple thickness and the pipe surface, two thermocouples, welded and parallel, were tested together in the same set-up. Values of heat transfer coefficient h, thermal contact resistance R", time constant �[BULLET], and the water temperature �[BULLET][BULLET], were determined by using a parameter estimation code which depends on the minimum root mean square RMS error between the analytical and experimental sensor temperature values. The time for processing data to get the parameter estimation values is from three to four minutes. The experiments were done over a range of flow rates (1.5 gallon/minute to 14.5 gallon/minute). A correlation between the heat transfer coefficient h and the flow rate Q was done for both the parallel and the welded thermocouples. Overall, the parallel thermocouple is better than the welded thermocouple. The parallel thermocouple gives small average thermal contact resistance average R"=0.00001 (m2.�[BULLET][BULLET]/W), and consistence values of water temperature and heat transfer coefficient h, with good repeatability and sensitivity. Consequently, a non-invasive energy flow rate meter or (BTU) meter can be used to estimate the flow rate and the fluid temperature in real life.
MS
42

Zou, Mengchuan. "Aspects of efficiency in selected problems of computation on large graphs". Thesis, Université de Paris (2019-....), 2019. http://www.theses.fr/2019UNIP7132.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente trois travaux liés à la conception d’algorithmes efficaces applicables à des graphes de grande taille. Dans le premier travail, nous nous plaçons dans le cadre du calcul centralisé, et ainsi la question de la généralisation des décompositions modulaires et de la conception d’un algorithme efficace pour ce problème. La décomposition modulaire et la détection de module, sont des moyens de révéler et d’analyser les propriétés modulaires de données structurées. Comme la décomposition modulaire classique est bien étudiée et possède un algorithme de temps linéaire optimal, nous étudions d’abord les généralisations de ces concepts en hypergraphes. C’est un sujet peu étudié mais qui permet de trouver de nouvelles structurations dans les familles de parties. Nous présentons ici des résultats positifs obtenus pour trois définitions de la décomposition modulaire dans les hypergraphes de la littérature. Nous considérons également la généralisation en permettant des erreurs dans les modules de graphes classiques et présentons des résultats négatifs pour deux telles définitions. Le deuxième travail est sur des requêtes de données dans un graphe. Ici, le modèle diffère des scénarios classiques dans le sens que nous ne concevons pas d’algorithmes pour résoudre un problème original, mais nous supposons qu’il existe un oracle fournissant des informations partielles sur la solution de problème initial, où les oracle ont une consommation de temps ou de ressources de requête que nous modélisons en tant que coûts, et nous avons besoin d’un algorithme décidant comment interroger efficacement l’oracle pour obtenir la solution exacte au problème initial. L’efficacité ici concerne le coût de la requête. Nous étudions un problème de la méthode de dichotomie généralisée pour lequel nous calculons une stratégie d’interrogation efficace afin de trouver une cible cachée dans le graphe. Nous présentons les résultats de nos travaux sur l’approximation de la stratégie optimale de recherche en dichotomie généralisée sur les arbres pondérés. Notre troisième travail est sur la question de l’efficacité de la mémoire. La configuration dans laquelle nous étudions sont des calculs distribués et avec la limitation en mémoire. Plus précisément, chaque nœud stocke ses données locales en échangeant des données par transmission de messages et est en mesure de procéder à des calculs locaux. Ceci est similaire au modèle LOCAL / CONGEST en calcul distribué, mais notre modèle requiert en outre que chaque nœud ne puisse stocker qu’un nombre constant de variables w.r.t. son degré. Ce modèle peut également décrire des algorithmes naturels. Nous implémentons une procédure existante de repondération multiplicative pour approximer le problème de flux maximal sur ce modèle. D’un point de vue méthodologique, les trois types d’efficacité que nous avons étudiées correspondent aux trois types de scénarios suivants: – Le premier est le plus classique. Considérant un problème, nous essayons de concevoir à la main l’algorithme le plus efficace. – Dans le second, l’efficacité est considérée comme un objectif. Nous modélisons les coûts de requête comme une fonction objectif, et utilisons des techniques d’algorithme d’approximation pour obtenir la conception d’une stratégie efficace. – Dans le troisième, l’efficacité est en fait posée comme une contrainte de mémoire et nous concevons un algorithme sous cette contrainte
This thesis presents three works on different aspects of efficiency of algorithm design for large scale graph computations. In the first work, we consider a setting of classical centralized computing, and we consider the question of generalizing modular decompositions and designing time efficient algorithm for this problem. Modular decomposition, and more broadly module detection, are ways to reveal and analyze modular properties in structured data. As the classical modular decomposition is well studied and have an optimal linear time algorithm, we firstly study the generalizations of these concepts to hypergraphs and present here positive results obtained for three definitions of modular decomposition in hypergraphs from the literature. We also consider the generalization of allowing errors in classical graph modules and present negative results for two this kind of definitions. The second work focuses on graph data query scenarios. Here the model differs from classical computing scenarios in that we are not designing algorithms to solve an original problem, but we assume that there is an oracle which provides partial information about the solution to the original problem, where oracle queries have time or resource consumption, which we model as costs, and we need to have an algorithm deciding how to efficiently query the oracle to get the exact solution to the original problem, thus here the efficiency is addressing to the query costs. We study the generalized binary search problem for which we compute an efficient query strategy to find a hidden target in graphs. We present the results of our work on approximating the optimal strategy of generalized binary search on weighted trees. Our third work draws attention to the question of memory efficiency. The setup in which we perform our computations is distributed and memory restricted. Specifically, every node stores its local data, exchanging data by message passing, and is able to proceed local computations. This is similar to the LOCAL/CONGEST model in distributed computing, but our model additionally requires that every node can only store a constant number of variables w.r.t. its degree. This model can also describe natural algorithms. We implement an existing procedure of multiplicative reweighting for approximating the maximum s–t flow problem on this model, this type of methodology may potentially provide new opportunities for the field of local or natural algorithms. From a methodological point of view, the three types of efficiency concerns correspond to the following types of scenarios: the first one is the most classical one given the problem, we try to design by hand the more efficient algorithm; the second one, the efficiency is regarded as an objective function .where we model query costs as an objective function, and using approximation algorithm techniques to get a good design of efficient strategy; the third one, the efficiency is in fact posed as a constraint of memory and we design algorithm under this constraint
43

MONTEIRO, Milson Silva. "INTERFACE DE ANÁLISE DA INTERCONEXÃO EM UMA LAN USANDO CORBA". Universidade Federal do Maranhão, 2002. http://tedebc.ufma.br:8080/jspui/handle/tede/311.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Made available in DSpace on 2016-08-17T14:52:43Z (GMT). No. of bitstreams: 1 Milson Monteiro.pdf: 1924077 bytes, checksum: 78f931b493f756dec0edee7a465e1099 (MD5) Previous issue date: 2002-06-07
Conselho Nacional de Desenvolvimento Científico e Tecnológico
This works concern software development (graphical user interface) that makes possible to analyze the interconnection in a LAN (Local Area Network) using CORBA (Common Object Request Broker Architecture) on distributed and heterogeneous environment among several outlying machines. This works presents paradigms of graphs theory: shortest paths problems (Dijkstra-Ford-Moore-Belman), maximum flow problems (Edmonds-Karp) and minimum cost flow problems (Busacker-Gowen) to formalize the interface development. We discoursed on the graphs theory and networks flows that are essentials to guarantee theoretical insight.
O objeto de estudo deste trabalho é o desenvolvimento de um software (interface gráfica do usuário) que possibilita analisar a interconexão de uma LAN (Local Area Network) usando CORBA (Common Object Request Broker Architecture) em ambientes distribuídos e heterogêneos entre diversas máquinas periféricas. Este trabalho apresenta os paradigmas da teoria de grafos: menor caminho (Dijkstra, Ford-Moore-Belman), fluxo máximo (Edmonds-Karp) e fluxo de custo mínimo (Busacker-Gowen) para formalizar o desenvolvimento da interface. Discorremos sobre a teoria de grafos e fluxos em redes que são relevantes para garantir o embasamento teórico.
44

Fdhila, Walid. "Décentralisation optimisée et synchronisation des procédés métiers inter-organisationnels". Electronic Thesis or Diss., Nancy 1, 2011. http://www.theses.fr/2011NAN10058.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La mondialisation, la croissance continuelle des tailles des entreprises et le besoin d'agilité ont poussé les entreprises à externaliser leurs activités, à vendre des parties de leurs procédés, voire même distribuer leurs procédés jusqu'à lors centralisés. En plus, la plupart des procédés métiers dans l'industrie d'aujourd'hui impliquent des interactions complexes entre un grand nombre de services géographiquement distribués, développés et maintenus par des organisations différentes. Certains de ces procédés, peuvent être très complexes et manipulent une grande quantité de données, et les organisations qui les détiennent doivent faire face à un nombre considérable d'instances de ces procédés simultanément. Certaines même éprouvent des difficultés à les gérer d'une manière centralisée. De ce fait, certaines entreprises approuvent le besoin de partitionner leurs procédés métiers d'une manière flexible, et être capables de les distribuer d'une manière efficace, tout en respectant la sémantique et les objectifs du procédé centralisé. Le travail présenté dans cette thèse consiste à proposer une méthodologie de décentralisation qui permet de décentraliser d'une manière optimisée, générique et flexible, des procédés métiers. En d'autres termes, cette approche vise à transformer un procédé centralisé en un ensemble de fragments coopérants. Ces fragments sont déployés et exécutés indépendamment, distribués géographiquement et peuvent être invoqués à distance. Cette thèse propose aussi un environnement pour la modélisation des chorégraphies de services web dans un langage formel à savoir le calcul d'événements
In mainstream service orchestration platforms, the orchestration model is executed by a centralized orchestrator through which all interactions are channeled. This architecture is not optimal in terms of communication overhead and has the usual problems of a single point of failure. Moreover, globalization and the increase of competitive pressures created the need for agility in business processes, including the ability to outsource, offshore, or otherwise distribute its once-centralized business processes or parts thereof. An organization that aims for such fragmentation of its business processes needs to be able to separate the process into different parts. Therefore, there is a growing need for the ability to fragment one's business processes in an agile manner, and be able to distribute and wire these fragments together so that their combined execution recreates the function of the original process. This thesis is focused on solving some of the core challenges resulting from the need to restructure enterprise interactions. Restructuring such interactions corresponds to the fragmentation of intra and inter enterprise business process models. This thesis describes how to identify, create, and execute process fragments without loosing the operational semantics of the original process models. It also proposes methods to optimize the fragmentation process in terms of QoS properties and communication overhead. Further, it presents a framework to model web service choreographies in Event Calculus formal language
45

Cousin, Bernard. "Méthodologie de validation des systèmes structurés en couches par réseaux de Petri : application au protocole Transport". Phd thesis, Université Pierre et Marie Curie - Paris VI, 1987. http://tel.archives-ouvertes.fr/tel-00864063.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous développons une méthode de modélisation et de validation adaptée aux système parallèles structurés en couches hiérarchiques. Nous définissons deux notions : la concordance de modèle prouve que le modèle possède bien les propriétés dégagées par les spécifications; l'adéquation de service valide le protocole par rapport à son service. Nous appliquons notre méthode à la modélisation du protocole de télécommunication de niveau Transport (la couche 4 d'après la norme ISO sur l'interconnexion des systèmes ouverts). Nous étudions tout particulièrement la gestion de désynchronisations du Service de la couche Réseau, et le contrôle de flux avec réquisition de crédit du protocole de la couche Transport. Nous utilisons les réseaux de Petri à prédicats pour décrire le modèle du service rendu par le couche Réseau sous-jacente et nous en servir pour construire le modèle du protocole de ma couche Transport. nous prouvons que la notion d'abstraction peut s'étendre aux réseaux de Petri à prédicats. La preuve du déroulement correct du protocole est apportée en utilisant les invariants issus du modèle.
46

Fdhila, Walid. "Décentralisation Optimisée et Synchronisation des Procédés Métiers Inter-Organisationnels". Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00643827.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La mondialisation, la croissance continuelle des tailles des entreprises et le besoin d'agilité ont poussé les entreprises à externaliser leurs activités, à vendre des parties de leurs procédés, voire même distribuer leurs procédés jusqu'à lors centralisés. En plus, la plupart des procédés métiers dans l'industrie d'aujourd'hui impliquent des interactions complexes entre un grand nombre de services géographiquement distribués, développés et maintenus par des organisations différentes. Certains de ces procédés, peuvent être très complexes et manipulent une grande quantité de données, et les organisations qui les détiennent doivent faire face à un nombre considérable d'instances de ces procédés simultanément. Certaines même éprouvent des difficultés à les gérer d'une manière centralisée. De ce fait, certaines entreprises approuvent le besoin de partitionner leurs procédés métiers d'une manière flexible, et être capables de les distribuer d'une manière efficace, tout en respectant la sémantique et les objectifs du procédé centralisé. Le travail présenté dans cette thèse consiste à proposer une méthodologie de décentralisation qui permet de décentraliser d'une manière optimisée, générique et flexible, des procédés métiers. En d'autres termes, cette approche vise à transformer un procédé centralisé en un ensemble de fragments coopérants. Ces fragments sont déployés et exécutés indépendamment, distribués géographiquement et peuvent être invoqués à distance. Cette thèse propose aussi un environnement pour la modélisation des chorégraphies de services web dans un langage formel à savoir le calcul d'événements.
47

Hamidi, Hamid-Reza. "Couplage à hautes performances de codes parallèles et distribués". Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00010971.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'accroissement rapide de la puissance des calculateurs actuels et leur interconnexion en grappes et grilles de calcul à l'aide de réseaux rapides, permettent d'envisager, en mode de production, l'utilisation de plusieurs codes de calculs numériques couplés pour la simulation de phénomènes physiques plus complexes. Dans le but d'obtenir des résultats toujours plus précis, un nouveau type de simulation numérique, dont l'objectif est de simuler plusieurs
physiques en même temps, est apparu. Ce type d'application est appelé "couplage de code". En effet, plusieurs codes (physiques) sont couplés ou interconnectés an qu'ils communiquent pour réaliser la simulation.
Cette thèse s'intéresse aux problématiques liées au couplage à hautes performances de codes parallèles et distribués. L'obtention des performances repose sur la conception d'applications distribuées dont certains composants sont parallélisés et dont les communications sont efcaces. L'idée de bas de cette thèse est d'utiliser un langage de programmation parallèle orienté flot de données (ici Athapascan) dans deux modèles de conception d'applications distribuées ; "modèle appel de procédure à distance (RPC)" et "modèle orienté flux de données (stream-oriented)". Les contributions apportées par ce travail de recherche sont les suivants :

- Utilisation d'un langage de flot de données dans un grille RPC de calcul ;
Dans le cadre de projet HOMA, les extensions au modèle RPC ont porté d'une part sur la sémantique de contrôle et de communication et d'autre part sur les supports exécutifs pour mieux exploiter le parallélisme. Les résultats théoriques de ces extensions pour une implantation sur le bus logiciel CORBA à l'aide du moteur exécutif KAAPI d'Athapascan et pour l'architecture homogène comme grappe de PC, sont présentés sous la forme d'un modèle de coût d'exécution. Les expériences (élémentaires et sur une application réelle) ont validé ce modèle de coût.

- Extension d'un modèle mémoire partagée pour couplage de codes ;
An d'étendre la sémantique d'accès aux données partagées du langage Athapascan, nous avons proposé la notion de "collection temporelle". Ce concept permet de décrire la sémantique d'accès de type flux de données. La "collection spatiale" permet de mieux exploiter les données parallèles. Pour préciser la sémantique associée à ces nouvelles notions, nous avons donné une nouvelle définition pour la donnée partagée. Puis dans le cadre de cette définition, nous avons défini trois types de données partagées ; "séquentielle", "collection temporelle" et "collection spatiale".
48

Eckerle, Kate. "Capriccio For Strings: Collision-Mediated Parallel Transport in Curved Landscapes and Conifold-Enhanced Hierarchies Among Mirror Quintic Flux Vacua". Thesis, 2017. https://doi.org/10.7916/D85H7TH2.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This dissertation begins with a review of Calabi-Yau manifolds and their moduli spaces, flux compactification largely tailored to the case of type IIb supergravity, and Coleman-De Luccia vacuum decay. The three chapters that follow present the results of novel research conducted as a graduate student. Our first project is concerned with bubble collisions in single scalar field theories with multiple vacua. Lorentz boosted solitons traveling in one spatial dimension are used as a proxy to the colliding 3-dimensional spherical bubble walls. Recent work found that at sufficiently high impact velocities collisions between such bubble vacua are governed by "free passage" dynamics in which field interactions can be ignored during the collision, providing a systematic process for populating local minima without quantum nucleation. We focus on the time period that follows the bubble collision and provide evidence that, for certain potentials, interactions can drive significant deviations from the free passage bubble profile, thwarting the production of a new patch with different field value. However, for simple polynomial potentials a fine-tuning of vacuum locations is required to reverse the free passage kick enough that the field in the collision region returns to the original bubble vacuum. Hence we deem classical transitions mediated by free passage robust. Our second project continues with soliton collisions in the limit of relativistic impact velocity, but with the new feature of nontrivial field space curvature. We establish a simple geometrical interpretation of such collisions in terms of a double family of field profiles whose tangent vector fields stand in mutual parallel transport. This provides a generalization of the well-known limit in flat field space (free passage). We investigate the limits of this approximation and illustrate our analytical results with numerical simulations. In our third and final project we investigate the distribution of field theories that arise from the low energy limit of flux vacua built on type IIb string theory compactified on the mirror quintic. For a large collection of these models, we numerically determine the distribution of Taylor coefficients in a polynomial expansion of each model's scalar potential to fourth order. We provide an analytic explanation of the proncounced hierarchies exhibited by the random sample of masses and couplings generated numerically. The analytic argument is based on the structure of masses in no scale supergravity and the divergence of the Yukawa coupling at the conifold point in the moduli space of the mirror quintic. Our results cast the superpotential vev as a random element whose capacity to cloud structure vanishes as the conifold is approached.
49

Wang, Bin 1984. "Parallel simulation of coupled flow and geomechanics in porous media". Thesis, 2014. http://hdl.handle.net/2152/28061.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
In this research we consider developing a reservoir simulator capable of simulating complex coupled poromechanical processes on massively parallel computers. A variety of problems arising from petroleum and environmental engineering inherently necessitate the understanding of interactions between fluid flow and solid mechanics. Examples in petroleum engineering include reservoir compaction, wellbore collapse, sand production, and hydraulic fracturing. In environmental engineering, surface subsidence, carbon sequestration, and waste disposal are also coupled poromechanical processes. These economically and environmentally important problems motivate the active pursuit of robust, efficient, and accurate simulation tools for coupled poromechanical problems. Three coupling approaches are currently employed in the reservoir simulation community to solve the poromechanics system, namely, the fully implicit coupling (FIM), the explicit coupling, and the iterative coupling. The choice of the coupling scheme significantly affects the efficiency of the simulator and the accuracy of the solution. We adopt the fixed-stress iterative coupling scheme to solve the coupled system due to its advantages over the other two. Unlike the explicit coupling, the fixed-stress split has been theoretically proven to converge to the FIM for linear poroelasticity model. In addition, it is more efficient and easier to implement than the FIM. Our computational results indicate that this approach is also valid for multiphase flow. We discretize the quasi-static linear elasticity model for geomechanics in space using the continuous Galerkin (CG) finite element method (FEM) on general hexahedral grids. Fluid flow models are discretized by locally mass conservative schemes, specifically, the mixed finite element method (MFE) for the equation of state compositional flow on Cartesian grids and the multipoint flux mixed finite element method (MFMFE) for the single phase and two-phase flows on general hexahedral grids. While both the MFE and the MFMFE generate cell-centered stencils for pressure, the MFMFE has advantages in handling full tensor permeabilities and general geometry and boundary conditions. The MFMFE also obtains accurate fluxes at cell interfaces. These characteristics enable the simulation of more practical problems. For many reservoir simulation applications, for instance, the carbon sequestration simulation, we need to account for thermal effects on the compositional flow phase behavior and the solid structure stress evolution. We explicitly couple the poromechanics equations to a simplified energy conservation equation. A time-split scheme is used to solve heat convection and conduction successively. For the convection equation, a higher order Godunov method is employed to capture the sharp temperature front; for the conduction equation, the MFE is utilized. Simulations of coupled poromechanical or thermoporomechanical processes in field scales with high resolution usually require parallel computing capabilities. The flow models, the geomechanics model, and the thermodynamics model are modularized in the Integrated Parallel Accurate Reservoir Simulator (IPARS) which has been developed at the Center for Subsurface Modeling at the University of Texas at Austin. The IPARS framework handles structured (logically rectangular) grids and was originally designed for element-based data communication, such as the pressure data in the flow models. To parallelize the node-based geomechanics model, we enhance the capabilities of the IPARS framework for node-based data communication. Because the geomechanics linear system is more costly to solve than those of flow and thermodynamics models, the performance of linear solvers for the geomechanics model largely dictates the speed and scalability of the coupled simulator. We use the generalized minimal residual (GMRES) solver with the BoomerAMG preconditioner from the hypre library and the geometric multigrid (GMG) solver from the UG4 software toolbox to solve the geomechanics linear system. Additionally, the multilevel k-way mesh partitioning algorithm from METIS is used to generate high quality mesh partitioning to improve solver performance. Numerical examples of coupled poromechanics and thermoporomechanics simulations are presented to show the capabilities of the coupled simulator in solving practical problems accurately and efficiently. These examples include a real carbon sequestration field case with stress-dependent permeability, a synthetic thermoporoelastic reservoir simulation, poroelasticity simulations on highly distorted hexahedral grids, and parallel scalability tests on a massively parallel computer.
text
50

Huang, Yu-Chi, e 黃佑騏. "The Forced Convection Numerical Simulation using Finite Volume Method in the Entrance Region of a Parallel Plate Channel with Constant Heat Flux". Thesis, 2015. http://ndltd.ncl.edu.tw/handle/40240006240377022501.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
碩士
國立臺灣海洋大學
機械與機電工程學系
103
In the numerical analysis of engineering world, there are three commonly used numerical schemes, namely, Finite-volume, finite-difference, and finite-element methods. The finite volume method (Finite Volume Method, FVM) is the most common one in the thermal-fluid field. The flow area of interest is divided into many non-overlapping control volumes in the FVM and each grid node is surrounded by a control volume. An integral process is performed for each control volume so that conservation laws (such as mass, momentum, and energy) could be satisfied within each control volume specified. Due to its conservation nature, the FVM approach is applied in the discretization and the solution of the governing equations in this thesis. The FVM with SIMPLE algorithm by Patanker is used in this thesis. Several MATLAB programs are developed to study a steady two dimensional laminar forced convection flow with constant wall heat flux in a parallel plate channel. Staggered grid configuration is used in the numerical solutions. Velocity, pressure,temperature, local Nusselt number, and friction coefficient are solved numerically. Fully developed and developed flow are both studied. Results are compared with those of analytic solutions or empirical correlations available. The numerical results of MATLAB are also compared with those of commercial code Fluent. Firstly, the applicability of staggered grid is examined. The grid size is optimized for different Reynolds numbers up to 1000. The MATLAB program developed is then run for both fully developed and uniform velocity inlet. Hydrodynamical and thermal entry length are obtained and compared with those empirical correlations in the literature. Local friction coefficient and Nusselt number are numerically calculated and compared with those analytic solutions available or Fluent results. The applicability of the MATLAB program developed in this thesis using staggered grid is well justified through above comparisons for solving this type of forced convection problem. Secondly, this thesis also compare the results of the FVM and the Fluent numerical simulation. Except in the computation time, both the FVM and the Fluent numerical simulation could achieve satisfactory results. It is proposed that different thermal boundary conditions (such as variable wall temperature, variable wall heat flux), rectangular or circular pipe, or different algorithms, such as SIMPLEC, could be studied in the future.

Vai alla bibliografia