Dissertations / Theses on the topic 'Programmation à base de tâches'

To see the other types of publications on this topic, follow the link: Programmation à base de tâches.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Programmation à base de tâches.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Benbernou, Salima. "Outils de base pour une approche de programmation fonctionnelle des tâches opératoires : application aux tâches d'assemblage." Valenciennes, 1991. https://ged.uphf.fr/nuxeo/site/esupversions/27732085-ba53-4b37-94ed-e9e67ed3fb2c.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine des tâches opératoires, une approche procédurale est efficace pour décrire le programme d'exécution d'une tâche par une liste d'instructions, qui sera transmise à la machine pour l'exécuter dans un ordre bien defini. Cependant, ce style de programmation devient inoperant dès lors qu'il s'agit de programmer des tâches imprédictibles : tâches dont le processus d'exécution n'obéit pas à un schéma algorithmique prédéfini. Un exemple typique est celui des tâches d'assemblage. Pour répondre, à une telle problématique, il faut recourir à une approche, permettant la description de la tâche d'une manière fonctionnelle et structurée, suivant plusieurs niveaux d'abstraction. Aussi, l'objectif du travail consiste à : a) dégager un ensemble d'outils pour formaliser la description de la tâche opération ; b) en s'appuyant sur les outils élaborés, une méthode de description fonctionnelle est proposée. Cette méthode consiste à décrire chaque tâche à l'aide d'une expression canonique, chercher ensuite à raffiner récursivement cette expression en terme d'un ensemble de fonctions plus simples, pour en dériver une expression terminale, composée uniquement de fonctions primitives et pouvant être interprétée directement par la machine. Cette approche implique, des transformations successives des expressions fonctionnelles. Ces transformations sont obtenues par décomposition de fonctions et structuration des objets décrivant l'espace opératoire, auxquels s'appliquent les fonctions
2

Hermenier, Fabien. "Gestion dynamique des tâches dans les grappes : une approche à base de machines virtuelles." Phd thesis, Université de Nantes, 2009. http://tel.archives-ouvertes.fr/tel-00476822.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les gestionnaires de ressources reposant sur une gestion dynamique des tâches permettent une utilisation efficace des ressources des grappes de serveurs. Ils mettent en oeuvre pour cela des mécanismes manipulant à la volée l'état des tâches et leur placement sur les différents noeuds de la grappe. En pratique, ces stratégies d'ordonnancement ad-hoc s'adaptent difficilement aux grappes. En effet, celles-ci ne permettent pas nécessairement une manipulation fiable des tâches et peuvent imposer des contraintes d'ordonnancement spécifiques. Dans cette thèse, nous nous sommes fixés comme objectif de faciliter le développement de gestionnaires de ressources basés sur une gestion dynamique des tâches. Pour cela, nous avons retenu une architecture à base de machines virtuelles qui exécutent les tâches des utilisateurs dans leur propre environnement logiciel tout en proposant les primitives nécessaires à la manipulation de celles-ci de manière non-intrusive. Nous avons également proposé une approche autonome optimisant en continu l'ordonnancement des tâches. Les stratégies d'ordonnancement sont implémentées au moyen de la programmation par contraintes qui permet de définir de manière flexible des problèmes d'ordonnancement et de les résoudre. Nous avons validé notre approche par le développement et l'évaluation du prototype Entropy, support pour l'implémentation de différentes stratégies d'ordonnancement. Celles-ci ont pu répondre efficacement à des problèmes concrets et actuels.
3

Sergent, Marc. "Passage à l'echelle d'un support d'exécution à base de tâches pour l'algèbre linéaire dense." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0372/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexification des architectures matérielles pousse vers l’utilisation de paradigmes de programmation de haut niveau pour concevoir des applications scientifiques efficaces, portables et qui passent à l’échelle. Parmi ces paradigmes, la programmation par tâches permet d’abstraire la complexité des machines en représentant les applications comme des graphes de tâches orientés acycliques (DAG). En particulier, le modèle de programmation par tâches soumises séquentiellement (STF) permet de découpler la phase de soumission des tâches, séquentielle, de la phase d’exécution parallèle des tâches. Même si ce modèle permet des optimisations supplémentaires sur le graphe de tâches au moment de la soumission, il y a une préoccupation majeure sur la limite que la soumission séquentielle des tâches peut imposer aux performances de l’application lors du passage à l’échelle. Cette thèse se concentre sur l’étude du passage à l’échelle du support d’exécution StarPU (développé à Inria Bordeaux dans l’équipe STORM), qui implémente le modèle STF, dans le but d’optimiser les performances d’un solveur d’algèbre linéaire dense utilisé par le CEA pour faire de grandes simulations 3D. Nous avons collaboré avec l’équipe HiePACS d’Inria Bordeaux sur le logiciel Chameleon, qui est une collection de solveurs d’algèbre linéaire portés sur supports d’exécution à base de tâches, afin de produire un solveur d’algèbre linéaire dense sur StarPU efficace et qui passe à l’échelle jusqu’à 3 000 coeurs de calcul et 288 accélérateurs de type GPU du supercalculateur TERA-100 du CEA-DAM
The ever-increasing supercomputer architectural complexity emphasizes the need for high-level parallel programming paradigms to design efficient, scalable and portable scientific applications. Among such paradigms, the task-based programming model abstracts away much of the architecture complexity by representing an application as a Directed Acyclic Graph (DAG) of tasks. Among them, the Sequential-Task-Flow (STF) model decouples the task submission step, sequential, from the parallel task execution step. While this model allows for further optimizations on the DAG of tasks at submission time, there is a key concern about the performance hindrance of sequential task submission when scaling. This thesis’ work focuses on studying the scalability of the STF-based StarPU runtime system (developed at Inria Bordeaux in the STORM team) for large scale 3D simulations of the CEA which uses dense linear algebra solvers. To that end, we collaborated with the HiePACS team of Inria Bordeaux on the Chameleon software, which is a collection of linear algebra solvers on top of task-based runtime systems, to produce an efficient and scalable dense linear algebra solver on top of StarPU up to 3,000 cores and 288 GPUs of CEA-DAM’s TERA-100 cluster
4

Polet, Pierre-Etienne. "Portage des chaînes de traitement sonar sur architecture hétérogène : conception et évaluation d'un environnement de programmation basé sur les tâches moldables." Electronic Thesis or Diss., Lyon, École normale supérieure, 2024. http://www.theses.fr/2024ENSL0004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'augmentation des besoins en calcul dans les chaînes de traitement SONAR incite au choix d'architectures hétérogènes à base de GPGPU. La complexité de ces architectures rend l'implémentation d'algorithmes difficile pour des personnes qui ne sont pas à la fois spécialistes du domaine d'application et de la programmation parallèle. Cette thèse propose de répondre à cette problématique en exploitant des notions de programmation par tâches. Des méthodes d'analyse statique du code nous ont permis de regrouper les appels de fonction sur un GPU afin de limiter certains surcoûts en augmentant la granularité des tâches. Afin d'étendre cette approche pour permettre l'exploitation de plusieurs GPU tout en contrôlant l'utilisation mémoire, nous avons étudié un modèle à base de tâches moldable. Celui-ci a été décliné en une nouvelle directive OpenMP qui permet d'unifier plusieurs directives de parallélisation plus anciennes. Dans ce modèle les tâches moldables ou les sous-tâches conservent la capacité d'avoir des dépendances. La conception d'un prototype de support exécutif pour la gestion de ces tâches moldables s'est attachée à gérer l'équilibrage de charge sur une architecture hétérogène ainsi qu'à définir un algorithme pour détecter les dépendances entre de telles tâches. Des expérimentations sur un algorithme de formation de voies issu des chaînes de traitement SONAR et sur l'algorithme de factorisation de Cholesky ont mis en avant l'intérêt de la méthode et certaines faiblesses des choix d'implémentation
The increasing computational demands in SONAR processing chains lead to the choice of heterogeneous architectures based on GPGPU. The complexity of these architectures makes algorithm implementation challenging for individuals who are not specialists in both the application domain and parallel programming. This thesis aims to address this issue by leveraging task-based programming concepts. Static code analysis methods allowed us to group function calls on a GPU to limit certain overheads by increasing task granularity.To extend this approach to enable the utilization of multiple GPUs while controlling memory usage, we explored a moldable task model. This was instantiated into a new OpenMP directive that unifies several older parallelization directives. In this model, moldable tasks or sub-tasks retain the ability to have dependencies. The design of a prototype executive support for managing these moldable tasks focused on load balancing on a heterogeneous architecture and defining an algorithm to detect dependencies between such tasks. Experiments on a SONAR processing beamforming algorithm and the Cholesky factorization algorithm highlighted the method's benefits and some weaknesses in the implementation choices
5

Vet, Jean-Yves. "Parallélisme de tâches et localité de données dans un contexte multi-modèle de programmation pour supercalculateurs hiérarchiques et hétérogènes." Paris 6, 2013. http://www.theses.fr/2013PA066483.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les contributions de cette thèse s'appuient sur un modèle de programmation par tâches, dont l'originalité réside dans l'ajustement de la quantité de calcul en fonction de l'unité d'exécution ciblée. Ce modèle de programmation est particulièrement adapté à un équilibrage de charge dynamique entre des ressources de calcul hétérogènes. Il favorise une meilleure exploitation des unités de traitement en offrant une meilleure réactivité en présence de variations des temps d'exécution, lesquelles peuvent être générées par des codes de calcul irréguliers ou des mécanismes matériels difficilement prévisibles. De plus, la sémantique des tâches de calcul facilite le recours à des mécanismes de gestion automatisée des opérations de cohérence des mémoires déportées et décharge les développeurs de cette tâche fastidieuse et source d'erreurs. Nous avons développé la plateforme d'exécution H3LMS afin d'agréger les propositions de cette thèse. Cette plateforme est intégrée à l'environnement de programmation MPC afin de faciliter la cohabitation de plusieurs modèles de programmation pour une meilleure exploitation des grappes de calcul. H3LMS permet, entre autres, de mieux aiguiller les tâches vers les unités de traitement appropriées en réduisant la quantité de coûteux accès distants au sein d'un nœud de calcul. Ces travaux s'intéressent également à l'adaptation de codes de simulation existants, conçus à l'origine pour exploiter exclusivement des processeurs traditionnels et pouvant comporter plusieurs centaines de milliers de lignes de code. Les performances de la solution développée sont évaluées sur la bibliothèque Linpack et par une application numérique réaliste du CEA
This thesis makes several distinct contributions which rely on a dedicated task-based programming model. The novelty of this model resides in a dynamic adjustment of the quantity of embedded operations depending on the targeted processing unit. It is particularly well adapted to dynamically balance workloads between heterogeneous processing units. It better harnesses those units by strengthening responsiveness in the presence of execution times fluctuations induced by irregular codes or unpredictable hardware mechanisms. Moreover, the semantics and programming interface of the task-parallel model facilitates the use of automated behaviors such as data coherency of deported memories. It alleviates the burden of developers by taking care of this tedious work and which can be a source of errors. We developed H3LMS an execution platform designed to combine the propositions detailed in the thesis. The platform is integrated to the MPC programming environment in order to enhance cohabitation with other programming models and thus better harness clusters. H3LMS is elaborated to improve task scheduling between homogeneous and heterogeneous processing units by reducing the need to resort to distant accesses in a cluster node. This thesis also focuses on the adaptation of legacy codes which are originally designed to exploit traditional processors and may also consist of hundreds of thousand lines of code. The performance of this solution is evaluated on the Linpack library and on a legacy numerical application from the CEA
6

Rossignon, Corentin. "Un modèle de programmation à grain fin pour la parallélisation de solveurs linéaires creux." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0094/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La résolution de grands systèmes linéaires creux est un élément essentiel des simulations numériques.Ces résolutions peuvent représenter jusqu’à 80% du temps de calcul des simulations.Une parallélisation efficace des noyaux d’algèbre linéaire creuse conduira donc à obtenir de meilleures performances. En mémoire distribuée, la parallélisation de ces noyaux se fait le plus souvent en modifiant leschéma numérique. Par contre, en mémoire partagée, un parallélisme plus efficace peut être utilisé. Il est doncimportant d’utiliser deux niveaux de parallélisme, un premier niveau entre les noeuds d’une grappe de serveuret un deuxième niveau à l’intérieur du noeud. Lors de l’utilisation de méthodes itératives en mémoire partagée,les graphes de tâches permettent de décrire naturellement le parallélisme en prenant comme granularité letravail sur une ligne de la matrice. Malheureusement, cette granularité est trop fine et ne permet pas d’obtenirde bonnes performances à cause du surcoût de l’ordonnanceur de tâches.Dans cette thèse, nous étudions le problème de la granularité pour la parallélisation par graphe detâches. Nous proposons d’augmenter la granularité des tâches de calcul en créant des agrégats de tâchesqui deviendront eux-mêmes des tâches. L’ensemble de ces agrégats et des nouvelles dépendances entre lesagrégats forme un graphe de granularité plus grossière. Ce graphe est ensuite utilisé par un ordonnanceur detâches pour obtenir de meilleurs résultats. Nous utilisons comme exemple la factorisation LU incomplète d’unematrice creuse et nous montrons les améliorations apportées par cette méthode. Puis, dans un second temps,nous nous concentrons sur les machines à architecture NUMA. Dans le cas de l’utilisation d’algorithmeslimités par la bande passante mémoire, il est intéressant de réduire les effets NUMA liés à cette architectureen plaçant soi-même les données. Nous montrons comment prendre en compte ces effets dans un intergiciel àbase de tâches pour ainsi améliorer les performances d’un programme parallèle
Solving large sparse linear system is an essential part of numerical simulations. These resolve can takeup to 80% of the total of the simulation time.An efficient parallelization of sparse linear kernels leads to better performances. In distributed memory,parallelization of these kernels is often done by changing the numerical scheme. Contrariwise, in sharedmemory, a more efficient parallelism can be used. It’s necessary to use two levels of parallelism, a first onebetween nodes of a cluster and a second inside a node.When using iterative methods in shared memory, task-based programming enables the possibility tonaturally describe the parallelism by using as granularity one line of the matrix for one task. Unfortunately,this granularity is too fine and doesn’t allow to obtain good performance.In this thesis, we study the granularity problem of the task-based parallelization. We offer to increasegrain size of computational tasks by creating aggregates of tasks which will become tasks themself. Thenew coarser task graph is composed by the set of these aggregates and the new dependencies betweenaggregates. Then a task scheduler schedules this new graph to obtain better performance. We use as examplethe Incomplete LU factorization of a sparse matrix and we show some improvements made by this method.Then, we focus on NUMA architecture computer. When we use a memory bandwidth limited algorithm onthis architecture, it is interesting to reduce NUMA effects. We show how to take into account these effects ina task-based runtime in order to improve performance of a parallel program
7

Liang, Yan. "Mise en œuvre d'un simulateur en OCCAM pour la conception d'architectures parallèles à base d'une structure multiprocesseur hiérarchique." Compiègne, 1989. http://www.theses.fr/1989COMPD176.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La simulation est devenue une étape indispensable dans la phase de conception de machines parallèles et permet d'éviter la construction de prototypes couteux. Dans cette thèse, un simulateur orienté vers des processus parallèles en langage OCCAM a été développé. Notre objectif a été de concevoir un simulateur adapté à un réseau de transputers pour la réalisation d'un prototype de machine parallèle utilisant des liaisons directes entre les transputers par les canaux séries. A titre d'exemple de simulation, une architecture parallèle (coprocesseur) à base d'une structure multiprocessor hiérarchique : maître-esclave a été réalisée au niveau processeur-mémoire-commutateur. La performance théorique est évaluée à l'aide des deux modèles analytiques dont l'un est une combinaison de systèmes ouverts M/M/1, et l'autre est un système ouvert M/M/s. La performance expérimentale a été mesurée respectivement sur les tâches indépendantes et les tâches séquentielles. La configuration expérimentale de sa performance théorique permet d'avoir un aperçu général sur les avantages et les limites d'une structure coprocesseur et d'envisager une implémentation ultérieure
The simulation has become an indispensable phase for conception of parallel processing systems, and enables to avoid construction of expensive prototypes. In this paper, a parallel process-oriented simulator written in OCCAM language has been developed. Our objective is to conceive a simulator adapted to a network of transputers for prototyping parallel processing systems by connecting directly the serial transputer channels. As a simulation example, a parallel processor system (coprocessor) based on hierarchical structure : master-slave has been realized at the processor-memory-switch level. The performance analysis is obtained via two queuing models : the former as independent M/M/1 systems and the latter as a M/M/s system. The experimental performance is measured respectively based on the independent tasks and the sequential tasks. The comparison of analytic and experimental results enables us to constate the advantage and limit of the coprocessor and to encourage us to its implementation
8

Tahan, Oussama. "Improving execution reliability of parallel applications on multicore architectures : an OpenMP based approach." Compiègne, 2012. http://www.theses.fr/2012COMP2046.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Aujourd’hui, afin d’améliorer les fonctionnalités et performances de ses produits, l’industrie recourt souvent à l’implémentation des calculateurs dans les systèmes. Pour cela les fournisseurs doivent faire face à plusieurs défis liés au temps et aux coûts de production, tout en respectant les exigences de fiabilité et de sécurité. La hausse progressive de la complexité des applications et des processeurs, ainsi que le rétrécissement significatif des tailles des puces électroniques rendent ces calculateurs plus vulnérables aux fautes transitoires. Dans cette thèse, nous avons étudié une méthode de fiabilisation de l’exécution des applications critiques sur les processeurs multi-cœurs et nous avons mis au point une technique de tolérance aux fautes basée sur la redondance. Cette méthode permettra de bénéficier du nombre en pleine expansion de cœurs par puce et de profiter des ressources libres pour une meilleure fiabilité. Dans nos travaux, nous avons mis au point plusieurs extensions au modèle d’OpenMP basé tâches, qui permettront aux programmeurs de spécifier les tâches critiques et de gérer automatiquement la redondance. De plus, ces extensions annuleront les séquences de tâches inutiles pour la redondance afin de libérer rapidement les ressources. Nous avons aussi étendu OpenMP avec un modèle d’annulation des tâches, permettant aux programmeurs de coder plus facilement des applications basées sur l’exécution spéculative et les algorithmes de recherche. De plus, nous avons rajouté une fonctionnalité supplémentaire à l’exécutif correspondant Nanos, qui lui permettra de s’adapter aux architectures des processeurs multi-cœurs basées NUMA, pour améliorer les performances
Today, computers are implemented more frequently within systems in order to provide products with better functionalities and improved performance. The fast growing appeal on computing based systems forced industry to meet new short time to market and cost related challenges. Besides that, systems providers are facing rapidly growing needs to supply computers with reliability and safety requirements. This is because both applications and processors complexity keeps increasing and die size remains shrinking, thus making computers more vulnerable toward transient faults. For all these reasons, engineers try to find cost-efficient tools and flexible solutions to properly develop these systems. In this PhD thesis, we will study a redundancy based fault tolerance approach using OpenMP taskcentric programming model. In this approach, we enable OpenMP programmers to tag reliable tasks within a program to automatically replicate them and apply a triple modular redundancy. Voting mechanism is used to detect and recover from erroneous results and behavior. This technique allows developers to take advantage of recent and future multi and many-core based systems since the number of available and not fully exploited resources keeps increasing with the growing number of cores. In addition, we will implement within Nanos runtime system a task cancellation approach allowing us to free resources by cancelling erroneous unnecessary subtrees of tasks. It will also allow OpenMP programmers to easily code applications involving task cancellation and speculative execution. Moreover, we will study runtime enhancements to improve execution of OpenMP applications on NUMA based architectures
9

Boillot, Lionel. "Contributions à la modélisation mathématique et à l'algorithmique parallèle pour l'optimisation d'un propagateur d'ondes élastiques en milieu anisotrope." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3043/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La méthode d’imagerie la plus répandue dans l’industrie pétrolière est la RTM (Reverse Time Migration) qui repose sur la simulation de la propagation des ondes dans le sous-sol. Nous nous sommes concentrés sur un propagateur d'ondes élastiques 3D en milieu anisotrope de type TTI (Tilted Transverse Isotropic). Nous avons directement travaillé dans le code de recherche de Total DIVA (Depth Imaging Velocity Analysis), basé sur une discrétisation par la méthode de Galerkin Discontinue et le schéma Leap-Frog, et développé pour le calcul parallèle intensif – HPC (High Performance Computing). Nous avons ciblé plus particulièrement deux contributions possibles qui, si elles supposent des compétences très différentes, ont la même finalité : réduire les coûts de calculs requis pour la simulation. D'une part, les conditions aux limites classiques de type PML (Perfectly Matched Layers) ne sont pas stables dans des milieux TTI. Nous avons proposé de formuler une CLA (Conditions aux Limites Absorbantes) stable dans des milieux anisotropes. La méthode de construction repose sur les propriétés des courbes de lenteur, ce qui donne à notre approche un caractère original. D'autre part, le parallélisme initial, basé sur une décomposition de domaine et des communications par passage de messages à l'aide de la bibliothèque MPI, conduit à un déséquilibrage de charge qui détériore son efficacité parallèle. Nous avons corrigé cela en remplaçant le paradigme parallélisme par l'utilisation de la programmation à base de tâches sur support d'exécution. Cette thèse a été réalisée dans le cadre de l'action de recherche DIP (Depth Imaging Partnership) qui lie la compagnie pétrolière Total et Inria
The most common method of Seismic Imaging is the RTM (Reverse Time Migration) which depends on wave propagation simulations in the subsurface. We focused on a 3D elastic wave propagator in anisotropic media, more precisely TTI (Tilted Transverse Isotropic). We directly worked in the Total code DIVA (Depth Imaging Velocity Analysis) which is based on a discretization by the Discontinuous Galerkin method and the Leap-Frog scheme, and developed for intensive parallel computing – HPC (High Performance Computing). We choose to especially target two contributions. Although they required very different skills, they share the same goal: to reduce the computational cost of the simulation. On one hand, classical boundary conditions like PML (Perfectly Matched Layers) are unstable in TTI media. We have proposed a formulation of a stable ABC (Absorbing Boundary Condition) in anisotropic media. The technique is based on slowness curve properties, giving to our approach an original side. On the other hand, the initial parallelism, which is based on a domain decomposition and communications by message passing through the MPI library, leads to load-imbalance and so poor parallel efficiency. We have fixed this issue by replacing the paradigm for parallelism by the use of task-based programming through runtime system. This PhD thesis have been done in the framework of the research action DIP (Depth Imaging Partnership) between the Total oil company and Inria
10

Oulamara, Ammar. "Flowshops avec détérioration des tâches et groupement des tâches." Université Joseph Fourier (Grenoble), 2001. http://www.theses.fr/2001GRE10074.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Manaa, Adel. "Ordonnancement de tâches multiprocesseur sur deux processeurs dédiés." Troyes, 2009. http://www.theses.fr/2009TROY0016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce mémoire, nous étudions des problèmes d’ordonnancement de tâches multiprocesseur où une tâche peut nécessiter pour son exécution plus d’un processeur simultanément. Nous nous sommes particulièrement intéressés au cas de deux processeurs dédiés pour lequel nous avons étudié trois fonctions objectif : la minimisation de la fin de l’ordonnancement, la minimisation de la somme (pondérée) des dates de fin des tâches et la minimisation de la somme des retards. Pour ces différents critères, nous avons développé des bornes inférieures, des heuristiques et des méthodes exactes. Nous avons proposé différentes bornes inférieures dont des bornes basées sur des relaxations intuitives ainsi que des bornes basées sur des relaxations lagrangienne et surrogate. Des heuristiques constructives ont été développées et pour un bon nombre d’entre elles des ratios de performances au pire cas sont démontrés. Nous avons aussi proposé des différentes formulations mathématiques pour la minimisation de la somme des retards, à partir desquels nous avons proposé plusieurs heuristiques avec études expérimentales de leurs performances. Nous avons développé des méthodes exactes de type branch-and-bound pour lesquelles nous avons prouvé plusieurs propriétés de dominance. Enfin, nous avons proposé une approche adaptée pour la génération des instances de test pour ce type de problèmes d’ordonnancement sur processeurs dédiés prenant en compte les différents types de tâches et la charge des processeurs et sur lesquels nous avons testé nos méthodes
In this thesis, we study scheduling problems with multiprocessor tasks where a task may simultaneously require more than one processor for its execution. We are particularly interested in the case of two dedicated processors for which we have considered three objective functions: minimising the makespan, minimizing the total (weighted) flowtime and minimizing the total tardiness. For these criteria, we have developed lower bounds, heuristics and exact methods. We have proposed different lower bounds based on intuitive relaxations or lagrangian and surrogate relaxations. Constructive heuristics have been developed and worst case performance ratios of some of them are proved. We have also proposed mathematical models for minimizing the total tardiness and we developed several heuristics based on these models with experimental study of their performance. We have developed exact branch-and-bound methods for which we have proved several dominance properties. Finally, we proposed a specific scheme to randomly test instances for this type of scheduling problems on dedicated processors taking into account the different types of tasks and processor loads and on which we tested our methods
12

Cavarero, Annie. "Lmad : un logiciel de conception de tâches d'assemblage robotisé." Besançon, 1986. http://www.theses.fr/1986BESA2033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
LMAD est un système de conception de tâches d'assemblage robotisé. Il consiste à définir une tâche à travers une structuration des objets et des outils utilisés, et une classification des processus de montage. Cette définition est indépendante du système robotisé dont on dispose. Une interface logicielle traduit la séquence d'actions obtenues en séquences de commandes pour le pilotage d'un robot donné. Ces commandes sont exprimées à l'aide de primitives robotiques et traduites dans un langage de programmation de robots.
13

Tran, Thierry. "Programmation graphique interactive de tâches non répétitives de manipulation au contact." Toulouse 3, 1990. http://www.theses.fr/1990TOU30223.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux exposes dans cette these portent sur le developpement d'outils theoriques et pratiques pour la programmation et la realisation de taches de manipulation par un systeme robotise. Ils s'appliquent a des taches non repetitives et complexes, ou le robot se trouve en interaction directe avec un environnement evolutif et non specifique. Une plus grande ergonomie dans la programmation de ces taches y est aussi recherchee. L'auteur propose, dans cette optique, un outil flexible et performant de generation de trajectoire, pour une structure mecanique contrainte, composee de corps polyedriques. Il repose sur un formalisme tres general. La representation de la tache se fait sous forme de graphe a partir duquel est calcule un modele lineaire numerique. Sa resolution permet le traitement de taches incompletement specifiees, sur-contraintes ou meme incompatibles. Cette methodologie est appliquee au calcul des mouvements d'objets soumis a des contraintes de contact. Un contact est ainsi decrit de maniere naturelle en terme de relations entre entites geometriques (point, droite, plan). Une gestion methodique de chaque type de contact permet un traitement automatique de la tache, avec un calcul quasi-immediat de la trajectoire. Une deuxieme application est presentee qui traite sous la meme approche des problemes de calibrage et de repositionnement d'un objet dans l'environnement. Le travail se termine par le developpement d'un environnement de programmation graphique interactif, dedie a la commande d'un robot manipulateur, et offrant un haut niveau de description des taches. Des exemples d'applications sont presentes en fin de memoire
14

Cojean, Terry. "Programmation des architectures hétérogènes à l'aide de tâches divisibles ou modulables." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0041/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les ordinateurs équipés d'accélérateurs sont omniprésents parmi les machines de calcul haute performance. Cette évolution a entraîné des efforts de recherche pour concevoir des outils permettant de programmer facilement des applications capables d'utiliser toutes les unités de calcul de ces machines. Le support d'exécution StarPU développé dans l'équipe STORM de INRIA Bordeaux, a été conçu pour servir de cible à des compilateurs de langages parallèles et des bibliothèques spécialisées (algèbre linéaire, développements de Fourier, etc.). Pour proposer la portabilité des codes et des performances aux applications, StarPU ordonnance des graphes dynamiques de tâches de manière efficace sur l’ensemble des ressources hétérogènes de la machine. L’un des aspects les plus difficiles, lors du découpage d’une application en graphe de tâches, est de choisir la granularité de ce découpage, qui va typiquement de pair avec la taille des blocs utilisés pour partitionner les données du problème. Les granularités trop petites ne permettent pas d’exploiter efficacement les accélérateurs de type GPU, qui ont besoin de peu de tâches possédant un parallélisme interne de données massif pour « tourner à plein régime ». À l’inverse, les processeurs traditionnels exhibent souvent des performances optimales à des granularités beaucoup plus fines. Le choix du grain d’un tâche dépend non seulement du type de l'unité de calcul sur lequel elle s’exécutera, mais il a en outre une influence sur la quantité de parallélisme disponible dans le système : trop de petites tâches risque d’inonder le système en introduisant un surcoût inutile, alors que peu de grosses tâches risque d’aboutir à un déficit de parallélisme. Actuellement, la plupart des approches pour solutionner ce problème dépendent de l'utilisation d'une granularité des tâches intermédiaire qui ne permet pas un usage optimal des ressources aussi bien du processeur que des accélérateurs. L'objectif de cette thèse est d'appréhender ce problème de granularité en agrégeant des ressources afin de ne plus considérer de nombreuses ressources séparées mais quelques grosses ressources collaborant à l'exécution de la même tâche. Un modèle théorique existe depuis plusieurs dizaines d'années pour représenter ce procédé : les tâches parallèles. Le travail de cette thèse consiste alors en l'utilisation pratique de ce modèle via l'implantation de mécanismes de gestion de tâches parallèles dans StarPU et l'implantation ainsi que l'évaluation d'ordonnanceurs de tâches parallèles de la littérature. La validation du modèle se fait dans le cadre de l'amélioration de la programmation et de l'optimisation de l'exécution d'applications numériques au dessus de machines de calcul modernes
Hybrid computing platforms equipped with accelerators are now commonplace in high performance computing platforms. Due to this evolution, researchers concentrated their efforts on conceiving tools aiming to ease the programmation of applications able to use all computing units of such machines. The StarPU runtime system developed in the STORM team at INRIA Bordeaux was conceived to be a target for parallel language compilers and specialized libraries (linear algebra, Fourier transforms,...). To provide the portability of codes and performances to applications, StarPU schedules dynamic task graphs efficiently on all heterogeneous computing units of the machine. One of the most difficult aspects when expressing an application into a graph of task is to choose the granularity of the tasks, which typically goes hand in hand with the size of blocs used to partition the problem's data. Small granularity do not allow to efficiently use accelerators such as GPUs which require a small amount of task with massive inner data-parallelism in order to obtain peak performance. Inversely, processors typically exhibit optimal performances with a big amount of tasks possessing smaller granularities. The choice of the task granularity not only depends on the type of computing units on which it will be executed, but in addition it will influence the quantity of parallelism available in the system: too many small tasks may flood the runtime system by introducing overhead, whereas too many small tasks may create a parallelism deficiency. Currently, most approaches rely on finding a compromise granularity of tasks which does not make optimal use of both CPU and accelerator resources. The objective of this thesis is to solve this granularity problem by aggregating resources in order to view them not as many small resources but fewer larger ones collaborating to the execution of the same task. One theoretical machine and scheduling model allowing to represent this process exists since several decades: the parallel tasks. The main contributions of this thesis are to make practical use of this model by implementing a parallel task mechanism inside StarPU and to implement and study parallel task schedulers of the literature. The validation of the model is made by improving the programmation and optimizing the execution of numerical applications on top of modern computing machines
15

Poder, Emmanuel. "Programmation par contraintes et ordonnancement de tâches avec consommation variable de ressource." Clermont-Ferrand 2, 2002. http://www.theses.fr/2002CLF21374.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La plupart des travaux sur l'ordonnancement avec contraintes de ressources (problème RCPSP) sont liés à des problèmes où les tâches utilisent des quantités constantes de ressources durant toute leur exécution. Cependant, dans de nombreux problèmes pratiques, les consommations des tâches en ressources sont variables avec le temps. Ces variations peuvent être discrètes (besoin de main d'oeuvre) ou continues (électricité, pétrole). En général, de tels profils de consommation sont approximés par des suites de rectangles liés par des contraintes de contigüités mais un nombre élevé de rectangles élémentaires et de contraintes sont alors nécessaires. Dans cette thèse, nous présentons dans un premier temps, une extension du problème RCPSP classique : la consommation en ressource d'une tâche est une fonction du temps linéaire par morceaux et sa durée peut être variable. Une tâche est représentée par une suite de sous-tâches trapézoïdales contigus. Nous présentons ensuite les limites des méthodes de résolution exactes par séparation et évaluation proposées dans la littérature et nous proposons une résolution de cette généralisation du RCPSP en utilisant le langage de Programmation Par Contraintes CHIP. Pour cela, une nouvelle contrainte globale cumulative traitant globalement ce modèle de tâche a été créée et ajoutée au langage CHIP. Elle se nomme cumulative_trapèze et a nécessité l'écriture d'algorithmes efficaces pour le calcul de la partie obligatoire et pour l'élagage des domaines des variables d'une tâche. Les principales difficultés rencontrées lors de sa réalisation contrainte ont résidé dans le traitement de suites d'objets plûtot que de rectangles individuels et dans la gestion d'un profil cumulé des consommations non entier. Enfin, les principales applications sont présentées : modèle Producteur/Consommateur pour la gestion de stock et problèmes de placements
16

Bouzat, Nicolas. "Algorithmes à grain fin et schémas numériques pour des simulations exascales de plasmas turbulents." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD052/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les architectures de calcul haute performance les plus récentes intègrent de plus en plus de nœuds de calcul qui contiennent eux-mêmes plus de cœurs. Les bus mémoires et les réseaux de communication sont soumis à un niveau d'utilisation critique. La programmation parallèle sur ces nouvelles machines nécessite de porter une attention particulière à ces problématiques pour l'écriture de nouveaux algorithmes. Nous analysons dans cette thèse un code de simulation de turbulences de plasma et proposons une refonte de la parallélisation de l'opérateur de gyromoyenne plus adapté en termes de distribution de données et bénéficiant d'un schéma de recouvrement calcul -- communication efficace. Les optimisations permettent un gain vis-à-vis des coûts de communication et de l’empreinte mémoire. Nous étudions également les possibilités d'évolution de ce code à travers la conception d'un prototype utilisant un modèle programmation par tâche et un schéma de communication asynchrone adapté. Cela permet d'atteindre un meilleur équilibrage de charge afin de maximiser le temps de calcul et de minimiser les communications entre processus. Un maillage réduit adaptatif en espace est proposé, diminuant le nombre de points sans pour autant perdre en précision, mais ajoutant de fait une couche supplémentaire de complexité. Ce prototype explore également une distribution de données différente ainsi qu'un maillage en géométrie complexe adapté aux nouvelles configurations des tokamaks. Les performances de différentes optimisations sont étudiées et comparées avec le code préexistant et un cas dimensionnant sur un grand nombre de cœurs est présenté
Recent high performance computing architectures come with more and more cores on a greater number of computational nodes. Memory buses and communication networks are facing critical levels of use. Programming parallel codes for those architectures requires to put the emphasize on those matters while writing tailored algorithms. In this thesis, a plasma turbulence simulation code is analyzed and its parallelization is overhauled. The gyroaverage operator benefits from a new algorithm that is better suited with regard to its data distribution and that uses a computation -- communication overlapping scheme. Those optimizations lead to an improvement by reducing both execution times and memory footprint. We also study new designs for the code by developing a prototype based on task programming model and an asynchronous communication scheme. It allows us to reach a better load balancing and thus to achieve better execution times by minimizing communication overheads. A new reduced mesh is introduced, shrinking the overall mesh size while keeping the same numerical accuracy but at the expense of more complex operators. This prototype also uses a new data distribution and twists the mesh to adapt to the complex geometries of modern tokamak reactors. Performance of the different optimizations is studied and compared to that of the current code. A case scaling on a large number of cores is given
17

Möller, Nathalie. "Adaptation de codes industriels de simulation en Calcul Haute Performance aux architectures modernes de supercalculateurs." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV088.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant de longues années, la stabilité dans le paradigme d'architecture a facilité la portabilité de performance des grands codes en Calcul de Haute Performance d'une génération à l'autre de supercalculateurs.L'effondrement programmé de la loi de Moore - qui règle les progrès en gravure des micro-processeurs - bouscule ce modèle et requiert un effort nouveau du côté logiciel.Une modernisation des codes basée sur une algorithmique adaptée aux futurs systèmes est ainsi nécessaire.Cette modernisation repose sur des principes de base connus tels que la concurrence des calculs et la localité des données.Cependant, la mise en œuvre de ces principes dans le cadre d'applications réelles en milieu industriel – lesquelles applications sont souvent le fruit d’années d’efforts de développement - s’avère bien plus compliquée que ne le laissait prévoir leur simplicité apparente.Les contributions de cette thèse sont les suivantes :D’une part, nous explorons une méthodologie de modernisation de codes basée sur l’utilisation de proto-applications et la confrontons à une approche directe, en optimisant deux codes de simulation dévéloppés dans un contexte similaire.D’autre part, nous nous concentrons sur l’identification des principaux défis concernant l’adéquation entre applications, modèles de programmation et architectures.Les deux domaines d'application choisis sont la dynamique des fluides et l'électromagnétisme
For many years, the stability of the architecture paradigm has facilitated the performance portability of large HPC codes from one generation of supercomputers to another.The announced breakdown of the Moore's Law, which rules the progress of microprocessor engraving, ends this model and requires new efforts on the software's side.Code modernization, based on an algorithmic which is well adapted to the future systems, is mandatory.This modernization is based on well-known principles as the computation concurrency, or degree of parallelism, and the data locality.However, the implementation of these principles in large industrial applications, which often are the result of years of development efforts, turns out to be way more difficult than expected.This thesis contributions are twofold :On the one hand, we explore a methodology of software modernization based on the concept of proto-applications and compare it with the direct approach, while optimizing two simulation codes developed in a similar context.On the other hand, we focus on the identification of the main challenges for the architecture, the programming models and the applications.The two chosen application fields are the Computational Fluid Dynamics and Computational Electro Magnetics
18

Laruelle, Hervé. "Planification temporelle et exécution de tâches en robotique." Toulouse 3, 1994. http://www.theses.fr/1994TOU30048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette these est l'etude et l'implementation d'un planificateur temporel de taches, appele ixtet, en vue d'etre utilise pour le controle haut-niveau d'un robot mobile. Dans ce sens, l'approche developpee propose un compromis entre l'expressivite de la representation et l'efficacite des algorithmes. Le formalisme logique employe est base sur une logique reifiee du premier ordre utilisant les instants comme primitives temporelles. Dans ce formalisme, une hierarchie de description d'operateurs temporels deterministes, appeles taches, a ete definie. Une procedure de compilation permet de verifier la coherence des operateurs et fournit des structures directement utilisables en tant que schemas de plans partiels, inserables dans le plan en construction. A partir de ce formalisme, un critere de plan solution a ete defini comme l'absence de conflits et l'explication de toutes les propositions temporelles. L'algorithmique du planificateur basee sur ce critere utilise les liens causaux. Le controle contient deux procedures importantes: une procedure dite de faisabilite qui resout les sous-buts, a l'aide d'un arbre de decomposition de sous-buts ; et une procedure dite de satisfiabilite qui resout les conflits. L'arbre de recherche global est controle par un algorithme a#. Pour augmenter l'efficacite du planificateur, un principe de moindre engagement etendu a ete applique, regissant l'ordre dans lequel sont choisis les sous-buts et les conflits. Enfin, une procedure d'execution de plan temporel a ete elaboree pour etre couplee aux modules de controle du robot mobile hilare. Cette procedure gere un ensemble d'automates qui permettent d'etendre la representation des operateurs temporels aux cas d'echecs a l'execution. Par ce moyen, elle met a jour le modele du monde courant pour une replanification eventuelle
19

Koung, Daravuth. "Cooperative navigation of a fleet of mobile robots." Electronic Thesis or Diss., Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’intérêt pour l’intégration des systèmes multi-robots (MRS) dans les applications du monde réel augmente de plus en plus, notamment pour l’exécution de tâches complexes. Pour les tâches de transport de charges, différentes stratégies de manutention de charges ont été proposées telles que : la poussée seule, la mise en cage et la préhension. Dans cette thèse, nous souhaitons utiliser une stratégie de manipulation simple : placer l’objet à transporter au sommet d’un groupe de robots mobiles. Ainsi, cela nécessite un contrôle de formation rigide. Nous proposons deux algorithmes de formation. L’algorithme de consensus est l’un d’entre eux. Nous adaptons un contrôleur de flocking dynamique pour qu’il soit utilisé dans le système à un seul intégrateur, et nous proposons un système d’évitement d’obstacles qui peut empêcher le fractionnement tout en évitant les obstacles. Le deuxième contrôle de formation est basé sur l’optimisation quadratique hiérarchique (HQP). Le problème est décomposé en plusieurs objectifs de tâches : formation, navigation,évitement d’obstacles et limites de vitesse. Ces tâches sont représentées par des contraintes d’égalité et d’inégalité avec différentsniveaux de priorité, qui sont résolues séquentiellement par le HQP. Enfin, une étude sur les algorithmes d’allocation des tâches(Contract Net Protocol et Tabu Search) est menée afin de déterminer une solution appropriée pour l’allocation des tâches dans l’environnementindustriel
The interest in integrating multirobot systems (MRS) into real-world applications is increasing more and more, especially for performing complex tasks. For loadcarrying tasks, various load-handling strategies have been proposed such as: pushingonly, caging, and grasping. In this thesis, we aim to use a simple handling strategy: placing the carrying object on top of a group of wheeled mobile robots. Thus, it requires a rigid formation control. A consensus algorithm is one of the two formation controllers we apply to the system. We adapt a dynamic flocking controller to be used in the singleintegrator system, and we propose an obstacle avoidance that can prevent splitting while evading the obstacles. The second formation control is based on hierarchical quadratic programming (HQP). The problem is decomposed into multiple task objectives: formation, navigation, obstacle avoidance, velocity limits. These tasks are represented by equality and inequality constraints with different levels of priority, which are solved sequentially by the HQP. Lastly, a study on task allocation algorithms (Contract Net Protocol and Tabu Search) is carried out in order to determine an appropriate solution for allocating tasks in the industrial environment
20

Mazon, Isabelle. "Raisonnement sur les contraintes géométriques et d'incertitudes pour la planification de tâches de manipulation robotisées." Toulouse 3, 1990. http://www.theses.fr/1990TOU30131.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux presentes dans cette these portent sur la programmation de systemes robotiques, plus particulierement nous presentons un systeme de planification automatique de taches du type prendre et poser. Nous nous sommes interesses a la prise en compte des interdependances entre les operations de base de cette tache qui est decomposee par le systeme en mouvements de transfert, mouvements d'approche et de degagement et operation de saisie et de pose. Tout d'abord, nous faisons un etat de l'art dans le domaine de la programmation automatique de niveau tache, et nous presentons les problemes lies a la decomposition de la tache. Nous presentons, ensuite, les modules de base du systeme spara et les problemes lies a la specificite de chacun des modules. Dans le troisieme chapitre, nous decrivons le module de propagation d'incertitudes en position qui permet de resoudre les interdependances liees a l'imperfection des modeles utilises par le systeme. Le systeme engendre ainsi un plan robuste. Dans le quatrieme chapitre, nous presentons un ensemble de techniques permettant de garantir la compatibilite des mouvements d'approche (et de degagement) et des mouvements de transfert. Dans le dernier chapitre, nous exposons l'implantation actuelle du systeme et plus particulierement l'architecture du controleur, qui est partiellement contrainte par les techniques utilisees pour prendre en compte les interdependances geometriques
21

Gurhem, Jérôme. "Paradigmes de programmation répartie et parallèle utilisant des graphes de tâches pour supercalculateurs post-pétascale." Thesis, Lille, 2021. http://www.theses.fr/2021LILUI005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis le milieu des années 1990, les bibliothèques de transmission de messages sont les technologies les plus utilisées pour développer des applications parallèles et distribuées. Des modèles de programmation basés sur des tâches peuvent être utilisés, par exemple, pour éviter les communications collectives sur toutes les ressources comme les réductions, les diffusions ou les rassemblements en les transformant en multiples opérations avec des tâches. Ensuite, ces opérations peuvent être planifiées par l'ordonnanceur pour placer les données et les calculs de manière à optimiser et réduire les communications de données.L'objectif principal de cette thèse est d'étudier ce que doit être la programmation basée sur des tâches pour des applications scientifiques et de proposer une spécification de cette programmation distribuée et parallèle, en expérimentant avec plusieurs représentations simplifiées d'applications scientifiques importantes pour TOTAL, et de méthodes linéaire classique dense et creuses. Au cours de la thèse, plusieurs langages de programmation et paradigmes sont étudiés. Des méthodes linéaires denses pour résoudre des systèmes linéaires, des séquences de produit matrice vecteur creux et la migration sismique en profondeur pré-empilement de Kirchhoff sont étudiées et implémentées en tant qu'applications basées sur des tâches.Une taxonomie, basée sur plusieurs de ces langages et paradigmes est proposée. Des logiciels ont été développés en utilisant ces modèles de programmation pour chaque application simplifiée. À la suite de ces recherches, une méthodologie pour la programmation de tâches parallèles est proposée, optimisant les mouvements de données en général et, en particulier, pour des applications scientifiques ciblées
Since the middle of the 1990s, message passing libraries are the most used technology to implement parallel and distributed applications. However, they may not be a solution efficient enough on exascale machines since scalability issues will appear due to the increase in computing resources. Task-based programming models can be used, for example, to avoid collective communications along all the resources like reductions, broadcast or gather by transforming them into multiple operations on tasks. Then, these operations can be scheduled by the scheduler to place the data and computations in a way that optimize and reduce the data communications. The main objective of this thesis is to study what must be task-based programming for scientific applications and to propose a specification of such distributed and parallel programming, by experimenting for several simplified representations of important scientific applications for TOTAL, and classical dense and sparse linear methods.During the dissertation, several programming languages and paradigms are studied. Dense linear methods to solve linear systems, sequences of sparse matrix vector product and the Kirchhoff seismic pre-stack depth migration are studied and implemented as task-based applications. A taxonomy, based on several of these languages and paradigms is proposed.Software were developed using these programming models for each simplified application. As a result of these researches, a methodology for parallel task programming is proposed, optimizing data movements, in general, and for targeted scientific applications, in particular
22

Grabsia, Nassima. "Contribution à l'étude et à la spécification d'un système de programmation des tâches orientée métier." Aix-Marseille 3, 2000. http://www.theses.fr/2000AIX30014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail presente dans cette these s'inscrit dans le cadre de travaux de recherche qui tentent d'apporter des reponses aux attentes des industriels en matiere d'outils d'aide a la maitrise de la mise en uvre de leurs installations industrielles. Ce travail vise plus specifiquement la simplification de la fonction de programmation des taches dans les systemes automatises de production manufacturiere. Pour ce faire, nous proposons une nouvelle approche de programmation des taches rompant avec les methodes classiques qui induisent des couts eleves de production et qui exigent de la part des operateurs humains une importante culture en informatique. Cette approche repose sur un ensemble d'outils qui, d'une part, permettent d'exprimer les taches de maniere interactive et au moyen des termes et des concepts du metier, et qui d'autre part, aident les operateurs a definir des taches se referant aux regles de l'art et savoir-faire metier. Cette approche a ainsi pour avantages de rapprocher les operateurs de leur metier et d'amplifier leur intelligence de la programmation en leur offrant une assistance fondee sur la cooperation homme-machine. Pour la mise en uvre de l'approche de programmation proposee, les developpements suivants ont ete realises : i) un modele appele modele de la tache, definissant l'ensemble des concepts permettant la representation et la structuration des connaissances metier qui interviennent dans la programmation de tache ; ii) une methode definissant l'ensemble des etapes supportant le processus de specification cooperative et orientee metier de la tache ; iii) une modelisation de la cooperation homme-machine dans le cadre des activites impliquees dans la programmation de tache. Il s'agit plus specifiquement d'une etude qui a permis de repartir les roles entre l'operateur humain et le systeme artificiel ainsi qu'a etablir et formaliser un ensemble de protocoles de cooperation, inspires des protocoles reels utilises par des psychologues socio-constructivistes.
23

Lucquiaud, Vincent. "Sémantique et outil pour la modélisation des tâches utilisateur : n-mda." Poitiers, 2005. http://www.theses.fr/2005POIT2325.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La construction d'une application interactive suit un cycle de développement qui est décomposé en plusieurs parties, comprenant traditionnellement l'analyse, la conception et l'évaluation. Chacune s'accommode d'une technique de spécification appropriée. En amont, les modèles de tâches orientés utilisateur soutiennent la description de l'activité du futur utilisateur afin, notamment, d'en connaître les besoins. C'est ce modèle qui est l'objectif de la thèse. Une des lacunes, pour ces types de modèle, est qu'ils manquent de sémantique formelle pour prétendre augmenter leurs capacités génératrices et recouvrir plus largement ce cycle. Une étude de leur usage au travers des exemples de modélisations existants ainsi qu'une réflexion plus générale sur leur utilisation a abouti à structurer ces modèles. Il en ressort la proposition d'un découpage qui distingue une partie centrale et générique appelée " noyau " (N-MDA) pour la description de l'activité, d'une partie " modules " liées aux objectifs plus spécialisés. Le tout est appelé Projet MDA. Il est construit à partir des modèles : Diane+, GTA, CTT, MAD* pour supprimer les ambiguïtés. Le pouvoir d'expression du Projet MDA est construit à partir de notre classification, faite sur les 4 modèles, sur leur outillage et à partir des usages existants. Plusieurs modules sont aussi étudiés. L'un a trait à la description des objets utilisés par l'utilisateur, les autres proposent des langages pour exprimer les préconditions, les itérations et les postconditions des tâches à partir de ces objets. Pour répondre au manque de sémantique les informations, du projet MDA, ont été décrites par des schémas en EXPRESS afin de contrôler la cohérence des données. De plus, la dynamique du modèle, qui revêt un intérêt particulier dans l'élaboration des scénarii d'usage, est établie en tenant compte des opérateurs d'ordonnancement, de la nécessité de la tache, des interruptions (avec reprise ou avec abandon), des préconditions, des itérations, des postconditions, du choix de l'utilisateur et des événements. Un modèle ayant un intérêt particulier lorsqu'il est outillé, un environnement a été développé (K-MADe), il contient le noyau (N-MDA) et les modules (objets utilisateurs, conditions, etc. ) cités précédemment, c'est le Projet MDA en EXPRESS. De plus, K-MADe intègre des outils : éditeur du Projet MDA, Simulateur de l'activité, ainsi que des services (fonctions d'évaluations, comparaisons, etc. ). Grâce à l'utilisation d'EXPRESS les schémas et les données sont indépendantes de l'outil de description et de son langage. Ainsi, le Projet MDA peut être intégré dans des outils implémentant des techniques de spécifications qui recouvre une autre partie du cycle de vie. Ceci contribue indirectement à étendre la place des modèles de tâches orientés utilisateur dans le cycle de développement
The development process of an interactive application follows a cycle that is made of several parts. There is a stage of analysis, another focusing on design and a final stage of evaluation. Each stage is provided a suitable specification technique. In the analysis stage are specified the user needs through several possible user tasks models. Such models are the topic of this research. None of these models are based on a “formalized semantic” so that they cannot pretend to both augment they “generative capacity” and participate efficiently to such a user centred design. A careful examination of existing task models led to suggest a generic task models structure. The new model is built starting from Diane+, GTA, CTT and MAD* to remove ambiguites. In such a structure called “Projet MDA", a generic “kernel” (N-MDA) that concerns user activity description can be added diverse specialized “modules” on demand. The expressive power of our kernel is based on our classification of previous models, their tool and their use. Among the examination of several modules, one is related to user objects, others use languages that allow specifying tasks pre-conditions, iterations and post-conditions with such objects. In order to fill the lack of semantic in such previous models, kernel and modules data were described through EXPRESS language. This allows checking unambiguous structure of data in the model. The behaviour of the model, that is particularly important for scenarii composition, is built over several parameters. Those parameters are the “opérateur d'ordonnancement”, whether the task is mandatory or not, interrupts (with resume or skip), tasks pre-conditions, iterations, post-conditions, user choice and events. Beyond theoretical models, an implementation has been developed (K-MADe), that contains the kernel (N-MDA) and its previously described modules (Projet MDA in EXPRESS). This implementation can check user data inputs and simulate user activity. Thanks to EXPRESS use, NMDA project can be part of generic tools implementing specification techniques that cover a wider part of the lifecycle. This tool architecture allows user activity description so that data and their semantic can be used for other tools that complete the user development cycle. Whenever one limitation of this work is the lack of application feedback, its development is mandatory to additional extensive task models use studies, in particular concerning their generative capacity within interactive systems development
24

Sahbani, Anis. "Planification des tâches de manipulation en robotique par des approches probabilistes." Toulouse 3, 2003. http://www.theses.fr/2003TOU30008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Thomas, Marie-Claude. "Apport du génie logiciel et de la conception par objets à la programmation des tâches robotisées." Nice, 1989. http://www.theses.fr/1989NICE4342.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté constitue une contribution à la programmation des taches robotisées. Dans la première partie, une méthodologie générale est proposée pour la modélisation des connaissances relatives aux taches robotisées en vue de leur programmation. Les diverses sources de connaissances (taches robotisées, systèmes robotisés et systèmes de programmation associés) sont modélisés sous forme de hiérarchies de classes fonctionnelles, contenant leurs caractéristiques et traitements. La deuxième partie traite de l’évaluation des moyens informatiques pour la programmation de telles taches. Ces moyens offerts par le génie logiciel sont analysés plus particulièrement dans une perspective de conception par objets. Cette estimation s'appuie sur les caractéristiques dégagées et les qualités souhaitées du système de programmation. Le point de vue soutenu est qu'une conception par objets pourrait permettre d'unifier et d’intégrer les différents systèmes de programmation existants pour taches robotisées.
26

Piccin, Olivier. "Spécification et résolution de tâches de manipulation complexes. Application à la téléprogrammation de robots distants." Phd thesis, Université Paul Sabatier - Toulouse III, 1995. http://tel.archives-ouvertes.fr/tel-00144080.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans cette thèse s'inscrivent dans le contexte de la robotique de manipulation distante où les possibilités de communication entre l'opérateur et le site robotisé sont réduites. Pour accroître l'autonomie de fonctionnement du manipulateur distant, il faut pouvoir raisonner sur un modèle du robot et de son environnement de travail. En raison de la connaissance imprécise de ce dernier, il est indispensable de disposer de moyens d'identification des positions et de la taille des objets en interaction avec le robot. De plus, le caractère non répétitif et la complexité des tâches envisagées nécessitent l'emploi d'un système rapidement reconfigurable et susceptible de traiter des problèmes suffisamment généraux. Dans cette perspective, l'approche proposée de spécification de tâches par contraintes autorise une description des actions à effectuer en termes de mobilités et de contraintes de contact à établir ou maintenir entre certains corps. Les relations de contraintes résultantes sont alors traitées par un module de résolution basé sur un schéma numérique itératif de type Newton-Raphson. Un niveau important de robustesse a été atteint grâce à une gestion dynamique du conditionnement des équations qui permet un choix automatique du scénario de résolution. Les applications de l'approche incluent en premier lieu la génération de trajectoires complexes et continues pour des systèmes robotisés quelconques. La mise en place de contraintes peut aussi être exploitée pour accomplir, localement, des évitements d'obstacles. Enfin, cette démarche se prête également à la résolution de tâches de calibration des objets présents dans l'univers du robot. Cette caractéristique est essentielle dans le contexte de manipulation distante où les modèles sont mal connus a priori. Finalement, la présentation d'un scénario expérimental de suivi de joint de soudure, mis en œuvre sur un manipulateur réel, nous permet de formuler une proposition pour l'exécution de tâches robotisées sur sites distants
27

Granado, Ernesto. "Commande predictive a base de programmation semi definie." Phd thesis, INSA de Toulouse, 2004. http://tel.archives-ouvertes.fr/tel-00009241.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail sont presentees quelques approches pour la synthese de controleurs robustes avec information partielle sur l'etat (retour de sortie) dans le cas de systemes a temps discret. Dans le cadre de commande predictive, la synthese decoule de la minimisation a chaque instant d'echantillonnage, d'une borne superieure d'un cout quadratique evalue sur un horizon temporel infini. Le probleme d'optimisation qui inclut des contraintes sur l'etat et la commande est formule comme un probleme de programmation semi definie a base d'inegalites matricielles lineaires. Deux voies generales sont poursuivies: l'une basee sur le concept d'ellipsoide invariant et synthese de compensateur dynamique de retour de sortie, l'autre basee sur une formulation etendue permettant la resolution d'un probleme de retour d'etat equivalent a celui du retour de sortie.
28

Granado, Migliore Ernesto. "Commande prédictive à base de programmation semi définie." Toulouse, INSA, 2004. http://www.theses.fr/2004ISAT0006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail sont présentés quelques approches pour la synthèse de contrôleurs robustes avec information partielle sur l'état (retour de sortie) dans le cas de systèmes à temps discret. Dans le cadre de commande prédictive, la synthèse découle de la minimisation à chaque instant d'échantillonnage, d'une borne supérieure d'un coût quadratique évalué sur un horizon temporel infini. Le problème d'optimisation qui inclut des contraintes sur l'état et la commande est formulé comme un problème de programmation semi définie à base d'inégalités matricielles linéaires. Deux voies générales sont poursuivies: l'une basée sur le concept d'ellipsoi͏̈de invariant et synthèse de compensateur dynamique de retour de sortie, l'autre basée sur une formulation étendue permettant la résolution d'un problème de retour d'état équivalent à celui de retour de sortie initial
This work develops some approaches for the synthesis of partial information robust output feedback controllers in discrete time systems. In the framework of predictive control the synthesis follows the minimization, at each sampling time, of an upper bound for a quadratic cost associated with an infinite time horizon. The optimization problem which takes into account state and control constraints is described in terms of a semi definite programming one including linear matrix inequalities. Two general approaches are investigated: the first one is based on invariant ellipsoidal concept with dynamic output control, the second one makes use of an extended formulation where the initial output feedback control is translated in terms of extended state feedback control
29

Loi, Michel. "Outils pour la construction de graphes de tâches acycliques à gros grain." Lyon 1, 1996. http://www.theses.fr/1996LYO10260.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette these est de creer un lien entre les techniques d'ordonnancement basees sur les graphes de taches acycliques a gros grain, et celles utilisees en parallelisation automatique. Dans une premiere partie une etude des techniques existantes est proposee. La seconde partie presente differents algorithmes de generation de code et de comptage d'iteration. Une methode permettant de generer des bornes de boucles efficaces est proposee. La troisieme partie presente un modele de calcul parallele, le graphe de taches parametre, qui est une representation independante de la taille du probleme, de graphes de taches acycliques frequemment utilises. Differentes techniques qui permettent d'automatiser la construction du graphe de taches parametre : partir d'un programme sequentiel a controle de flot statique annote par l'utilisateur sont ensuite proposees. Nous montrons comment des informations necessaires a l'ordonnancement peuvent etre derivees. Une annexe presente pluspyr, un outil d'aide au developpement d'applications paralleles integrant les differentes techniques exposees dans cette these
30

Braschi, Bertrand. "Principes de base des algorithmes d'ordonnancement de liste et affectation de priorités aux tâches." Grenoble INPG, 1990. http://www.theses.fr/1990INPG0122.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les algorithmes d'ordonnancement sont abordes dans un environnement deterministe, pour minimiser la duree d'execution d'un ensemble de taches liees par des contraintes de precedence, sur un nombre fini de machines identiques, sans preemption ni duplication. Le comportement au pire des algorithmes qui utilisent une liste de taches est caracterise lorsque les delais de communications sont soit nuls soit egaux a l'unite de duree des taches. Nous presentons ensuite un point de vue sur les priorites des taches qui place les idees de coffman et graham dans la continuite de la notion de chemin critique. Cela permet d'etendre les resultats de coffman et graham. Nous completons l'etude de coffman et sethi sur le nombre de taches executees par une machine lorsque les taches sont independantes
31

Payan, Eric. "Etude d'une architecture cellulaire programmable : définition fonctionnelle et méthodologie de programmation." Phd thesis, Grenoble INPG, 1991. http://tel.archives-ouvertes.fr/tel-00339754.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour répondre à des besoins toujours croissants en puissance de calcul, on a vu se multiplier depuis quelques années les études concernant les architectures parallèles. Malgré la variété des solutions proposées il existe encore une classe d'applications difficiles a exécuter en parallèle. Nous proposons dans cette thèse une architecture massivement parallèle basée sur un réseau régulier de cellules, qui ont la particularité d'être totalement asynchrones et de pouvoir communiquer entre elles grâce a un mécanisme d'acheminement de messages. Chaque cellule comprend une partie de traitement composée d'un petit microprocesseur 8 bits et sa mémoire (donnée plus programme), et une partie routage permettant d'acheminer les messages. Notre second objectif consistait a imaginer puis développer une methode de programmation adaptée a la fois a notre nouvelle architecture et a la classe d'algorithmes visée. La solution étudiée consiste a placer un graphe data flow obtenu a partir du langage lustre sur notre réseau cellulaire. Un premier prototype de ce compilateur a été réalisé, il a permis d'étudier l'importance de paramètres comme la répartition de la charge de calcul entre les cellules ou l'enchainement de l'exécution de plusieurs nœuds du graphe places sur la même cellule
32

Prost, Jean-Philippe. "Modélisation de la gradience syntaxique par analyse relâchée à base de contraintes." Aix-Marseille 1, 2008. http://www.theses.fr/2008AIX11087.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Garcia, Pinto Vinicius. "Stratégies d'analyse de performance pour les applications basées sur tâches sur plates-formes hybrides." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM058/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les techniques de programmations pour le calcul de haute performanceont adopté les modèles basés sur parallélisme de tâche qui sontcapables de s’adapter plus facilement à des superordinateurs avec desarchitectures hybrides. La performance des applications basées surtâches dépende fortement des heuristiques d'ordonnancement dynamiqueset de sa capacité à exploiter les ressources de calcul et decommunication.Malheureusement, les stratégies d'analyse de performancetraditionnelles ne sont pas convenables pour comprendre les supportsd'exécution dynamiques et les applications basées sur tâches. Cesstratégies prévoient un comportement régulier avec des phases decalcul et de communication, par contre, des applications basées surtâches ne manifestent pas de phases précises. Par ailleurs, la granularitéplus fine des applications basées sur tâches typiquement provoque descomportements stochastiques qui donnent lieu aux structuresirrégulières qui sont difficiles à analyser.Dans cette thèse, nous proposons des stratégies d'analyse deperformance qui exploitent la combinaison de la structure del'application, d'ordonnancement et des informations de laplate-forme. Nous présentons comment nos stratégies peuvent aider àcomprendre des problèmes de performance dans des applications baséesur tâches qui exécutent dans des plates-formes hybrides. Nosstratégies d'analyse de performance sont construites avec des outilsmodernes pour l'analyse de données, ce que permettre la création despanneaux de visualisation personnalisés. Ces panneaux permettent lacompréhension et l'identification de problèmes de performancesoccasionnés par de mauvaises décisions d'ordonnancement etconfiguration incorrect du support d'exécution et de laplate-forme. Grâce à combinaison de simulation et débogage nouspouvons aussi construire une représentation visuelle de l'état interneet des estimations calculées par l'ordonnancer durant l'ordonnancementd'une nouvelle tâche.Nous validons notre proposition parmi de l'analyse de tracesd'exécutions d'une factorisation de Cholesky implémenté avec lesupport d'exécution StarPU et exécutée dans une plate-forme hybride(CPU/GPU). Nos études de cas montrent comment améliorer la partitiondes tâches entre le multi-(GPU, coeur) pour s'approcher des bornesinférieures théoriques, comment améliorer le pipeline des opérationsMPI entre le multi-(noeud, coeur, GPU) pour réduire le démarrage lentedans les noeuds distribués et comment optimiser le support d'exécutionpour augmenter la bande passante MPI. Avec l'emploi des stratégies desimulation et débogage, nous fournissons un workflow pourl'examiner, en détail, les décisions d'ordonnancement. Cela permet deproposer des changements pour améliorer les mécanismes d'ordonnancementet prefetch du support d'exécution
Programming paradigms in High-Performance Computing have been shiftingtoward task-based models that are capable of adapting readily toheterogeneous and scalable supercomputers. The performance oftask-based applications heavily depends on the runtime schedulingheuristics and on its ability to exploit computing and communicationresources.Unfortunately, the traditional performance analysis strategies areunfit to fully understand task-based runtime systems and applications:they expect a regular behavior with communication and computationphases, while task-based applications demonstrate no clearphases. Moreover, the finer granularity of task-based applicationstypically induces a stochastic behavior that leads to irregularstructures that are difficult to analyze.In this thesis, we propose performance analysis strategies thatexploit the combination of application structure, scheduler, andhardware information. We show how our strategies can help tounderstand performance issues of task-based applications running onhybrid platforms. Our performance analysis strategies are built on topof modern data analysis tools, enabling the creation of customvisualization panels that allow understanding and pinpointingperformance problems incurred by bad scheduling decisions andincorrect runtime system and platform configuration.By combining simulation and debugging we are also able to build a visualrepresentation of the internal state and the estimations computed bythe scheduler when scheduling a new task.We validate our proposal by analyzing traces from a Choleskydecomposition implemented with the StarPU task-based runtime systemand running on hybrid (CPU/GPU) platforms. Our case studies show howto enhance the task partitioning among the multi-(GPU, core) to getcloser to theoretical lower bounds, how to improve MPI pipelining inmulti-(node, core, GPU) to reduce the slow start in distributed nodesand how to upgrade the runtime system to increase MPI bandwidth. Byemploying simulation and debugging strategies, we also provide aworkflow to investigate, in depth, assumptions concerning the schedulerdecisions. This allows us to suggest changes to improve the runtimesystem scheduling and prefetch mechanisms
34

Garneau, Tony. "Langage de programmation pour les simulations géoréférencées à base d'agents." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27803/27803.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Lors des dix dernières années, les technologies basées sur les agents logiciels ont été appliquées dans plusieurs domaines tels que les jeux vidéo, les films où évoluent des personnages animés, en réalité virtuelle, dans le développement d’interfaces où sont fournis des agents « assistants », dans les applications Web éducatives utilisant des personnages virtuels, pour ne nommer que ceux-là. Dans plusieurs de ces domaines, les simulations à base d’agents nécessitent l’intégration de données géographiques. Celles-ci intègrent une dimension spatiale et permettent la simulation de divers phénomènes complexes tels que ceux qui sont liés aux dynamiques urbaines. Ce qui a mené à un nouveau domaine de recherche : les simulations géoréférencées à base d’agents (ou SGBA). Certaines plateformes logicielles développées pour les SGBA permettent à l’aide de différentes techniques, la spécification et l’implantation de simulations à base d’agents. Par contre, les comportements des agents qui peuvent y être spécifiés sont encore très limités, ce qui est insuffisant pour le développement de simulations géoréférencées de phénomènes sociaux. Dans ce type de simulations, les agents doivent agir de façon autonome et posséder des capacités d’appréhension de l’espace et de prise de décisions en rapport avec l’environnement géographique dans lequel ils évoluent. Pour posséder de telles caractéristiques, nous considérons que ces agents doivent au minimum posséder un mécanisme de perception autonome et individuel (de l’espace physique, des autres objets et agents), en plus d’être proactifs et posséder des comportements autonomes prenant en compte de leur connaissance du monde dans lequel ils évoluent (leur environnement virtuel). La spécification de ce type d’agents est une tâche très difficile et, à notre connaissance, aucun environnement de développement actuel n’offre de langage de programmation permettant de créer ce type d’agents. Dans le contexte du projet PLAMAGS (Programming LAnguage for MultiAgent GeoSimulations), nous avons développé un nouveau langage de programmation orienté-agent, une démarche de conception appliquée et un environnement de développement permettant la création et l’exécution rapide et simple de simulations géoréférencées à base d’agents. Les principales contributions du projet PLAMAGS sont : - Un langage de programmation descriptif, procédural et orienté-objet complet et utilisable à toutes les étapes du processus de développement et totalement dédié aux SGBA. Ce qui permet d’éliminer l’étape de transition et de transposition du modèle théorique en langage de programmation et ainsi éviter toutes les difficultés qui y sont rattachées. - Une démarche de conception appliquée où les étapes de modélisation, conception, implémentation, exécution et validation sont fusionnées et intégrées à chaque étape de la démarche. - Un modèle comportemental puissant (pour les agents), intuitif, modulaire, extensible et flexible permettant un développement itératif incrémental à l’aide d’abstractions prenant la forme de décompositions (sous-comportements). - Un modèle d’interactions spatialisées clairement défini et directement intégré dans les primitives du langage de programmation.
In the last decade, technologies based on software agents have been used in many domains such as video games, movies containing animated characters, virtual reality, in visual interfaces development where “wizards” are supplied and in educative Web applications using virtual characters, just to name a few. In many of these domains, agent-based simulations require the integration of geographic data. These add a spatial dimension and allow the simulation of many complex phenomena such as those included in urban dynamics. This has spawned a new research field: Multi-Agent- Geo-Simulation (MAGS for short). Some of the frameworks developed for MAGS use many different techniques to specify and implement tagent-based simulations. However, the agents’ behaviors that can be specified are usually very limited and are insufficient for the development of geo-referenced simulation of social phenomena. In this type of simulation, the agents must act autonomously and have the ability to perceive the environment in which they evolve, and then take decision based on these perceptions. To benefit from such characteristics, we consider that these agents must minimally have a perception mechanism that is autonomous and unique to each agent which need as well as to be proactive and have autonomous behavior in relation to their virtual environment. The specification of this type of agent is a difficult task and, to the best of our knowledge, none of the existing development environment offers a language able to fulfill it. In the context of the PLAMAGS (Programming LAnguage for Multi-Agent Geo-Simulations) Project, we developed a new agent-oriented programming language, an applied design methodology and an integrated development environment that allow a quick and simple design and execution cycle of agent-based geo-referenced simulations. The main contributions of this work are as follows: - A full-fledged descriptive programming language, procedural and object-oriented that is usable at every stage of the development cycle and that is dedicated to MAGS. This language eliminates the transition and transposition from the theoretical model to the programming language and thus avoids all the difficulties inherent to such a transposition task. - An applied development methodology where the modeling, design and implementation, execution and validation steps are merged and integrated throughout the development cycle. - A behavioral model that is powerful (agent wise), intuitive, modular, extensible and flexible and thus allows a sequential and iterative development using abstractions based on decomposition (sub-behaviors). - A spatialized interaction model that is clearly defined and directly integrated in the primitives of the programming language.
35

Monteil, Thierry. "Étude de nouvelles approches pour les communications, l'observation et le placement de tâches dans l'environnement de programmation parallèle LANDA." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT097H.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these a ete realisee dans le cadre du projet landa (local area network for distributed applications). Ce dernier utilise un reseau de stations de travail pour faire du parallelisme. Le travail presente dans cette these a pour objectif d'etudier plusieurs problemes lies a l'utilisation optimale des ressources dans ce type de systeme distribue. La premiere partie porte sur le probleme de la politique optimale de repartition des messages dans le noyau de communication de landa. Les messages inter-taches sont stockes dans des boites aux lettres distribuees. L'originalite est de pouvoir offrir de nombreuses possibilites pour le routage des messages: stockage sur la machine receptrice, emettrice ou sur une troisieme machine. La modelisation du routage par un processus de decision markovien montre que la politique optimale est dynamique. Elle depend du grain de l'application et de la charge des processeurs. Dans la deuxieme partie, le probleme de l'observation de l'etat des machines et du placement de taches des applications paralleles est etudie. Le systeme network-analyser a ete construit a cet effet. Les choix sur la structure du logiciel tolerant aux fautes sont expliques et argumentes. Une description des services offerts par le network-analyser est ensuite presentee. Cet outil bien qu'integre au systeme landa est completement autonome et peut etre utilise a d'autres fins (gestion d'un reseau, observation, etc). Le premier algorithme de placement est bati sur la prediction de la charge des machines et des temps d'execution des processus. Pour cela, le comportement d'une station de travail a ete modelise suivant un processus de markov. L'observation du comportement passe et actuel de la station est utilisee dans ce modele. L'originalite de la demarche proposee est de batir une equation differentielle de la charge moyenne permettant de representer le regime transitoire. Un deuxieme algorithme tenant compte de la puissance residuelle d'une machine, est aussi etudie. Un ensemble de simulations, basees sur des comportements reels de stations, permettent de valider ces deux algorithmes et de les comparer avec d'autres algorithmes de placement
36

Duchemin, Gilles. "Commande et programmation d'un robot d'assistance au geste médical pour des tâches de suivi au contact de tissus mous." Montpellier 2, 2002. http://www.theses.fr/2002MON20120.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Garlet, Milani Luís Felipe. "Autotuning assisté par apprentissage automatique de tâches OpenMP." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les architectures informatiques modernes sont très complexes, nécessitant un grand effort de programmation pour obtenir toute la performance que le matériel est capable de fournir. En effet, alors que les développeurs connaissent les optimisations potentielles, la seule façon possible de dire laquelle est le plus rapide pour une plate-forme est de le tester. En outre, les nombreuses différences entre deux plates-formes informatiques, dans le nombre de cœurs, les tailles de cache, l'interconnexion, les fréquences de processeur et de mémoire, etc, rendent très difficile la bonne exécution du même code sur plusieurs systèmes. Pour extraire le plus de performances, il est souvent nécessaire d'affiner le code pour chaque système. Par conséquent, les développeurs adoptent l'autotuning pour atteindre un certain degré de performance portable. De cette façon, les optimisations potentielles peuvent être spécifiées une seule fois et, après avoir testé chaque possibilité sur une plate-forme, obtenir une version haute performance du code pour cette plate-forme particulière. Toutefois, cette technique nécessite de régler chaque application pour chaque plate-forme quelle cible. Non seulement cela prend du temps, mais l'autotuning et l'exécution réelle de l'application diffèrent. Des différences dans les données peuvent déclencher un comportement différent, ou il peut y avoir différentes interactions entre les fils dans l'autotuning et l'exécution réelle. Cela peut conduire à des décisions sous-optimales si l'autotuner choisit une version qui est optimale pour la formation, mais pas pour l'exécution réelle de l'application. Nous proposons l'utilisation d'autotuning pour sélectionner les versions du code pertinentes pour une gamme de plates-formes et, lors de l'exécution de l'application, le système de temps d'exécution identifie la meilleure version à utiliser à l'aide de l'une des trois politiques que nous proposons: Mean, Upper Confidence Bound et Gradient Bandit. De cette façon, l'effort de formation est diminué et il permet l'utilisation du même ensemble de versions avec différentes plates-formes sans sacrifier les performances. Nous concluons que les politiques proposées peuvent identifier la version à utiliser sans subir de pertes de performance substantielles. De plus, lorsque l'utilisateur ne connaît pas suffisamment de détails de l'application pour configurer de manière optimale la politique d'exploration puis de validation utilisée par d'autres systèmes de temps d'exécution, la politique UCB plus adaptable peut être utilisée à sa place
Modern computer architectures are highly complex, requiring great programming effort to obtain all the performance the hardware is capable of delivering. Indeed, while developers know potential optimizations, the only feasible way to tell which of them is faster for some platform is to test it. Furthermore, the many differences between two computer platforms, in the number of cores, cache sizes, interconnect, processor and memory frequencies, etc, makes it very challenging to have the same code perform well over several systems. To extract the most performance, it is often necessary to fine-tune the code for each system. Consequently, developers adopt autotuning to achieve some degree of portable performance. This way, the potential optimizations can be specified once, and, after testing each possibility on a platform, obtain a high-performance version of the code for that particular platform. However, this technique requires tuning each application for each platform it targets. This is not only time consuming but the autotuning and the real execution of the application differ. Differences in the data may trigger different behaviour, or there may be different interactions between the threads in the autotuning and the actual execution. This can lead to suboptimal decisions if the autotuner chooses a version that is optimal for the training but not for the real execution of the application. We propose the use of autotuning for selecting versions of the code relevant for a range of platforms and, during the execution of the application, the runtime system identifies the best version to use using one of three policies we propose: Mean, Upper Confidence Bound, and Gradient Bandit. This way, training effort is decreased and it enables the use of the same set of versions with different platforms without sacrificing performance. We conclude that the proposed policies can identify the version to use without incurring substantial performance losses. Furthermore, when the user does not know enough details of the application to configure optimally the explore-then-commit policy usedy by other runtime systems, the more adaptable UCB policy can be used in its place
38

Simonin, Gilles. "Impact de la contrainte d'incompatibilité sur la complexité et l'approximation des problèmes d'ordonnancement en présence de tâches-couplées." Montpellier 2, 2009. http://www.theses.fr/2009MON20198.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis quelques années les véhicules sous-marins autonomes sont en plein essor, les torpilles sous-marines d'exploration en sont le parfait exemple. Cette torpille a pour objectif d'exécuter deux types de tâches : celles d'acquisition et celles de traitement. Les tâches d'acquisition sont semblables à des tâches-couplées, et les tâches de traitement sont des tâches classiques. La torpille utilise différents capteurs pour réaliser les acquisitions, certains capteurs ne peuvent pas être utilisés en même temps pour cause d'interférences. Nous introduisons donc un graphe de compatibilité permettant de représenter les tâches d'acquisition pouvant avoir leurs exécutions qui se chevauchent. La torpille possède un monoprocesseur embarqué permettant d'exécuter toutes la tâches. La première partie de nos travaux s'intéresse à la modélisation du problème, de la définition des différentes tâches utilisées et les contraintes qui leur sont appliquées. Nous mettons en avant la contrainte de compatibilité qui nous contraint à utiliser la théorie des graphes pour analyser nos problèmes. Enfin, nous finissons cette partie avec un état de l'art sur les différents résultats portant sur l'ordonnancement de tâches-couplées sur mono-processeur, et sur des problèmes de recouvrement de sommets dans des graphes. Dans une seconde partie, nous donnons la classification des problèmes possibles en faisant varier les paramètres des tâches-couplées. Nous donnons des preuves de complexité pour certains problèmes se trouvant à la limite entre la polynomialité et la NP-complétude selon les contraintes sur les paramètres. Pour chacun de ces problèmes, qui sont NP-complets, nous proposons des algorithmes d'approximation en temps polynomial et analysons les bornes obtenues selon les paramètres ou les topologies du graphe de compatibilité. L'ensemble des résultats est décomposé en trois chapitres prenant chacun en compte l'introduction d'une contrainte (d'incompatibilité et/ou de précédence). Tout au long de cette partie nous cherchons à montrer l'impact de l'introduction de la contrainte d'incompatibilité sur la complexité des problèmes d'ordonnancement avec tâches-couplées, à travers les preuves de NP-complétude et les techniques employées pour résoudre ou approximer un problème
The last couple of years have seen the advent of sub-marine machines like the sub-marine torpedo. This torpedo must execute two kind of tasks : acquisition tasks and treatment tasks. The acquisition tasks are equivalent to coupled-tasks, and treatment tasks are equivalent to classical tasks with preemption constraints. The torpedo possess different captors in order to realize the acquisitions, few captors cannot be use in same time because of the interferences. In this way, we introduce a compatibility graph in order to represent the acquisition tasks which can be executed in the same time. The torpedo possess a mono-processor used to execute the different tasks. In the first part, we introduce the model of the problem, and define the different tasks and their constraints. We discuss on the impact of the compatibility constraint on the general problem. Finally, we finish this part with a related works on general scheduling theory, on coupled-tasks, and on the different cover problems in the graph theory. In a second part, we give the classification of the different problems according to the parameters of the coupled-tasks. We give several proves of complexity for specific problem which are at the limit between polynomiality and completeness. For each studied problem, we propose either a optimal solution with an algorithm in polynomial time, or an approximation algorithm with guarantee of performance. For few problems, we study the complexity in details according to specific parameters or different topologies for the compatibility graph. All the long of this part, we try to show the impact of the introduction of the compatibility constraint on the scheduling problem with coupled-tasks
39

Abbas, Issam. "Optimisation d'un langage fonctionnel de requêtes pour une base de données orienté-objet." Aix-Marseille 1, 1999. http://www.theses.fr/1999AIX11003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les techniques d'optimisation des requetes sont etroitement liees aux modeles et langages de requetes en question. Dans le cas de systemes relationnels par exemple, les techniques qui ont ete developpees s'appuient principalement sur le modele relationnel et l'algebre qui l'accompagne. Les limitations du modele relationnel, notamment pour modeliser des applications complexes, et le developpement du paradigme objet ont favorise l'emergence des systemes de bases de donnees oriente-objet (sgbdoo). A l'inverse du modele relationnel, il existe plusieurs modeles objets bien que l'on assiste aujourd'hui a une convergence vers le modele odmg. Cette multitude de modeles et leur complixite intrinseque, et l'absence d'une algebre objet unique, font que l'optimisation des langages declaratifs de requetes pour sgbdoo demeure une tache complique. Le travail que nous decrivons dans cette these concerne l'optimisation des langages de requetes pour sgbdoo. Nous nous sommes interesses a la definition d'une algebre qui sert de base a l'optimisation logique des langages fonctionnels de requetes. Nous voulons aussi fournir un langage algebrique intermediaire qui sert a la compilation et a l'optimisation d'un langage de requetes comme oql.
40

Lefebvre, Jean-Marc. "Contribution à la spécification et à l'implantation de tâches robotiques complexes." Phd thesis, Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00335739.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous abordons trois aspects de la commande des robots: 1) la gestion de mouvements complexes de bras manipulateurs; 2) la prise en compte active de données de capteurs dans la gestion des déplacements; 3) la gestion d'un ensemble multi-capteurs et multi-effecteurs. Nous pressentons un générateur de trajectoires qui transforme une représentation externe compréhensible par un opérateur en une représentation interne utilisable par un algorithme d'asservissement. Nous utilisons le concept de commande gardée pour décrire des modifications de mouvements en fonction de données de capteurs. La garde (surveillance de capteurs) et la commande (modification de mouvement) sont deux processus s'exécutant en parallèle. La methode que nous développons reprend les principes proposes par Hoare concernant les processus séquentiels communicants. Nous montrons que la commande d'un ensemble multi-effecteurs et multi-capteurs peut être spécifiée a l'aide de processus séquentiels communicants. Nous proposons un ensemble de primitives permettant la prise en compte des commandes gardées et du parallélisme pour le contrôle des robots. Nous proposons également une implantation expérimentale d'un interpréteur de ces primitive
41

Bouvry, Pascal. "Placement de tâches sur ordinateurs parallèles à mémoire distribuée." Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00005081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La demande croissante de puissance de calcul est telle que des ordinateurs de plus en plus performants sont fabriqués. Afin que ces machines puissent être facilement exploitées, les lacunes actuelles en terme d'environnements de programmation doivent être comblées. Le but à atteindre est de trouver un compromis entre recherche de performances et portabilité. Cette thèse s'intéresse plus particulièrement au placement statique de graphes de taches sur architectures parallèles a mémoire distribuée. Ce travail s'inscrit dans le cadre du projet INRIA-IMAG APACHE et du projet européen SEPP-COPERNICUS (Software Engineering for Parallel Processing). Le graphe de taches sans précédence est le modèle de représentation de programmes parallèles utilise dans cette thèse. Un tour d'horizon des solutions apportées dans la littérature au problème de l'ordonnancement et du placement est fourni. La possibilité d'utilisation des algorithmes de placement sur des graphes de précédence, après une phase de regroupement, est soulignée. Une solution originale est proposée, cette solution est interfacée avec un environnement de programmation complet. Trois types d'algorithmes (gloutons, iteratifs et exacts) ont été conçus et implémentes. Parmi ceux-ci, on retrouve plus particulièrement un recuit simule et une recherche tabu. Ces algorithmes optimisent différentes fonctions objectives (des plus simples et universelles aux plus complexes et ciblées). Les différents paramètres caractérisant le graphe de taches peuvent être affinés suite à un relevé de traces. Des outils de prise de traces permettent de valider les différentes fonctions de cout et les différents algorithmes d'optimisation. Un jeu de tests est défini et utilise. Les tests sont effectué sur le Mégapode (machine a 128 transputers), en utilisant comme routeur VCR de l'université de Southampton, les outils de génération de graphes synthétiques ANDES du projet ALPES (développé par l'équipe d'évaluation de performances du LGI-IMAG) et l'algorithme de regroupement DSC (Dominant Sequence Clustering) de PYRROS (développé par Tao Yang et Apostolos Gerasoulis). Mapping task graphs on distributed memory parallel computers
The growing needs in computing performance imply more complex computer architectures. The lack of good programming environments for these machines must be filled. The goal to be reached is to find a compromise solution between portability and performance. The subject of this thesis is studying the problem of static allocation of task graphs onto distributed memory parallel computers. This work takes part of the project INRIA-IMAG APACHE and of the european one SEPP-COPERNICUS (Software Engineering for Parallel Processing). The undirected task graph is the chosen programming model. A survey of the existing solutions for scheduling and for mapping problems is given. The possibility of using directed task graphs after a clustering phase is underlined. An original solution is designed and implemented ; this solution is implemented within a working programming environment. Three kinds of mapping algorithms are used: greedy, iterative and exact ones. Most developments have been done for tabu search and simulated annealing. These algorithms improve various objective functions (from most simple and portable to the most complex and architecturaly dependant). The weigths of the task graphs can be tuned using a post-mortem analysis of traces. The use of tracing tools leads to a validation of the cost function and of the mapping algorithms. A benchmark protocol is defined and used. The tests are runned on the Meganode (a 128 transputer machine) using VCR from the university of Southampton as a router, synthetic task graphs generation with ANDES of the ALPES project (developped by the performance evaluation team of the LGI-IMAG) and the Dominant Sequence Clustering of PYRROS (developped by Tao Yang and Apostolos Gerasoulis)
42

Hannachi, Marwa. "Placement des tâches matérielles de tailles variables sur des architectures reconfigurables dynamiquement et partiellement." Electronic Thesis or Diss., Université de Lorraine, 2017. http://www.theses.fr/2017LORR0297.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes adaptatifs basés sur les architectures FPGA (Field-Programmable Gate Arrays) peuvent bénéficier grandement de la grande flexibilité offerte par la reconfiguration partielle dynamique (DPR). Grâce au DPR, les tâches matérielles composant un système adaptatif peuvent être allouées et re-allouées à la demande ou en fonction de l'environnement dynamique. Les flots de conceptions disponibles et les outils commerciaux ont évolué pour répondre aux exigences des architectures reconfigurables qui sont toutefois limitées dans leurs fonctionnalités. Ces outils ne permettent pas un placement et une relocation efficaces de tâches matérielles de tailles variables. L'objectif principal de ces travaux de thèse consiste à proposer des nouvelles méthodologies et de nouvelles approches pour faciliter au concepteur la phase de conception d'un système adaptatif reconfigurable opérationnelle, valide, optimisé et adapté aux changements dynamiques de l'environnement. La première contribution de cette thèse porte sur la problématique de la relocation des tâches matérielles de tailles différentes. Une méthodologie de conception est proposée pour répondre à un problème majeur des mécanismes de relogement : le stockage d'une unique bitstream de configuration pour réduire les besoins de la mémoire et pour accroître la réutilisable des modules matériels générés. Une technique de partitionnement de la région reconfigurable est appliquée dans la méthodologie de relogement proposée pour augmenter l'efficacité d'utilisation des ressources matérielles dans le cas des tâches reconfigurables de tailles variables. Cette méthodologie prend en compte aussi la communication entre différentes régions reconfigurables et la région statique. Pour valider la méthode, plusieurs études de cas sont implémentées. Cette validation montre une utilisation efficace des ressources matérielles ainsi une réduction importante du temps de reconfiguration. La deuxième partie de cette thèse présente et détaille une formulation mathématique afin d'automatiser le floorplanning des zones reconfigurables dans les FPGAs. Les algorithmes de recherche présentés dans cette thèse sont basés sur la technique d'optimisation PLMNE (programmation linéaire mixte en nombres entiers). Ces algorithmes permettent de définir automatiquement l'emplacement, la taille et la forme de la zone reconfigurable dynamique. Nous nous intéressons principalement dans cette recherche à la satisfaction des contraintes de placement des zones reconfigurables et celles liées à la relocation. De plus, nous considérons l’optimisation des ressources matérielles dans le FPGA en tenant compte des tâches de tailles variables. Finalement, une évaluation de l'approche proposée est présentée
Adaptive systems based on Field-Programmable Gate Arrays (FPGA) architectures can benefit greatly from the high degree of flexibility offered by dynamic partial reconfiguration (DPR). Thanks to DPR, hardware tasks composing an adaptive system can be allocated and relocated on demand or depending on the dynamically changing environment. Existing design flows and commercial tools have evolved to meet the requirements of reconfigurables architectures, but that are limited in functionality. These tools do not allow an efficient placement and relocation of variable-sized hardware tasks. The main objective of this thesis is to propose a new methodology and a new approaches to facilitate to the designers the design phase of an adaptive and reconfigurable system and to make it operational, valid, optimized and adapted to dynamic changes in the environment. The first contribution of this thesis deals with the issues of relocation of variable-sized hardware tasks. A design methodology is proposed to address a major problem of relocation mechanisms: storing a single configuration bitstream to reduce memory requirements and increasing the reusability of generating hardware modules. A reconfigurable region partitioning technique is applied in this proposed relocation methodology to increase the efficiency of use of hardware resources in the case of reconfigurable tasks of variable sizes. This methodology also takes into account communication between different reconfigurable regions and the static region. To validate the design method, several cases studies are implemented. This validation shows an efficient use of hardware resources and a significant reduction in reconfiguration time. The second part of this thesis presents and details a mathematical formulations in order to automate the floorplanning of the reconfigurable regions in the FPGAs. The algorithms presented in this thesis are based on the optimization technique MILP (mixed integer linear programming). These algorithms allow to define automatically the location, the size and the shape of the dynamic reconfigurable region. We are mainly interested in this research to satisfy the constraints of placement of the reconfigurable zones and those related to the relocation. In addition, we consider the optimization of the hardware resources in the FPGA taking into account the tasks of variable sizes. Finally, an evaluation of the proposed approach is presented
43

Pessan, Cedric. "Optimisation de changements de séries par ordonnancement des tâches de réglage." Thesis, Tours, 2008. http://www.theses.fr/2008TOUR4026/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans cette thèse visent à proposer des méthodes d’optimisation des changements de série sur des lignes de production afin d’améliorer la flexibilité de la production. Nous modélisons ce problème sous forme de problème à machines parallèles non reliées : les tâches sont les réglages des machines d’une ligne et les ressources sont des opérateurs. Nous prenons en compte notamment, la structure de la ligne de production qui comporte des machines en plusieurs exemplaires, les compétences des opérateurs et leurs disponibilités. Les méthodes utilisées sont une procédure par séparation et évaluation dans le cas où la ligne est composée de machines en série et des heuristiques de type descente locale et algorithme génétique dans le cas général. Nous proposons des bornes permettant d’évaluer les performances des méthodes. Pour le cas série, nous proposons également une méthode hybride faisant collaborer une procédure par séparation et évaluation et un algorithme génétique
The work presented in this thesis aims at proposing new methods for setup optimization in production lines in order to improve production flexibility. This problem is modelized using an unrelated parallel machines problem : the tasks are the setup tasks of each machine of the production line and the ressources are the operators. We take into consideration the production line structure that may contain multiple machines on some stages and the skills of operators. The skill model has been validated using a simulation approach. We have used a Branch-and-Bound to solve the special case of serial production line and hill climbing and genetic algorithm meta heuristics for the general case. In both cases, we propose bounds that are used to evaluate the performances of the different methods. For the serial special case, we also propose a hybrid algorithm that use both a genetic algorithm and a Branch-and-Bound that are colaborating together
44

Sassine, Renée. "Sytème fondé sur la connaissance pour la modélisation du niveau objectif dans la programmation de tâches de préhension de robots." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail realise a pour but, dans le cadre d'une application robotique, de resoudre le probleme de la determination de prises applicables a un objet pour une tache donnee. Les choix qui ont ete fait au niveau du modele robotique ont ete conditionnes par le projet prographix. La modelisation des connaissances du domaine s'appuie sur les principes de la methode kod de vogel ainsi que sur les principes de gallouin. D'autre part, au vue de la connaissance fortement hierarchisee une representation centree objet a ete adoptee. A la suite de cela, nous avons elabore un systeme blackboard permettant de resoudre le probleme pose. L'etude cognitive a permis de degager des invariants qui ont conduit a construction d'un systeme essentiel dont les caracteristiques principales sont: (i) le probleme pose et les problemes auxiliaires et terminaux necessaires a sa resolution sont organises selon un arbre ; chaque nud de l'arbre est etiquete par un probleme, la racine est le probleme pose et les feuilles representent les problemes terminaux ; (ii) les modalites de parcours de l'arbre determinent l'ordre de resolution des problemes ; (iii) a chaque nud de l'arbre est associee une source de connaissances qui represente l'expertise locale propre a la resolution du probleme etiquetant ce nud ; (iv) un blackboard renferme la description et l'organisation des concepts modelisant l'univers de connaissances etudie (expertise globale partagee par tous les problemes) ; (v) un moteur d'inferences permet de resoudre chaque probleme en utilisant conjointement la connaissance locale et globale ; (vi) le superviseur gere une structure de controle assurant le bon deroulement de la demonstration du probleme pose et (vii) une interface conviviale permet a tout expert de construire et d'exploiter le systeme dedie. Ce systeme essentiel est adequat a toute famille de problemes caracterisee par les invariants que nous venons de citer
45

Gamboa, Dos Santos Carlos. "Apport de l'approche gestion de réseaux pour le placement de tâches dans le modèle de programmation par échange de messages." Nancy 1, 1998. http://www.theses.fr/1998NAN10244.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’exécution d'applications parallèles sur des réseaux de stations de travail non dédiées a un problème de performances, à cause des bibliothèques de communication et des réseaux. Pour y remédier, nous avons développé un environnement effectuant principalement le placement des tâches d'applications message passing sur des machines et réseaux hétérogènes tenant compte des communications. L’environnement comporte quatre composantes distincts : la première génére à partir d'une spécification des messages d'une application parallèle une bibliothèque de communication spécifique optimisant les couts des échanges de données. La deuxième composante a pour but d'extraire des traces d'exécution des taches les informations décrivant les précédentes exécutions et principalement le volume de données échangées. Le troisième outil est un gestionnaire de réseaux simplifié spécifique à notre environnement. Son but est de déterminer la topologie physique et de récolter l'état des équipements en se basant sur les concepts du domaine de la gestion SNMP. La dernière composante, PLATO, implante un algorithme de placement dynamique tenant compte à la fois de la topologie physique des réseaux de stations, des volumes échangés entre tâches et de l'état des machines et liens d'interconnexion. Les résultats de tests montrent que la prise en compte des aspects communications (topologie et volumes échangés) améliore le placement de tâches.
46

Taghbalout, Meryem. "Programmation et commande d’un robot à deux bras pour la manipulation et l’assemblage de pièces flexibles par des tâches collaboratives." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0165.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour objectif principal de développer une loi de commande pour contrôler un robot à deux bras afin de remplir les tâches de manipulation et de garantir les aspects de sécurité pour l'homme et le robot. Pour y parvenir, nous avons présenté un aperçu des études qui ont été menées dans ce cadre. Ensuite, nous avons procédé à la modélisation cinématique géométrique et dynamique du robot. Nous avons utilisé le logiciel SYMORO+ pour calculer son modèle dynamique. Au terme d'une présentation détaillée de la méthode d'identification des paramètres des robots manipulateurs, nous avons appliqué celle-ci de manière concrète sur notre propre robot. Ceci nous a permis d'obtenir un vecteur de paramètres capable de garantir une matrice d'inertie définie positive pour toute configuration d'articulation du robot, tout en assurant une bonne qualité de reconstruction du couple pour des vitesses articulaires à la fois constantes et variables. Grâce à cette identification dynamique, nous avons pu réaliser un simulateur précis du robot sur Matlab/Simulink. Les forces externes du robot ont été estimées à partir du module dynamique identifié et une validation expérimentale a été décrite. Pour faire appliquer des lois de commande sur un robot industriel, il a été nécessaire de réfléchir à une communication externe sur le robot. L'approche adoptée a été présentée ainsi que sa réalisation sur le robot. Cette dernière, nous a permis de programmer en python toutes nos problématiques à mettre en œuvre sur le robot. Après avoir validé toutes les étapes préalablement citées nous sommes partis vers l'implémentation de la commande sur le robot. La tâche principale que nous avons adoptée est le dénudage des câbles. A cet effet, nous avons choisi de réaliser une commande hybride force/position dans laquelle les forces externes sont contrôlées afin de garantir l'absence de dommages sur les câbles à dénuder. Le robot qui a servi à réaliser toutes les expériences est le robot IRB14000 YuMi de Abb. Toutes les expériences réalisées dans le cadre de ce projet ont été décrites et présentées. Ce travail de thèse a été réalisé dans le cadre du projet Robotix Academy financé par le fonds européen de développement régional INTERREG V-A Grande Région
The main objective of this thesis is to develop a control law to control a two arm robot in order to achieve the manipulation tasks and to ensure the safety aspects for the human and the robot. To accomplish this, we presented an overview of the studies that have been conducted in this context. Thereafter, we proceeded to the kinematic and dynamic robot modeling. In order to calculate its dynamic model, we used the SYMORO+ software. After giving a detailed presentation of the method for identifying the parameters of manipulator robots, we applied it in a concrete way on our own robot. This allowed us to obtain a vector of parameters able to ensure a positive defined inertia matrix for any robot joint configuration, as well as a good quality of torque reconstruction for both constant and variable joint speeds. Thanks to this dynamic identification, we were able to realize an accurate simulator of the robot on Matlab/Simulink. The external forces of the robot have been estimated from the identified dynamic modulus and an experimental validation has been described. To apply control laws on an industrial robot, it was necessary to think about an external communication on the robot. The adopted approach was presented as well as its realization on the robot. The latter allowed us to program in python all our problems to be implemented on the robot. After having validated all the steps previously mentioned we moved on to the implementation of the control on the robot. The main task we adopted is the stripping of the cables. For this purpose, we chose to implement a hybrid force/position control in which the external forces are controlled in order to guarantee the absence of damage on the cables to be stripped. The robot used to perform all the experiments is the IRB14000 YuMi robot from Abb. All the experiments performed in this project have been described and presented. This thesis work was carried out within the framework of the Robotix Academy project financed by the European regional development fund INTERREG V-A Grande Région
47

Morat, Philippe. "Une étude sur la base de la programmation algorithmique notation et environnement de travail /." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00308504.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Mahout, Vincent. "Récurrences et fonctionnements complexes en robotique dans le contexte de tâches répétitives. Application à une structure SCARA." Toulouse, INSA, 1994. http://www.theses.fr/1994ISAT0037.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un robot manipulateur est, dans certaines applications, appele a executer des taches repetitives periodiques dans le temps. En considerant cette classe particuliere de mouvement, une methode originale de modelisation de trajectoire repetitive a ete proposee utilisant les fonctions recurrentes et le formalisme des matrices homogenes. Cette methode repose sur l'utilisation de la position reelle du robot (issue des informations fournies par les capteurs proprioceptifs de la structure mecanique articulee) pour calculer la nouvelle consigne a appliquer au systeme. Deux approches se distinguent. La premiere (appelee recurrence directe) utilise les caracteristiques geometriques de la tache pour modeliser des trajectoires definies dans un plan de l'espace cartesien ou de l'espace des variables articulaires. La seconde (appelee recurrence spline) utilise les fonctions polynomiales d'ordre 3 pour modeliser des taches quelconques definies dans l'espace cartesien ou dans l'espace des variables articulaires. Une seconde partie concerne la mise en evidence de fonctionnements complexes (sous-harmoniques, sur-harmoniques, harmoniques fractionnaires et chaos) en considerant un robot scara comme un systeme dynamique non lineaire. Le robot est excite periodiquement par des consignes exterieures correspondant a des taches repetitives. La structure mecanique articulee est etudiee a la fois en boucle ouverte (les consignes exterieures periodiques sont alors des grandeurs de commande envoyees aux actionneurs) et en boucle fermee (les consignes sont dans ce cas des positions/vitesses a atteindre envoyees a une loi de commande de type proportionnelle-derivee). Les techniques utilisees pour la detection et l'analyse des fonctionnements complexes sont les sections de poincare, le balayage d'un plan parametrique et le calcul des courbes de bifurcation. La troisieme partie utilise les fonctions recurrentes (notamment les recurrences splines) pour supprimer les comportements complexes observes precedemment. Les differents resultats proposes mettent en evidence que les recurrences apportent un effet stabilisant sur le systeme etudie (robot et loi de commande) et ameliorent la precision en suivi de trajectoire
49

Ploquin, Catherine. "LAB langage d'analyse associé à une base de données." Bordeaux 1, 1985. http://www.theses.fr/1985BOR10534.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le lab est un langage d'analyse faisant partie d'un atelier de genie logiciel. L'outil associe possede deux fonctions principales: stockage d'informations relatives au logiciel dans une base de donnees, et passage automatique du langage d'analyse a differents langages de programmation. Ce travail presente certaines recherches et realisations recentes en genie logiciel:. Gestion du logiciel et des differentes versions (sccs et make sous unix). Modularite (notion de package dans le langage ada). Conception descendante par raffinements successifs (langage pdl integre dans l'atelier vulcain). Passage automatique d'un langage d'analyse a un langage de programmation (atelier softpen). Il montre ensuite comment l'outil developpe integre ces differents concepts permettant de realiser de bons logiciels tout en reduisant les couts de developpement
50

Hammoudi, Slimane. "Hyper-agenda : un système d'aide à la réalisation de tâches : Conceptualisation, spécification et représentation." Montpellier 2, 1993. http://www.theses.fr/1993MON20128.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail presente dans ce memoire s'integre dans le cadre du projet hyper-agenda dont l'objectif general est de realiser un systeme d'aide a l'organisation et l'accomplissement de taches dans un environnement de travail. Le concept cle sur lequel repose notre etude est celui de tache qui permet de modeliser l'activite d'un employe dans une organisation. Autour de ce concept, notre travail se compose des trois etapes suivantes: 1) la conceptualisation du systeme hyper-agenda; 2) sa specification; 3) et sa representation. La premiere etape de conceptualisation nous a permis de degager un mimimum de concepts et de fonctionnalites de facon a pouvoir batir des outils d'aides assez generaux applicables dans diverses organisations. Les deux outils agenda et interpretation ont ete definis. Dans la seconde etape de notre travail, un langage de specification a ete defini, afin de preciser les proprietes de chaque concept, ainsi que les fonctionnalites du systeme hyper-agenda. Ce langage s'inscrit dans la tradition des types abstraits algebriques, avec une orientation fonctionnelle s'inspirant des travaux de cardelli. La troisieme partie de notre travail, est une representation du systeme hyper-agenda, etape prealable a une implementation. Le langage de representation des connaissances shirka permettant de realiser une implementation specifique est alors propose pour la representation des concepts et fonctionnalites d'hyper-agenda

To the bibliography