To see the other types of publications on this topic, follow the link: Processus heuristiques.

Dissertations / Theses on the topic 'Processus heuristiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 39 dissertations / theses for your research on the topic 'Processus heuristiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Baczkowski, Mylène. "Amélioration du processus de déploiement d'une solution PLM par l'utilisation de cartes heuristiques et de persona : cas LASCOM." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14714/document.

Full text
Abstract:
Cette thèse se place dans une dynamique de recherche d’amélioration des processus d’implémentation et de déploiement de solutions logicielles de type PLM dans les entreprises. Nous proposons une démarche complète de déploiement, centrée sur les acteurs de l’entreprise, qui s’appuie sur l’utilisation de deux outils jusque là peu usités pour répondre à ce type de problématique : les cartes heuristiques et les personas. Nous proposons d’utiliser la carte heuristique (ou map) comme support du projet et moteur de la réflexion et de la communication dans le cadre d’un projet. La map offre une nouvelle dimension à la définition de l’application et à la communication avec le client : une structure et une organisation dynamiques et « immédiates ». Elle permet de mettre en évidence l’organisation et les processus du client. Nous affinons notre proposition en travaillant aussi sur l’accompagnement et l’implication du client en plaçant les futurs utilisateurs au centre de nos préoccupations. Nous proposons une démarche complémentaire à la carte heuristique pour faire émerger des spécifications directement par le client : les personas. La carte heuristique permet d’obtenir un support unique pour suivre le cycle de vie du logiciel et sa construction repose sur l’approche descendante, tandis que persona, centré sur les utilisateurs et leur environnement, se base sur une approche ascendante. Nous obtenons ainsi une double exploration du système, ce qui offre une nouvelle dimension à la modélisation d’entreprises en vue de l’implantation d’une solution logicielle. Cette proposition améliore la pertinence et la qualité de l’analyse et de l’application
This thesis concerns research on PLM tools. We especially focus here on improvement of the deployment process of PLM tools in enterprises. We develop a methodology to help PLM software developers to design and deploy a PLM solution among their customers. Our proposition, centered on final users of PLM solution, is build around two unusual tools for enterprise modeling: mind map and persona. Mind map is used as a communication element between developer and customer during the entire project. Mind map is a common support to exchange data and encourage reflection. It offers a new dynamic and a new dimension in the definition of the PLM solution for customer and developer since it makes easier description of customer’s organization and process. We enrich our proposition with persona. Persona completes mind map and permits an easier identification of users’ needs. Such a tool allows us to be more efficient on accompaniment and implication of customer and users. Mind map is a unique support for software developer and customer to follow life cycle of the software. It is based on a top-down approach. Persona is centered on users in the company and on their environment. It is a bottom-up approach. Association of these tools allows us obtaining a double exploration of the system that provides a new dimension in enterprise modeling with a view to software deployment. This proposition increase pertinence and quality of the users’ needs analysis and of customer organization modeling. As a consequence it also improves design and deployment of the PLM solution which is closed to the users’ needs and well adapted to the company’s organization and processes
APA, Harvard, Vancouver, ISO, and other styles
2

Champagne, Pierre. "Le processus décisionnel des directeurs de comptes de PME dans le domaine du financement bancaire : analyse des heuristiques et des biais cognitifs." Thèse, Université du Québec à Trois-Rivières, 1996. http://depot-e.uqtr.ca/4985/1/000672170.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Teichteil, Florent. "Approche symbolique et heuristique de la planification en environnement incertain : optimisation d'une stratégie de déplacement et de prise d'information." Toulouse, ENSAE, 2005. http://www.theses.fr/2005ESAE0028.

Full text
Abstract:
Cette thèse porte sur la planification en environnement incertain, dont un modèle classique sont les Processus Décisionnels de Markov (MDP). Nous utilisons des modèles structurés de MDP, basés sur les Diagrammes de Décision Algébriques (ADD), qui permettent de modéliser symboliquement le système décisionnel sous une forme factorisée par variables d’état. Dans une première contribution, nous proposons de réduire le nombre de variables d’état en énumérant localement le MDP symbolique, puis en appliquant des techniques de décomposition de graphes sur le sous-MDP énuméré. Le nombre de variables diminuant, l'espace d’états et les ADD sont plus petits, ce qui facilite l'optimisation du MDP. D’autre part, le problème peut être difficile à modéliser lorsque le nombre de valeurs (arité) des variables d’état est important, car les arbres de décision du modèle deviennent très grands. Ainsi, notre deuxième contribution consiste à modéliser le problème sous forme de Réseau Bayésien Dynamique Générique et Hiérarchique, où certaines variables sont des abstractions de variables de grande arité. Notre modèle générique est paramétré puis automatiquement instancié par des macro-actions définies sur le sous-espace engendré par les variables de grande arité. Nous montrons l'efficacité de notre approche hiérarchique et symbolique sur des problèmes de déplacement et de prise d'information, dont la variable de navigation a une arité généralement très grande. Les macro-actions sont des macro-déplacements locaux, définis dans des régions distinctes du sous-espace de navigation. Enfin, dans une troisième contribution, nous proposons une classe d'algoritlnnes symboliques et heuristiques, qui permettent d'optimiser partiellement un MDP sur un sous-espace d’états atteignables, connaissant des états initiaux possibles du processus. Nous présentons une heuristique de plus sûr chemin stochastique, qui cible la recherche des stratégies optimales sur les buts du problème. Le MDP est ensuite optimisé en alternant une phase d’expansion du sous-espace atteignable, et une phase de programmation dynamique stochastique sur le sous-espace atteignable courant. Nous proposons également une version en ligne de notre algorithme, qui optimise MDP sur une liste de sous-buts qui augmente incrémentalement durant la mission. Nous montrons l'efficacité de notre algorithme sur des problèmes de déplacement et de prise d'information de grande taille.
APA, Harvard, Vancouver, ISO, and other styles
4

Corona, Gabriel. "Utilisation de croyances heuristiques pour la planification multi-agent dans le cadre des Dec-POMDP." Electronic Thesis or Diss., Nancy 1, 2011. http://www.theses.fr/2011NAN10026.

Full text
Abstract:
Nous nous intéressons dans cette thèse à la planification pour les problèmes de prise de décision décentralisée séquentielle dans l'incertain. Dans le cadre centralisé, l'utilisation des formalismes MDP et POMDP a permis d'élaborer des techniques de planification efficaces. Le cadre Dec-POMDP permet de formaliser les problèmes décentralisés. Ce type de problèmes appartient à une autre classe de complexité que les problèmes centralisés. Pour cette raison, jusqu'à récemment, seuls de très petits problèmes pouvaient être résolus et uniquement pour des horizons très faibles. Des algorithmes heuristiques ont récemment été proposés pour traiter des problèmes de taille plus conséquente mais n'ont pas de preuve théorique de qualité de solution. Nous montrons comment une information heuristique sur le problème à résoudre représentée par une distribution de probabilité sur les croyances centralisées permet de guider la recherche approchée de politique. Cette information heuristique permet de formuler chaque étape de la planification comme un problème d'optimisation combinatoire. Cette formulation conduit à des politiques de meilleure qualité que les approches existantes
In this thesis, we focus on planning in decentralised sequentialdecision taking in uncertainty. In the centralised case, the MDP andPOMDP frameworks leads to efficient planning algorithms. The Dec-POMDPframework is used to model decentralised problems. This kind ofproblems is in a higher class of complexity than the centralisedproblem. For this reason, until recently, only very small problem could be solved and only for very small horizons. Recently, some heuristic algorithms have been proposed to handle problem of higher size but there is no theoretic proof of the solution quality. In this thesis, we show how to use a heuristic information in the problem, modelled as a probability distribution on the centralised beliefs, to guide the search for a good approximate policy. Using this heuristic information, we formulate each time step of the planning procedure as a combinatorial optimisation problem. This formulation leads to policies of better quality than previously existing approaches
APA, Harvard, Vancouver, ISO, and other styles
5

Corona, Gabriel. "Utilisation de croyances heuristiques pour la planification multi-agent dans le cadre des Dec-POMDP." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00598689.

Full text
Abstract:
Nous nous intéressons dans cette thèse à la planification pour les problèmes de prise de décision décentralisée séquentielle dans l'incertain. Dans le cadre centralisé, l'utilisation des formalismes MDP et POMDP a permis d'élaborer des techniques de planification efficaces. Le cadre Dec-POMDP permet de formaliser les problèmes décentralisés. Ce type de problèmes appartient à une autre classe de complexité que les problèmes centralisés. Pour cette raison, jusqu'à récemment, seuls de très petits problèmes pouvaient être résolus et uniquement pour des horizons très faibles. Des algorithmes heuristiques ont récemment été proposés pour traiter des problèmes de taille plus conséquente mais n'ont pas de preuve théorique de qualité de solution. Nous montrons comment une information heuristique sur le problème à résoudre représentée par une distribution de probabilité sur les croyances centralisées permet de guider la recherche approchée de politique. Cette information heuristique permet de formuler chaque étape de la planification comme un problème d'optimisation combinatoire. Cette formulation conduit à des politiques de meilleure qualité que les approches existantes.
APA, Harvard, Vancouver, ISO, and other styles
6

Ammar, Adel Amin. "Adaptation et mise en place d'un processus d'innovation et de conception au sein d'une PME." Phd thesis, Paris, ENSAM, 2010. http://pastel.archives-ouvertes.fr/pastel-00566135.

Full text
Abstract:
Le contexte global de ce travail de recherche concerne la structuration de l'innovation technologique en PME, pour la définition de procédés de fabrication. Cela passe par la mise en place d'un processus de conception basé sur la réutilisation des connaissances, ainsi que sur la recherche de concepts nouveaux. La méthodologie de conception et la base de connaissances proposées sont destinées à devenir un outil d'aide à la conception et à la mise en place de nouveaux procédés de montage ou d'assemblage. Toutefois, faciliter l'application du processus de conception, il a été nécessaire d'identifier des heuristiques permettant d'accompagner le concepteur. Par ailleurs, les méthodes actuelles de capitalisation de connaissances sont difficilement accessibles aux petites entreprises, du fait de leur manque de ressources et de la complexité des outils. Ainsi, nous avons développé une méthodologie et des outils d'utilisation simple et rapide, accessibles à un personnel non spécialiste de la conception, de la capitalisation ou de l'innovation. La structuration de la connaissance est proposée autour d'une logique fonctionnelle. La démarche de conception est également basée sur la décomposition fonctionnelle du système et intègre la simplification de l'architecture de système dès les premières phases du processus. A cette fin, des phases d'agrégation puis d'agencement sont proposées et sont guidées par des heuristiques. La capitalisation de la connaissance a été réalisée dans la PME MARQUET & Cie. La conception d'une machine automatisée d'assemblage de chaussons, illustre le processus global et les outils proposés.
APA, Harvard, Vancouver, ISO, and other styles
7

Dalmas, Benjamin. "Nouvelles approches pour la détection de relations utiles dans les processus : application aux parcours de santé." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC005/document.

Full text
Abstract:
Depuis le Baby-Boom d'après guerre, la France, comme d'autres pays, est confrontée à un vieillissement de la population et à des pathologies qui deviennent de plus en plus chroniques. Ces nouveaux problèmes de santé impliquent des prises en charge plus fréquentes, plus complexes et plus transversales. Cependant, plusieurs freins liés à l'évolution de la société où à l'organisation interne du système de santé, viennent entraver le développement de prises en charge adaptées pour répondre aux nouveaux besoins. Dans un contexte de réduction des dépenses, il est nécessaire d'avoir une meilleure maîtrise des processus de santé.L'objectif de nos travaux est de proposer un ensemble de méthodes pour une meilleure compréhension du parcours de santé de la personne âgée en Auvergne. Pour cela, une description des parcours des personnes âgées est nécessaire pour avoir cette vue d'ensemble aujourd'hui manquante. De plus, cela permettra d'identifier les intervenants, les interactions ou encore les contraintes impliquées dans les différents parcours. Les travaux présentés dans ce manuscrit s'intéressent à deux problématiques. La première consiste à mettre au point des méthodes pour modéliser rapidement et efficacement les parcours de santé. Ces modèles permettront d'analyser comment les différents segments d'une prise en charge s'enchaînent. La seconde problématique consiste à proposer des méthodes pour extraire des informations pertinentes à partir des données selon un point de vue métier prédéfini, propre à la personne qui souhaite analyser ce modèle. Ces informations permettront par exemple de détecter des segments de parcours fréquents, ou encore anormaux.Pour répondre à ces problématiques, les méthodes que nous proposons dans ce manuscrit sont issues du process mining et du data mining. Ces disciplines ont pour objectif d'exploiter les données disponibles dans les systèmes d'information pour en extraire des connaissances pertinentes. Dans un premier temps, nous proposons une méthodologie qui se base sur le pouvoir d'expression des modèles de processus pour extraire des connaissances intéressantes. Dans un second temps, nous proposons des techniques pour construire des modèles de processus partiels, dont l'objectif est de permettre l'extraction de fragments de comportements intéressants.Les expérimentations effectuées démontrent l'efficacité des méthodes proposées. De plus, différentes études de cas ont été menées dans divers domaines pour prouver la généricité des techniques développées
Ever since the post-World War II baby-boom, France has had to cope with an aging population and with pathologies that have become chronic. These new health problems imply more reccurent, more complex and multidisciplinary medical care. However, multiple obstacles related to the evolution of the society or to the internal organization of the healthcare system hinder the development of new and more adapted health procedures to meet new medical needs. In a context where health expanses have to be reduced, it is necessary to have a better management of health processes.Our work aims at proposing a set of methods to gain an understanding of the elderly health path in the Auvergne region. To this end, a description of the elderly health path is necessary in order to have this missing overview. Moreover, this will enable the identification of the stakeholders, their interactions and the constraints to which they are submitted in the different health procedures.The work presented in this thesis focuses on two problems. The first one consists in developing techniques to efficiently model health paths. With these models, we will be able to analyze how the different segments of a medical care are ordered. The second problem consists in developing techniques to extract relevant information from the data, according to a predefined business point of view, specific to the user who analyzes the model. This knowledge will enable the detection of frequent or abnormal parts of a health path.To resolve these problems, the methods we propose in this thesis are related to process mining and data mining. These disciplines aim at exploiting data available in today's information systems in order to discover useful knowledge. In a first part, we propose a methodology that relies on the expressive power of process models to extract relevant information. In a second part, we propose techniques to build local process models that represent interesting fragments of behavior.The experiments we performed show the efficiency of the methods we propose. Moreover, we analyze data from different application domains to prove the genericity of the developed techniques
APA, Harvard, Vancouver, ISO, and other styles
8

Eastes, Richard-Emmanuel. "Processus d'apprentissage, savoirs complexes et traitement de l'information : un modèle théorique à l'usage des praticiens, entre sciences cognitives, didactique et philosophie des sciences." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010593/document.

Full text
Abstract:
Cherchant à établir un pont théorique et pratique entre les sciences de l'éducation, les sciences cognitives et la philosophie des sciences, la thèse développe un modèle didactique à l'interface entre ces disciplines : le modèle allostérique de l'apprendre initié et développé par Giordan (1988) et al. (1992), qui s'inscrit dans le paradigme des théories du changement conceptuel. Nourri par les travaux récents des psychologues cognitifs sur les processus d'apprentissage tels que les théories du recyclage neuronal (Dehaene, 2007) ou de l'inhibition cérébrale (Houdé & Tzourio-Mazoyer, 2003), ainsi que sur diverses théories relatives à l'élaboration de la pensée telles que l'économie comportementale (Tversky & Kahnernan, 1982) ou le modèle-cadre SRK (Rasmussen, 1990), ce modèle développe et précise le concept d’allostérie à travers la description et la formalisation des processus de déconstruction-reconstruction des conceptions, qui ont lieu lors des apprentissages complexes. De la phase de théorisation du modèle, effectuée par un recours aux formalismes de la réactivité chimique en accord avec la métaphore initiale de l'allostérie, il est possible de déduire divers environnements didactiques opératoires et féconds pour le praticien de l'enseignement et de la médiation scientifiques. Ces prévisions théoriques sont alors mises à l'épreuve de l'expérimentation didactique à travers une recherche de terrain centrée sur la notion d'expérience contre-intuitive (Eastes & Pellaud, 2004) menée auprès de différents types de publics
Aiming at bridging education sciences, cognitive sciences and philosophy of science both theoretically and practically, this thesis develops a didactical model at the interface between these fields: the allosteric learning model developed by Giordan (1988) et al. (1992), understood in the context conceptual change theories paradigm. Fueled by the recent works of cognitive psychologists on learning processes such as neuronal recycling (Dehaene, 2007) or cerebral inhibition (Houdé & Tzourio-Mazoyer, 2003), as well as on various theories related to the thought processes such as behavioral economies (Tversky & Kahneman, 1982) or the Skills-Rules-Knowledge framework model (Rasmussen, 1990), this model develops and refines the concept of allostery through the description and formalization of specific processes that take place in complex learning situations : the deconstruction-reconstruction of conceptions. Based on the theorization of the model, done through the use chemical reactivity formalisms in line with the initial metaphor of allostery, it is possible to deduce various operational and fruitful didactical environments for teaching practitioners or science communication professionals. These theoretical projections are then put to the test through didactic experimentation taking the shape of field research on the notion of counter-intuitive experiment (Eastes & Pellaud, 2004) conducted with different types of target groups
APA, Harvard, Vancouver, ISO, and other styles
9

Gater, Ahmed. "Appariement et découverte de processus." Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0010.

Full text
Abstract:
L'importance accrue des processus métiers dans les systèmes d’information actuels et les infrastructures orientées services a conduit à la prolifération d’entrepôts contenant des centaines voire des milliers de processus. L’appariement et la découverte de processus sont alors devenus des fonctionnalités nécessaires à la gestion de ces collections. Certaines approches ont réduit le problème de l’appariement de processus à un problème d’appariement de graphes. Des algorithmes d’appariement de graphes ont été adaptés pour cette fin. Toutefois, ces algorithmes sont exponentiels par rapport à la taille des processus, ce qui limite leur application à des processus de petites tailles. De plus, ces algorithmes ne peuvent pas être appliqués dans le contexte de découverte de processus en comparant la requête à tous les processus de l’entrepôt et les classer ensuite selon leurs similarités. Motivés par ces problèmes, nous proposons dans le cadre de cette thèse : (1) deux heuristiques qui permettent d’apparier des processus de plus grandes tailles en un temps réduit tout en gardant un niveau de qualité acceptable des appariements retrouvés ; (2) une structure d’indexe et un algorithme de traitement de requêtes qui permettent de retrouver les processus les plus similaires à une requête sans parcourir séquentiellement les processus de l’entrepôt. Pour montrer l’efficacité des techniques proposées, nous avons développé un prototype. Ce dernier a été évalué sur une large collection de processus que nous avons construite
The importance gained by business processes in modern information systems and service oriented architectures led to the increasing proliferation of process repositories. Matching and retrieving processes are critical functionalities required for the management of such collections. Some existing approaches reduced the problem of process matching to a graph matching problem and adapted existing matching algorithms to this end. However, the NP-completeness of their underlying graph matching algorithms limits the application of these techniques to small-sized processes. Furthermore, these techniques cannot be used in the context of process retrieval by matching the query against the processes of the repository, and ranking them according to their similarities. Motivated by these problems, we propose in this dissertation: (1) two heuristics that aim to speed up the matching of processes while keeping an acceptable quality level of the found matches, and (2) an index structure as well as a query answering algorithm that allow retrieving the processes the most similar to a given query without browsing the processes of a repository. To show the effectiveness of our techniques, we developed a prototype implementing them, and we built up a test collection upon which we evaluated this prototype
APA, Harvard, Vancouver, ISO, and other styles
10

Bailey, Ian. "Planification heuristique avec les processus de décision markovien et création d'un environnement de programmation." Mémoire, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/4630.

Full text
Abstract:
Dans ce mémoire, nous présentons un environnement de programmation nommé JIP pour «Java Intelligent Planning» et l’implémentation de l’algorithme LAO* que nous avons appelé LAOPlan. LAO* est un algorithme de planification conçu pour supporter la recherche guidée par heuristique dans un graphe non déterministe possédant des cycles. Ce mémoire explique le fonctionnement de LAO* et présente des tests de performance faits avec LAOPlan en le comparant au planificateur non déterministe et non probabiliste MBP. Nous exposons aussi des extensions intéressantes à intégrer dans JIP ou LAOPlan. Dans ce cadre, nous expliquons l’algorithme A2Ways qui est un algorithme bidirectionnel de recherche guidé par heuristique dans un graphe déterministe. Nous exposons aussi le concept de LAOBack qui est un LAO* par l’arrière, ce qui permettrait de créer un LAO* bidirectionnel.
APA, Harvard, Vancouver, ISO, and other styles
11

ZEGHIB, YACINE. "Vers une approche hybride heuristique et analytique pour le diagnostic de pannes des processus industriels." Université Louis Pasteur (Strasbourg) (1971-2008), 2001. http://www.theses.fr/2001STR13064.

Full text
Abstract:
L'objectif de cette these est de developper une approche hybride heuristique et analytique pour le diagnostic de pannes des processus industriels. Le systeme de diagnostic ainsi developpe, doit evoluer dans un environnement constitue de trois composantes principales : le systeme a diagnostiquer, l'operateur, et la version serveur du systeme ciclop (representation des connaissances basee sur les logiques de descriptions). Le cycle de fonctionnement de notre systeme de diagnostic est constitue de trois phases principales : phase de conception et de modelisation, phase de simulation et de supervision, et phase de diagnostic et de depannage. Nous avons choisi de developper cette approche en utilisant une architecture multi-agents. Au cours de ces differentes phases, les agents communiquent entre eux par envoi de messages pour echanger des informations et solliciter des services. L'architecture interne des agents est composee d'une base de connaissances (buts, competences, connaissances pour le raisonnement, etc. ), d'un module pour les interfaces avec les elements de l'environnement et d'un module pour la gestion des communications avec les autres agents. Les principaux agents constituant notre systeme de diagnostic sont les suivants : - l'agent modeliseur : pour la construction des ontologies du domaine et pour la modelisation des systemes physiques. - l'agent cbr "case-based reasoning" : pour le diagnostic a base de cas. Cette base de cas est modelisee en dl ce qui permet des raisonnements rigoureux et efficaces. - l'agent mbr "model-based reasoning" : pour le diagnostic a base de modeles. - l'agent chef/ pour coordonner le fonctionnement des agents et pour etablir le diagnostic final. Enfin, l'implementation de notre systeme de diagnostic est realisee sur l'environnement oriente objet g2 (de gensym corporation).
APA, Harvard, Vancouver, ISO, and other styles
12

Hamel, Johanne. "Création artistique et identité professionnelle: une étude heuristique." Thèse, Université de Sherbrooke, 2011. http://hdl.handle.net/11143/8290.

Full text
Abstract:
Cette recherche étudie l'effet de l'exploration de la création artistique sur l'identité professionnelle d'art-thérapeute, d'enseignante en art-thérapie et de psychologue avec une approche heuristique, c'est-à-dire en se plaçant au cœur de l'expérience sensible de la création. La question de recherche est la suivante : comment l'exploration de mon identité d'artiste à travers la création artistique modifiera-t-elle mon identité professionnelle? Cette recherche exploratoire vise à découvrir les processus et vécus présents lors de la création artistique, susceptibles de modifier l'identité professionnelle. La variante HSSI (Sela-Smith, 2002) de la méthode heuristique de recherche est utilisée. Nous retrouvons deux types de données : 11 productions artistiques et un Journal de processus créateur de 430 pages manuscrites. L'analyse des données comporte une analyse de la symbolique des œuvres artistiques, une analyse thématique du contenu du Journal de processus créateur, une analyse des étapes du processus créateur et une analyse de l'application de la méthode heuristique dans cette recherche. Les résultats obtenus concernent l'identité professionnelle d'art-thérapeute, celle d'enseignante en art-thérapie, celle de psychologue et celle d'artiste. Un intérêt secondaire de cette recherche est la formalisation de la méthode heuristique pour son application à l'art-thérapie.
APA, Harvard, Vancouver, ISO, and other styles
13

Preza, Mayo José Victor. "Comparaison d'une démarche heuristique l'algorithme de Nancy et de la méthode des plans d'expériences pour la conduite optimale d'un procédé discontinu d'estérification." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL046N.

Full text
Abstract:
À partir des travaux développés pour la recherche de la conduite optimale d'un réacteur discontinu, nous avons développé une nouvelle stratégie pour la conduite optimale d'un procédé discontinu d'estérification par la minimisation d'un critère technico-économique. La mise en œuvre de ces systèmes réactionnels équilibrés nécessite une installation constituée par un réacteur, une colonne de distillation et un condensateur afin de déplacer l'équilibre chimique. Un modèle de tendance constitué par l'association de modèles détaillés et de relations phénoménologiques, visant à décrire au mieux le fonctionnement de chaque partie de l'installation, a été développé. La stratégie de la méthode consiste en un enrichissement des connaissances du comportement du système après chaque essai. Car une fois le modèle de tendance identifié, on cherche à déterminer un nouveau jeu de paramètres de conduite, qui rend minimal le critère technico-économique. On effectue l'essai expérimental correspondant, et puis on compare la valeur obtenue des critères. Par la suite en ajoutant aux anciens les résultats expérimentaux de ce nouvel essai, on procède de nouveau à l'identification du modèle de tendance en prenant en compte la totalité des essais. On détermine un nouveau jeu de paramètres de conduite par l'intermédiaire d'une nouvelle valeur minimale du critère. La démarche est poursuivie jusqu'à ce qu'il y ait convergence entre les critères. La mise en œuvre de la méthode du plan d'expérience a été réalisée afin de la comparer avec notre méthode heuristique. On a démarré cette méthode avec un plan 2³-¹ vers un plan 3³ et elle nous a permis de mettre en valeur certaines interactions entre les paramètres de conduite
APA, Harvard, Vancouver, ISO, and other styles
14

Saumard, Adrien. "Estimation par Minimum de Contraste Régulier et Heuristique de Pente en Sélection de Modèles." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00569372.

Full text
Abstract:
Cette thèse est consacrée à l'étude théorique d'une méthode de calibration automatique des pénalités en sélection de modèles. Cette méthode se base sur une heuristique, appelée "heuristique de pente", qui stipule l'existence d'une pénalité minimale telle que la solution optimale du problème de pénalisation vaut deux fois celle-ci. En pratique, on estime la pénalité optimale en estimant préalablement la pénalité minimale, caractérisée par un changement brutal dans le comportement de la procédure de sélection de modèles autour de ce seuil de pénalisation. L'analyse théorique du phénomène de pente se base sur un contrôle à la constante près des déviations de l'excès de risque et de l'excès de risque empirique des estimateurs considérés, mesurant respectivement leur performance en prédiction et leur performance empirique. Ceci suggère en premier lieu, une forte spécification de la structure du problème étudié. Nous validons l'heuristique de pente dans un cadre général qui s'articule autour d'une notion nouvelle en M-estimation, que nous appelons "contraste régulier", et nous développons une méthodologie de preuve inédite, permettant de traiter à la fois la question des bornes supérieures et des bornes inférieures de déviation des excès de risque à modèle fixé. Nous retrouvons ainsi la plupart des résultats déjà connus sur l'heuristique de pente. En effet, nous donnons trois exemples d'estimation par minimum de contraste régulier, à savoir la régression par moindres carrés sur des modèles linéaires, l'estimation de la densité par moindres carrés sur des modèles affines et l'estimation de la densité par maximum de vraisemblance sur des ensembles convexes. Ceci nous permet d'étendre les résultats précédemment établis dans le cas de la régression à des modèles plus généraux et de valider l'heuristique de pente pour un risque non quadratique en considérant le cas de l'estimation par maximum de vraisemblance. Enfin, notre méthodologie de preuve fournit des pistes précises de recherche pour des situations non régulières, comme on en trouve en classification ou plus généralement en théorie de l'apprentissage statistique.
APA, Harvard, Vancouver, ISO, and other styles
15

Manaa, Adel. "Ordonnancement de tâches multiprocesseur sur deux processeurs dédiés." Troyes, 2009. http://www.theses.fr/2009TROY0016.

Full text
Abstract:
Dans ce mémoire, nous étudions des problèmes d’ordonnancement de tâches multiprocesseur où une tâche peut nécessiter pour son exécution plus d’un processeur simultanément. Nous nous sommes particulièrement intéressés au cas de deux processeurs dédiés pour lequel nous avons étudié trois fonctions objectif : la minimisation de la fin de l’ordonnancement, la minimisation de la somme (pondérée) des dates de fin des tâches et la minimisation de la somme des retards. Pour ces différents critères, nous avons développé des bornes inférieures, des heuristiques et des méthodes exactes. Nous avons proposé différentes bornes inférieures dont des bornes basées sur des relaxations intuitives ainsi que des bornes basées sur des relaxations lagrangienne et surrogate. Des heuristiques constructives ont été développées et pour un bon nombre d’entre elles des ratios de performances au pire cas sont démontrés. Nous avons aussi proposé des différentes formulations mathématiques pour la minimisation de la somme des retards, à partir desquels nous avons proposé plusieurs heuristiques avec études expérimentales de leurs performances. Nous avons développé des méthodes exactes de type branch-and-bound pour lesquelles nous avons prouvé plusieurs propriétés de dominance. Enfin, nous avons proposé une approche adaptée pour la génération des instances de test pour ce type de problèmes d’ordonnancement sur processeurs dédiés prenant en compte les différents types de tâches et la charge des processeurs et sur lesquels nous avons testé nos méthodes
In this thesis, we study scheduling problems with multiprocessor tasks where a task may simultaneously require more than one processor for its execution. We are particularly interested in the case of two dedicated processors for which we have considered three objective functions: minimising the makespan, minimizing the total (weighted) flowtime and minimizing the total tardiness. For these criteria, we have developed lower bounds, heuristics and exact methods. We have proposed different lower bounds based on intuitive relaxations or lagrangian and surrogate relaxations. Constructive heuristics have been developed and worst case performance ratios of some of them are proved. We have also proposed mathematical models for minimizing the total tardiness and we developed several heuristics based on these models with experimental study of their performance. We have developed exact branch-and-bound methods for which we have proved several dominance properties. Finally, we proposed a specific scheme to randomly test instances for this type of scheduling problems on dedicated processors taking into account the different types of tasks and processor loads and on which we tested our methods
APA, Harvard, Vancouver, ISO, and other styles
16

Philemotte, Christophe. "L'heuristique de la Gestalt: une méta-modélisation dynamique en ligne comme assistance du processus d'une métaheuristique." Doctoral thesis, Universite Libre de Bruxelles, 2009. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210311.

Full text
Abstract:

De nos jours, il est peu de processus ou de tâches qui ne requièrent pas l'optimisation d'une quantité :diminuer le temps de livraison, diminuer l'espace utilisé, réduire les efforts de développement, C'est donc sans surprise que la recherche en optimisation soit l'un des domaines les plus actifs des sciences des technologies de l'information. En optimisation combinatoire, les métaheuristiques sont à compter parmi le fleuron des techniques algorithmiques. Mais ce succès est encore au prix d'une quantité significative de temps de conception et développement. Ne serait-il pas possible d'aller encore plus loin ?D'automatiser la préparation des métaheuristiques ?En particulier dans des conditions telles le manque de temps, l'ignorance de techniques spécialisées ou encore la mauvaise compréhension du problème traité ?C'est ce à quoi nous répondons dans la présente thèse au moyen d'une approche de méta-modélisation de la recherche :l'heuristique de la Gestalt.

Considérant la représentation du problème comme un levier que l'on peut activer sous le processus de recherche mené par une métaheuristique, la thèse suggère la construction d'une abstraction de cette représentation capable d'assister la métaheuristique à trouver de bonnes solutions en contraignant sa recherche. Cette approche, inspirée de la psychologie de la Gestalt, nous l'appelons l'heuristique de la Gestalt. Son fonctionnement repose principalement sur l'agrégation des variables de la représentation. Cette agrégation donne lieu à une abstraction structurelle, mais également fonctionnelle en ce sens que les opérateurs de la métaheuristique doivent désormais respecter l'intégrité des agrégats définis.

Après avoir établi le contexte de la dissertation, nous discutons de la transposition de la psychologie de la Gestalt dans le cadre de l'optimisation combinatoire et des métaheuristiques. S'ensuit la formalisation de l'heuristique de la Gestalt et la description de sa réalisation. Finalement, une série d'études expérimentales sont menées pour éprouver le concept avancé et valider l'implémentation basée sur les algorithmes évolutionnistes que nous proposons. En conclusion, nous affirmons que l'implémentation de l'heuristique de la Gestalt basée, entre autres, sur un algorithme génétique de groupement est capable d'assister positivement des algorithmes génétiques lorsque les instances de problèmes traitées possèdent une structure riche et complexe, que leur taille est importante, que l'on est tôt dans le processus d'optimisation et que l'algorithme génétique n'est pas paramétré spécifiquement.


Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
17

Plamondon, Pierrick. "Techniques for the allocation of resources under uncertainty." Doctoral thesis, Québec : Université Laval, 2007. http://www.theses.ulaval.ca/2007/24957/24957.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Abdennadher, Nabil. "Conception de méthodes de placement et d'ordonnancement de programmes parallèles sur un système multi processeur : évaluation sur un réseau de transputers." Valenciennes, 1991. https://ged.uphf.fr/nuxeo/site/esupversions/be35d3cb-258a-4a5f-bc58-c3be2899b347.

Full text
Abstract:
Le développement des langages et des architectures parallèles a donné de l'importance au problème de placement des tâches sur un système multiprocesseur. Avant l'exécution, il est indispensable de placer les différents modules du programme parallèle sur les processeurs de la machine cible, placement qui optimise un critère défini auparavant. Cette thèse présente un algorithme heuristique de placement des tâches qui tient compte des relations de précédence qui existent entre les tâches et de la politique d'ordonnancement implantée sur chaque processeur. Le placement est évalué en fonction de deux politiques: la politique partage de temps et la politique propriété semi dynamique (psd) qui consiste a attribuer à chaque tâche une priorité en fonction de la structure du graphe de tâches représentant le programme parallèle. L’algorithme est constitué de trois phases: -phase glouton qui consiste à placer les tâches sur les processeurs; -phase de multiplexage dont l'objectif est de placer les canaux de communications inter-tâches sur les liens physiques inter-processeurs; -phase de routage qui consiste à étendre sur plusieurs liens physiques les canaux de communication qui n'ont pas été placés au cours de la seconde phase. La topologie de la machine cible n'est pas fixée a priori. Elle est déterminée en fonction du placement des tâches et des contraintes matérielles imposées par le constructeur de la machine.
APA, Harvard, Vancouver, ISO, and other styles
19

Drouillet, Yohann. "Entre richesse heuristique potentielle et actualisation subtile : processus d’appréhension et épistémologie d’une formation : en quoi l’exercice d’une « douance » nécessiterait-il le recours à l’appréhension d’un formalisme." Electronic Thesis or Diss., Paris 8, 2019. http://www.theses.fr/2019PA080089.

Full text
Abstract:
L’énoncé de la thèse, au fur et à mesure de son élaboration en acte, recouvre deux postures présentées antagonistes a priori qui sont et restent profondément paradoxales : la pose d’un conditionnel en construction pouvant sembler discursif et l’authenticité d’une posture proche d’un tiers inclus en acte. La « douance » comme objet de recherche est questionnée à partir d’une pratique de journal par son auteur depuis 12 ans. L’auteur approche de plus en plus son objet de recherche suite à une reprise d’étude en sciences de l’éducation ; sa formalisation nécessitera l’aide d’une philosophie à l’œuvre. Lorsque l’auteur ne distingue plus toujours la nature de ce qui lui « fait problème » (telle une catastrophe au sens de René Thom), il investit pour les besoins de sa thèse un protocole (la pose d’un problème) où la nature du problème peut aller à l’encontre de sa résolution. Le double statut du journal est implicitement sujet à caution et son exercice sollicite un usage des sciences au contact de la singularité de la situation. La thèse donne à voir l’exercice d’un donné à comprendre où : l’action, la légitimité engagée, le vécu de la personne et sa formalisation sont contrariés et paradoxaux
The formalism of the thesis during the construction and the elaboration in act covers two postures antagonist “a-priori” which stay profoundly paradoxical. It is a conditional scientific in construction which appears discursive and the authority of a posture close to a third included in act. The “douance” as an object of research is questioned as from the practice of the diary by its author since 12 years. The author approaches his research subject more and more following a resumption of studiesin the education sciences; his formalization will then require the help of a working philosophy. When an author doesn’t distinguish always the nature of which creates a problem for himself (such as a catastrophy in the sense of René THOM) he commits himself for the needs of the thesis, a protocol investigating the problem where the nature of the problem can unstablize its resolution. The double status of the diary is implicitly subject and put into question. Its exercise warrants a scientific use in contact of the singularity of the situation. The thesis gives to show that the dater exercises needs to be understood, where the action and experience of the person are formalized, authorizing a paradox in act
APA, Harvard, Vancouver, ISO, and other styles
20

Meena, Ashish. "Allocation, assignation et ordonnancement pour les systèmes sur puce multi-processeurs." Lille 1, 2006. http://www.theses.fr/2006LIL10165.

Full text
Abstract:
Comparés aux systèmes embarqués de la dernière décennie, qui ont été généralement vus comme de petits contrôleurs, les plateformes de systèmes embarqués d'aujourd'hui contiennent des combinaisons de plusieurs composants (processeurs, contrôleurs, mémoires etc. ) sur une puce ainsi que du logiciel sophistiqué. Elles sont appelées MpSoCs (multi processor system on chip). D'autre part le domaine d'application de tels systèmes est souvent lié au traitement du signal numérique (DSP). Le problème que nous avons visé dans cette thèse est l'allocation, l'assignation et l'ordonnancement (allocation, assignment and scheduling (AAS)) pour des applications DSP sur MpSoC à haut niveau d'abstraction. Le calcul de l'AAS pour une telle plateforme est très important. Nous avons proposé deux heuristiques principales pour l'AAS. La première s'appelle globalement irrégulier et localement régulier, qui exploite le parallélisme de tâches et de données. La deuxième est appelée heuristique basée sur des motifs pour l'AAS localement régulier. Elle manipule le parallélisme de données fortement régulier encapsulé dans les noeuds du graphe de tâches hiérarchique. Ces motifs de communication et de calcul résuultant de l'heuristique sont représentés sous la forme de diagrammes de Gantt. Nous avons également proposé une autre heuristique pour manipuler les sous-problèmes de base que sont la génération des chemins de données et le routage des paquets pour un équilibrage de charge de calkcul et de communication et l'exclusion des ressources inutiles
APA, Harvard, Vancouver, ISO, and other styles
21

Bou, Malham Christelle. "Méthodologie d’optimisation hybride (Exergie/Pinch) et application aux procédés industriels." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM082.

Full text
Abstract:
Dans la perspective du présent scénario énergétique, ce travail de thèse propose une méthodologie qui associe la méthode du pincement à l’analyse exergétique de manière à dépasser leurs limitations individuelles aboutissant à une conception améliorée aux deux niveaux : paramètres opératoires et topologie. Une méthodologie globale, consistant à hybrider les deux méthodes thermodynamiques dans une approche entrelacée avec des règles heuristiques et une optimisation numérique, est donc évoquée. À l'aide de nouveaux critères d'optimisation basés sur l’exergie, l'analyse exergétique est utilisée non seulement pour évaluer les pertes d’exergie mais également pour guider les améliorations potentielles des conditions de fonctionnement et de structure des procédés industriels. En plus, au lieu de considérer uniquement l’intégration de la chaleur pour satisfaire des besoins existants, la méthodologie proposée étend la méthode de pincement pour inclure d’autres formes d’exergie récupérables et exploiter de nouvelles voies de synergie via des systèmes de conversion. Après avoir présenté les lignes directrices de la méthodologie proposée, l’approche est démontrée sur deux systèmes industriels, un procédé d’hydrotraitement de gasoil sous vide et un procédé de liquéfaction de gaz naturel. L’application du cadre méthodologique à des processus réalistes a montré comment ajuster les conditions opératoires de chaque procédé et comment mettre en œuvre des systèmes de conversion générant des économies d’énergie substantielles
In the perspective of the prevailing and alarming energy scene, this doctoral work puts forward a methodology that couples pinch and exergy analysis in a way to surpass their individual limitations in the aim of generating optimal operating conditions and topology for industrial processes. A global methodology, a hybrid of the two thermodynamic methods in an intertwined approach with heuristic rules and numerical optimization, is therefore evoked. Using new optimizing exergy-based criteria, exergy analysis is used not only to assess the exergy losses but also to guide the potential improvements in industrial processes structure and operating conditions. And while pinch analysis considers only heat integration to satisfy existent needs, the proposed methodology allows including other forms of recoverable exergy and explores new synergy pathways through conversion systems. After exhibiting the guidelines of the proposed methodology, the entire approach is demonstrated on two industrial systems, a vacuum gasoil hydrotreating process and a natural gas liquefaction process. The application of the methodological framework on realistic processes demonstrated how to adjust each process operating conditions and how to implement conversion systems ensuing substantial energy savings
APA, Harvard, Vancouver, ISO, and other styles
22

Tobon, valencia Estefania. "Contribution à la formalisation d’un processus PDP agile dans le cadre de l’industrie 4.0." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAE030.

Full text
Abstract:
Les PME (Petites et Moyennes Entreprises) manufacturières, représentants majeurs de l’industrie mondiale, font face aujourd’hui à des fortes pressions pour répondre dans des délais toujours plus courts aux besoins particuliers des clients avec des prix compétitifs. Dans cet environnement de concurrence accrue, la transformation de processus de planification de la production par l’exploitation des technologies 4.0 peut apporter des réponses à ces défis. Cependant, considérant le nombre des technologies proposées à l’ère du numérique, il n’est pas simple pour les PME de sélectionner les groupes technologiques le plus adaptés à leur contexte industriel et organisationnel ainsi que les activités sensibles d’être améliorées par le numérique. La planification d’un projet de transformation de processus par le numérique requiert une définition de la portée du 4.0 ainsi que des objectifs de performance à atteindre avec le projet. Toutefois, notre revue de la littérature montre que les PME manquent de modèles pour aborder la transformation numérique dans les processus de planification.En vue de cette problématique, cette thèse doctorale propose une approche de planification de la production à moyen terme 4.0, centré sur la routine du Programme Directeur de Production (PDP), pour les PME manufacturières. Afin de répondre à nos objectifs, nous avons d’abord conduit une étude de prospective pour préciser le besoin industriel associé au PDP au sein d’un groupe des PME manufacturières. Cette étude a montré que les axes de transformation principaux se concentraient autour du processus et des outils de support pour la prise des décisions. Dans le but de rendre agile le processus PDP nous présentons une méthodologie de sélection des activités sensibles à être faites d’une nouvelle façon à partir de deux leviers d’amélioration, la surveillance et l’optimisation. Sur cette base nous proposons l’intégration des groupes technologiques 4.0 dans le PDP. Quant aux outils de support pour la prise des décisions, nous proposons deux approches d’optimisation pour le PDP adaptées à des contextes industriels d’assemblage sur commande, avec différentes lignes d’assemblage, divers goulets, plusieurs articles directeurs et fabrication principalement artisanale. Nous présentons également l’intégration de ces approches d’optimisation dans le processus PDP
Manufacturing SMEs (Small and Medium-sized Enterprises), major actors of the global industry, are subjected to strong pressure from the market to respond in shorter delays to customized needs with competitive prices. The evolution of production planning activities through the 4.0 technologies can provide answers for facing these challenges. However, considering the large number of industry 4.0 technologies, it is not easy for SMEs to select the most adequate technologies for their industrial and organizational context and the most adequate activities that could enhance a digital improvement. Planning a digital transformation project requires the definition of the 4.0 scope as well as a clear vision of the performance objectives to be achieved. Nevertheless, our review of the scientific literature shows that SMEs lack models for carrying digital transformation in planning activities.This thesis proposes a 4.0 production planning approach, focused on the Master Production Schedule (MPS), for manufacturing SMEs. In order to reach our research goal, we conducted a prospective study to specify the industrial need of the MPS process within a group of manufacturing SMEs. This study revealed that the main levers of the transformation concerned the process and the tools for supporting decision-making. Regarding the process, we present a methodology for selecting the activities to be done in a new way based on two improvement levers, monitoring and optimization. On this basis, we propose the integration of the 4.0 technologies in the MPS. As for decision support tools, we propose two optimization approaches for the MPS in the context of SME with an assemble-to-order (ATO) strategy, multiple assembly lines, several bottlenecks, diverse master items and a mainly artisanal production process. We also present the integration of these optimization approaches in the MPS activities
APA, Harvard, Vancouver, ISO, and other styles
23

Ballout, Ali. "Apprentissage actif pour la découverte d'axiomes." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4026.

Full text
Abstract:
Cette thèse aborde le défi de l'évaluation des formules logiques candidates, avec un accent particulier sur les axiomes, en combinant de manière synergique l'apprentissage automatique et le raisonnement symbolique. Cette approche innovante facilite la découverte automatique d'axiomes, principalement dans la phase d'évaluation des axiomes candidats générés. La recherche vise à résoudre le problème de la validation efficace et précise de ces candidats dans le contexte plus large de l'acquisition de connaissances sur le Web sémantique.Reconnaissant l'importance des heuristiques de génération existantes pour les axiomes candidats, cette recherche se concentre sur l'avancement de la phase d'évaluation de ces candidats. Notre approche consiste à utiliser ces candidats basés sur des heuristiques, puis à évaluer leur compatibilité et leur cohérence avec les bases de connaissances existantes. Le processus d'évaluation, qui nécessite généralement beaucoup de calculs, est révolutionné par le développement d'un modèle prédictif qui évalue efficacement l'adéquation de ces axiomes en tant que substitut du raisonnement traditionnel. Ce modèle innovant réduit considérablement les exigences en matière de calcul, en utilisant le raisonnement comme un "oracle" occasionnel pour classer les axiomes complexes lorsque cela est nécessaire.L'apprentissage actif joue un rôle essentiel dans ce cadre. Il permet à l'algorithme d'apprentissage automatique de sélectionner des données spécifiques pour l'apprentissage, améliorant ainsi son efficacité et sa précision avec un minimum de données étiquetées. La thèse démontre cette approche dans le contexte du Web sémantique, où le raisonneur joue le rôle d'"oracle" et où les nouveaux axiomes potentiels représentent des données non étiquetées.Cette recherche contribue de manière significative aux domaines du raisonnement automatique, du traitement du langage naturel et au-delà, en ouvrant de nouvelles possibilités dans des domaines tels que la bio-informatique et la preuve automatique de théorèmes. En mariant efficacement l'apprentissage automatique et le raisonnement symbolique, ces travaux ouvrent la voie à des processus de découverte de connaissances plus sophistiqués et autonomes, annonçant un changement de paradigme dans la manière dont nous abordons et exploitons la vaste étendue de données sur le web sémantique
This thesis addresses the challenge of evaluating candidate logical formulas, with a specific focus on axioms, by synergistically combining machine learning with symbolic reasoning. This innovative approach facilitates the automatic discovery of axioms, primarily in the evaluation phase of generated candidate axioms. The research aims to solve the issue of efficiently and accurately validating these candidates in the broader context of knowledge acquisition on the semantic Web.Recognizing the importance of existing generation heuristics for candidate axioms, this research focuses on advancing the evaluation phase of these candidates. Our approach involves utilizing these heuristic-based candidates and then evaluating their compatibility and consistency with existing knowledge bases. The evaluation process, which is typically computationally intensive, is revolutionized by developing a predictive model that effectively assesses the suitability of these axioms as a surrogate for traditional reasoning. This innovative model significantly reduces computational demands, employing reasoning as an occasional "oracle" to classify complex axioms where necessary.Active learning plays a pivotal role in this framework. It allows the machine learning algorithm to select specific data for learning, thereby improving its efficiency and accuracy with minimal labeled data. The thesis demonstrates this approach in the context of the semantic Web, where the reasoner acts as the "oracle," and the potential new axioms represent unlabeled data.This research contributes significantly to the fields of automated reasoning, natural language processing, and beyond, opening up new possibilities in areas like bioinformatics and automated theorem proving. By effectively marrying machine learning with symbolic reasoning, this work paves the way for more sophisticated and autonomous knowledge discovery processes, heralding a paradigm shift in how we approach and leverage the vast expanse of data on the semantic Web
APA, Harvard, Vancouver, ISO, and other styles
24

Bardin, Sébastien. "Vers un Model Checking avec accélération plate des systèmes hétérogènes." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2005. http://tel.archives-ouvertes.fr/tel-00131834.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de la vérification formelle de systèmes informatiques. Plus exactement nous nous intéressons au calcul de l'ensemble d'accessibilité d'automates étendus par des variables à domaines infinis. Bien que cet ensemble ne soit pas récursif en général, des techniques à base d'accélération permettent de le calculer en pratique. Cependant ces méthodes sont encore mal connues. Nous nous intéressons à l'étude de l'accélération, des points de vue théorique, algorithmique et implantation logicielle.
APA, Harvard, Vancouver, ISO, and other styles
25

Frey, Darren. "The identification of individual-specific conflict detection sensitivities." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCB238.

Full text
Abstract:
Les développements récents de la recherche en sciences cognitives ont établi que les individus détectent fréquemment qu'ils sont en train de commettre certaines erreurs de raisonnement, alors même qu'ils n'identifient pas, et peut-être ne peuvent pas identifier, la source de ces erreurs. Jusqu'à maintenant, ce programme de recherche a principalement visé à démontrer que même les individus aux raisonnements les plus biaisés faisaient preuve de tendances à la détection de conflits. Le présent travail s'appuie sur ces résultats et analyse trois domaines d'enquête connexes et encore inexplorés : (1) les sous-types de détection de conflits ; (2) les différences individuelles quant à la détection ; (3) le caractère de généralité ou de spécificité au domaine des sensibilités pour la détection de conflits. En identifiant des sous-types de détection de conflits de plus en plus spécifiques, ce projet a pour objectif d'examiner les corrélations entre, d'une part, certaines sensibilités pour la détection de conflits, et des prédicteurs cognitifs, d'autre part. Il s'agit, fondamentalement, d'un travail préparatoire en vue d'une analyse différentielle complète des sensibilités particulières de détection de conflits parmi les individus en train de raisonner
Recent state of the art research into cognitive biases has revealed that individuals often detect that they are making certain reasoning errors even when they themselves do not, perhaps cannot, articulate the source of the error. Until now, this research has focused primarily on demonstrating the existence of conflict detection tendencies among even the most biased reasoners. This thesis builds on this research by analyzing three related and unexplored areas of inquiry: (1) subtypes of conflict detection; (2) individual-specific differences among detectors; and (3) the domain generality or specificity of conflict detection sensitivities. By identifying increasingly fine-tuned detection subtypes, the project aims to explore correlations between particular conflict detection sensitivities and other cognitive predictors. It is, essentially, preparatory work for a complete differential analysis of conflict detection sensitivities among reasoners
APA, Harvard, Vancouver, ISO, and other styles
26

Zhang, Jian. "Advance Surgery Scheduling with Consideration of Downstream Capacity Constraints and Multiple Sources of Uncertainty." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCA023.

Full text
Abstract:
Les travaux de ce mémoire portent sur une gestion optimisée des blocs opératoires dans un service chirurgical. Les arrivées des patients chaque semaine, la durée des opérations et les temps de séjour des patients sont considérés comme des paramètres assujettis à des incertitudes. Chaque semaine, le gestionnaire hospitalier doit déterminer les blocs chirurgicaux à mettre en service et leur affecter certaines opérations figurant sur la liste d'attente. L'objectif est la minimisation d'une part des coûts liés à la réalisation et au report des opérations, et d'autre part des coûts hospitaliers liés aux ressources chirurgicaux. Lorsque nous considérons que les modèles de programmations mathématiques couramment utilisés dans la littérature n'optimisent pas la performance à long terme des programmes chirurgicaux, nous proposons un nouveau modèle d'optimisation à deux phases combinant le processus de décision Markovien (MDP) et la programmation stochastique. Le MDP de la première phase détermine les opérations à effectuer chaque semaine et minimise les coûts totaux sur un horizon infini. La programmation stochastique de la deuxième phase optimise les affectations des opérations sélectionnées dans les blocs chirurgicaux. Afin de résoudre la complexité des problèmes de grande taille, nous développons un algorithme de programmation dynamique approximatif basé sur l'apprentissage par renforcement et plusieurs autres heuristiques basés sur la génération de colonnes. Nous développons des applications numériques afin d'évaluer le modèle et les algorithmes proposés. Les résultats expérimentaux indiquent que ces algorithmes sont considérablement plus efficaces que les algorithmes traditionnels. Les programmes chirurgicaux du modèle d’optimisation à deux phases sont plus performants de manière significative que ceux d’un modèle de programmation stochastique classique en termes de temps d’attente des patients et de coûts totaux sur le long terme
This thesis deals with the advance scheduling of elective surgeries in an operating theatre that is composed of operating rooms and downstream recovery units. The arrivals of new patients in each week, the duration of each surgery, and the length-of-stay of each patient in the downstream recovery unit are subject to uncertainty. In each week, the surgery planner should determine the surgical blocks to open and assign some of the surgeries in the waiting list to the open surgical blocks. The objective is to minimize the patient-related costs incurred by performing and postponing surgeries as well as the hospital-related costs caused by the utilization of surgical resources. Considering that the pure mathematical programming models commonly used in literature do not optimize the long-term performance of the surgery schedules, we propose a novel two-phase optimization model that combines Markov decision process (MDP) and stochastic programming to overcome this drawback. The MDP model in the first phase determines the surgeries to be performed in each week and minimizes the expected total costs over an infinite horizon, then the stochastic programming model in the second phase optimizes the assignments of the selected surgeries to surgical blocks. In order to cope with the huge complexity of realistically sized problems, we develop a reinforcement-learning-based approximate dynamic programming algorithm and several column-generation-based heuristic algorithms as the solution approaches. We conduct numerical experiments to evaluate the model and algorithms proposed in this thesis. The experimental results indicate that the proposed algorithms are considerably more efficient than the traditional ones, and that the resulting schedules of the two-phase optimization model significantly outperform those of a conventional stochastic programming model in terms of the patients' waiting times and the total costs on the long run
APA, Harvard, Vancouver, ISO, and other styles
27

Obeid, Ali. "Scheduling and Advanced Process Control in semiconductor Manufacturing." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00847032.

Full text
Abstract:
In this thesis, we discussed various possibilities of integrating scheduling decisions with information and constraints from Advanced Process Control (APC) systems in semiconductor Manufacturing. In this context, important questions were opened regarding the benefits of integrating scheduling and APC. An overview on processes, scheduling and Advanced Process Control in semiconductor manufacturing was done, where a description of semiconductor manufacturing processes is given. Two of the proposed problems that result from integrating bith systems were studied and analyzed, they are :Problem of Scheduling with Time Constraints (PTC) and Problem of Scheduling with Equipement health Factor (PEHF). PTC and PEHF have multicriteria objective functions.PTC aims at scheduling job in families on non-identical parallel machines with setup times and time constraints.Non-identical machines mean that not all miachines can (are qualified to) process all types of job families. Time constraints are inspired from APC needs, for which APC control loops must be regularly fed with information from metrology operations (inspection) within a time interval (threshold). The objective is to schedule job families on machines while minimizing the sum of completion times and the losses in machine qualifications.Moreover, PEHF was defined which is an extension of PTC where scheduling takes into account the equipement Health Factors (EHF). EHF is an indicator on the state of a machine. Scheduling is now done by considering a yield resulting from an assignment of a job to a machine and this yield is defined as a function of machine state and job state.
APA, Harvard, Vancouver, ISO, and other styles
28

Gardes, Marie-Line. "Étude de processus de recherche de chercheurs, élèves et étudiants, engagés dans la recherche d’un problème non résolu en théorie des nombres." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10231/document.

Full text
Abstract:
A l’articulation de la théorie des nombres et de la didactique des mathématiques, notre recherche vise à étudier la question de la transposition du travail du mathématicien, via l’analyse de processus de recherche de chercheurs, élèves et étudiants sur la recherche d’un même problème non résolu : la conjecture d’Erdös-Straus. Les analyses mathématiques et épistémologiques nous ont permis d’identifier différents aspects du travail du mathématicien et les éléments moteurs dans l’avancée de ses recherches. Cela nous a conduit à développer la notion de « geste » de la recherche pour décrire, analyser et mettre en perspective les processus de recherche des trois publics. Ces analyses ont mis en évidence les potentialités du problème pour créer une situation de recherche de problèmes en classe, plaçant les élèves dans une position proche de celle du mathématicien. Les analyses didactiques se sont appuyées sur la construction d’une telle situation puis sur sa mise à l’épreuve dans un contexte de laboratoire avec des élèves de terminale scientifique. Nous avons analysé finement les processus de recherche des élèves à l’aide des outils méthodologiques développés dans les analyses mathématiques et épistémologiques. Les analyses ont mis en évidence la richesse des procédures mises en oeuvre, un travail effectif dela dialectique entre les connaissances mathématiques et les heuristiques mobilisées, et selonles groupes, une mise en oeuvre de démarches de type expérimental, l’approfondissement de connaissances mathématiques notionnelles et une acquisition d’heuristiques expertes de recherche de problème non résolu. Elles montrent également la pertinence de la notion de «geste » de la recherche pour étudier la question de la transposition du travail des chercheurs
Our thesis deals with the transposition of mathematician’s reserach activity in mathematical classroom, in the domain of number theory. Our research focuses on the study of a research process for researchers, pupils and students involved in the research of an unsolved problem: the Erdös-Straus conjecture. Our mathematical and epistemological analyses allow us to identify different aspects of the mathematician’s work and the elements for progress in his research. The notion of “gesture” is developed to describe, analyze and contextualize different research processes. This analysis reveals the potentiality of this problem to create a research situation in classroom, where pupils are in a position similar to the mathematician’s one. Didactical analyses are based on the construction of such a situation and its experimentation in laboratory. We study the research process of the students with the methodological tools developed in mathematical and epistemological analyses. This analysis shows several potentiality of this situation: a wealth of procedures implemented, effective work on the dialectical aspects of the mathematical research activity and implementation of experimental approach. The notion of “gesture” is relevant to consider the question of the transposition of mathematician’s work
APA, Harvard, Vancouver, ISO, and other styles
29

Connault, Pierre. "Calibration d'algorithmes de type Lasso et analyse statistique de données métallurgiques en aéronautique." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112041.

Full text
Abstract:
Notre thèse comprend deux parties : l’une méthodologique, l’autre appliquée.La partie méthodologique porte sur le Lasso et une variante de cet algorithme, le Lasso projeté, en vue de leur calibration par pente. Notre méthode tire parti des propriétés de parcimonie du Lasso, en envisageant le problème de sa calibration comme un problème de sélection de modèles, permettant l’emploi de critères pénalisés nécessitant le réglage d’une constante. Pour déterminer la forme de la pénalité et la valeur de la constante, nous adaptons les approches classiques de Birgé et Massart. Ceci permet de dégager la notion de pénalité canonique. Pente et validation croisée sont ensuite comparées. La proximité des résultats suggère qu’en pratique on utilise les deux conjointement, avec des corrections visuelles concernant la pente. Des améliorations sur le temps de calcul des pénalités canoniques sont ensuite proposées, mais sans succès patent. La partie appliquée analyse certaines questions métallurgiques en aéronautique. En fiabilité, le grand nombre de variables présentes, relativement au nombre limité de données, mène à une instabilité des solutions par modèles linéaires et à des temps de calculs trop élevés ; c’est pourquoi le Lasso constitue une solution intéressante. Notre méthode de réglage permet souvent de retenir les variables conformes à l’expérience métier. La question de la qualité du procédé de fabrication, par contre, ne peut se traiter au moyen du Lasso. Quatre aspects sont alors envisagés : la détermination des facteurs du procédé, la mise en évidence de recettes, l’étude de la stabilité du procédé dans le temps et la détection de pièces hors-normes. Un schéma général d’étude procédé est ainsi dégagé,en qualité comme en fiabilité
Our work contains a methodological and an applied part.In the methodological part we study Lasso and a variant of this algorithm : the projectedLasso. We develop slope heuristics to calibrate them.Our approach uses sparsity properties of the Lasso, showing how to remain to a modelselection framework. This both involves a penalized criterion and the tuning of a constant.To this aim, we adopt the classical approaches of Birgé and Massart about slope heuristics.This leads to the notion of canonical penalty.Slope and (tenfold) crossvalidation are then compared through simulations studies.Results suggest the user to consider both of them. In order to increase calculation speed,simplified penalties are (unsuccessfully) tried.The applied part is about aeronautics. The results of the methodological part doapply in reliability : in classical approaches (without Lasso) the large number of variables/number of data ratio leads to an instability of linear models, and to huge calculustimes. Lasso provides a helpful solution.In aeronautics, dealing with reliability questions first needs to study quality of theelaboration and forging processes. Four major axis have to be considered : analysing thefactor of the process, discrimining recipes, studying the impact of time on quality anddetecting outliers. This provides a global statistical strategy of impowerment for processes
APA, Harvard, Vancouver, ISO, and other styles
30

Guschinskaya, Olga. "Outils d'aide à la décision pour la conception en avant-projet des systèmes d'usinage à boîtiers multibroches." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2007. http://tel.archives-ouvertes.fr/tel-00783240.

Full text
Abstract:
Les travaux de recherche effectués dans le cadre de cette thèse concernent essentiellement la conception en avant-projet de systèmes d'usinage dédiés à la production en grande série. Lors de cette phase de conception, l'objectif principal est de trouver, pour une pièce donnée, une configuration du système d'usinage qui satisfaisait, à coût minimal, les contraintes technologiques, techniques et économiques existantes. Plusieurs problèmes combinatoires posés par cet objectif sont étudiés dans la thèse. Plus concrètement, nous nous sommes intéressés aux problèmes d'optimisation de la configuration des trois types de systèmes d'usinage suivants : machines de transfert, machines à table mobile et machines à table circulaire pivotante. Pour chacun de ces systèmes, nous avons proposé, dans un premier temps, différents modèles mathématiques. Dans un deuxième temps, nous avons développé de nombreux outils d'optimisation dédiés à leur résolution, tels que des algorithmes de calcul des bornes inférieures, des procédures de pré-traitement, des algorithmes de résolution exacte et approchée, et des approches mixtes utilisant plusieurs de ces algorithmes. Ces travaux ont permis de concevoir un prototype de logiciel destiné à supporter les différentes étapes de conception en avant projet d'un système d'usinage. Ce logiciel a été testé avec succès sur plusieurs cas industriels.
APA, Harvard, Vancouver, ISO, and other styles
31

Li, Zhi. "Commande optimale (en Production et Stock) de Systèmes Assemble-To-Order (ATO) avec prise en compte de demandes en composants individuels." Phd thesis, Ecole Centrale de Lille, 2013. http://tel.archives-ouvertes.fr/tel-00866378.

Full text
Abstract:
Les systèmes assemble-to-order (ATO) peuvent être considérés comme une affectation de ressources multiples qui induit planification de production, satisfaction des contraintes et affectation des stocks. Les systèmes ATO représentent une stratégie de logistique populaire utilisée en gestion de fabrication. En raison de la complexité croissante des systèmes de fabrication d'aujourd'hui, le défi pour les systèmes ATO est de gérer efficacement les stocks de composants et de trouver les décisions optimales de production et d'affectation.Nous étudions un système ATO avec un produit unique qui est assemblé à partir de plusieurs composants. Le système doit répondre à une demande non seulement du produit assemblé, mais aussi des composants individuels. Nous considérons le cas avec seulement des lost sales puis le cas mixte lost sales et backorders avec des temps de production suivant des lois de type exponentiel et une demande sous forme de loi de Poisson. Nous formulons le problème comme un Processus de décision markovien (MDP), et nous considérons deux critères d'optimalité qui sont le coût actualisé et le coût moyen par période. Nous caractérisons la structure de la politique optimale et étudions l'impact des différents paramètres du système sur cette politique. Nous présentons également plusieurs heuristiques pour le cas lost sales et le cas mixte lost sales et backorders. Ces heuristiques fournissent des méthodes simples, mais efficaces pour contrôler la production et l'affectation des stocks du système ATO
APA, Harvard, Vancouver, ISO, and other styles
32

Fang, Jianxin. "Analyse et algorithmes de résolution de systèmes ATO (Assemble-To-Order) : Applications aux systèmes du type W." Thesis, Ecole centrale de Lille, 2017. http://www.theses.fr/2017ECLI0012/document.

Full text
Abstract:
Nous analysons un type W de système de l’Assemble-à-commande avec des délais de livraison aléatoires, l'arrivée aléatoire de la demande et des ventes perdues, en temps continu. Nous formulons le problème en tant que processus de décision Markov à l'horizon infini. Nous nous éloignons de l'approche standard en caractérisant une région de l'espace d'état où toutes les propriétés de la fonction de coût tiennent. Nous caractérisons la politique optimale dans cette région. En particulier, nous montrons que, dans l'intérieur de la région récurrente, les composants sont toujours produits. Nous caractérisons également la politique d'allocation de composants optimale qui spécifie si une demande de produit arrivant devrait être remplie. Notre analyse révèle que la politique d'allocation optimale est contre-intuitive. Par exemple, même lorsqu'un produit domine l'autre, en termes de coût/taux de vente perdue, sa demande peut ne pas avoir une priorité absolue par rapport à la demande de l'autre produit. Une telle caractéristique n'a pas été observée dans de nombreux paramètres intégrés de production/inventaire où l'allocation d'inventaire suit une priorité fixe pour satisfaire les exigences. Nous montrons également que la structure de la politique optimale reste la même pour les systèmes à production par lots, les temps de production répartis par Erlang et la demande de produits non unitaire. Enfin, nous proposons des heuristiques efficaces qui peuvent être utilisées comme substitut à la politique optimale ou peuvent être utilisées comme une politique de départ pour les algorithmes communs utilisés pour obtenir une politique optimale dans le but de réduire leur temps de calcul
We analyze a W-configuration assemble-to-order system with random lead times, random arrival of demand, and lost sales, in continuous time. We formulate the problem as an infinite-horizon Markov decision process. We deviate from the standard approach by first characterizing a region (the recurrent region) of the state space where all properties of the cost function hold. We then characterize the optimal policy within this region. In particular, we show that within the interior of the recurrent region components are always produced. We also characterize the optimal component allocation policy which specifies whether an arriving product demand should be fulfilled. Our analysis reveals that the optimal allocation policy is counter-intuitive. For instance, even when one product dominates the other, in terms of lost sale cost and lost sale cost rate (i.e., demand rate times the lost sale cost), its demand may not have absolute priority over the other product’s demand. Such a feature has not been observed in many integrated production/inventory settings where inventory allocation follows a fixed priority in satisfying demands. We also show that the structure of the optimal policy remains the same for systems with batch production, Erlang distributed production times, and non-unitary product demand. Finally, we propose efficient heuristics that can be either used as a substitute for the optimal policy or can be used as a starting policy for the common algorithms that are used to obtain the optimal policy in an effort to reduce their computational time
APA, Harvard, Vancouver, ISO, and other styles
33

Aupetit, Sébastien. "Contributions aux Modèles de Markov Cachés : métaheuristiques d'apprentissage, nouveaux modèles et visualisation de dissimilarité." Phd thesis, Université François Rabelais - Tours, 2005. http://tel.archives-ouvertes.fr/tel-00168392.

Full text
Abstract:
Dans ce travail de thèse, nous présentons plusieurs contributions visant à améliorer l'utilisation des modèles de Markov cachés (MMC) dans les systèmes d'intelligence artificielle. Nous nous sommes concentrés sur trois objectifs : l'amélioration de l'apprentissage de MMC, l'expérimentation d'un nouveau type de MMC et la visualisation de dissimilarité pour mieux comprendre les interactions entre MMC. Dans la première partie, nous proposons, évaluons et comparons plusieurs nouvelles applications
de métaheuristiques biomimétiques classiques (les algorithmes génétiques, l'algorithme de fourmis artificielles API et l'optimisation par essaim particulaire) au problème de l'apprentissage de MMC. Dans la
deuxième partie, nous proposons un nouveau type de modèle de Markov caché, appelé modèle Markov caché à substitutions de symboles (MMCSS). Un MMCSS permet d'incorporer des connaissances a priori dans le processus d'apprentissage et de reconnaissance. Les premières expérimentations de ces modèles sur des images démontrent leur intérêt. Dans la troisième partie, nous proposons une nouvelle méthode de représentation de dissimilarité appelée matrice de scatterplots pseudo-euclidienne (MSPE), permettant de mieux comprendre les interactions entre des MMC. Cette MSPE est construite à partir
d'une technique que nous nommons analyse en composantes principales à noyau indéfini (ACPNI). Nous terminons par la présentation de la bibliothèque HMMTK, développée au cours de ce travail. Cette dernière intègre des mécanismes de parallélisation et les algorithmes développés au cours de la thèse.
APA, Harvard, Vancouver, ISO, and other styles
34

Stan, Oana. "Placement of tasks under uncertainty on massively multicore architectures." Thesis, Compiègne, 2013. http://www.theses.fr/2013COMP2116/document.

Full text
Abstract:
Ce travail de thèse de doctorat est dédié à l'étude de problèmes d'optimisation combinatoire du domaine des architectures massivement parallèles avec la prise en compte des données incertaines tels que les temps d'exécution. On s'intéresse aux programmes sous contraintes probabilistes dont l'objectif est de trouver la meilleure solution qui soit réalisable avec un niveau de probabilité minimal garanti. Une analyse quantitative des données incertaines à traiter (variables aléatoires dépendantes, multimodales, multidimensionnelles, difficiles à caractériser avec des lois de distribution usuelles), nous a conduit à concevoir une méthode qui est non paramétrique, intitulée "approche binomiale robuste". Elle est valable quelle que soit la loi jointe et s'appuie sur l'optimisation robuste et sur des tests d'hypothèse statistique. On propose ensuite une méthodologie pour adapter des algorithmes de résolution de type approchée pour résoudre des problèmes stochastiques en intégrant l'approche binomiale robuste afin de vérifier la réalisabilité d'une solution. La pertinence pratique de notre démarche est enfin validée à travers deux problèmes issus de la compilation des applications de type flot de données pour les architectures manycore. Le premier problème traite du partitionnement stochastique de réseaux de processus sur un ensemble fixé de nœuds, en prenant en compte la charge de chaque nœud et les incertitudes affectant les poids des processus. Afin de trouver des solutions robustes, un algorithme par construction progressive à démarrages multiples a été proposé ce qui a permis d'évaluer le coût des solution et le gain en robustesse par rapport aux solutions déterministes du même problème. Le deuxième problème consiste à traiter de manière globale le placement et le routage des applications de type flot de données sur une architecture clustérisée. L'objectif est de placer les processus sur les clusters en s'assurant de la réalisabilité du routage des communications entre les tâches. Une heuristique de type GRASP a été conçue pour le cas déterministe, puis adaptée au cas stochastique clustérisé
This PhD thesis is devoted to the study of combinatorial optimization problems related to massively parallel embedded architectures when taking into account uncertain data (e.g. execution time). Our focus is on chance constrained programs with the objective of finding the best solution which is feasible with a preset probability guarantee. A qualitative analysis of the uncertain data we have to treat (dependent random variables, multimodal, multidimensional, difficult to characterize through classical distributions) has lead us to design a non parametric method, the so-called "robust binomial approach", valid whatever the joint distribution and which is based on robust optimization and statistical hypothesis testing. We also propose a methodology for adapting approximate algorithms for solving stochastic problems by integrating the robust binomial approach when verifying for solution feasibility. The paractical relevance of our approach is validated through two problems arising in the compilation of dataflow application for manycore platforms. The first problem treats the stochastic partitioning of networks of processes on a fixed set of nodes, by taking into account the load of each node and the uncertainty affecting the weight of the processes. For finding stochastic solutions, a semi-greedy iterative algorithm has been proposed which allowed measuring the robustness and cost of the solutions with regard to those for the deterministic version of the problem. The second problem consists in studying the global placement and routing of dataflow applications on a clusterized architecture. The purpose being to place the processes on clusters such that it exists a feasible routing, a GRASP heuristic has been conceived first for the deterministic case and afterwards extended for the chance constrained variant of the problem
APA, Harvard, Vancouver, ISO, and other styles
35

Tran, Tuan Tu. "Comparaisons de séquences biologiques sur architecture massivement multi-cœurs." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00832663.

Full text
Abstract:
Rechercher les similarités entre séquences est une opération fondamentale en bioinformatique, que cela soit pour étudier des questions biologiques ou bien pour traiter les données issues de séquenceurs haut-débit. Il y a un vrai besoin d'algorithmes capables de traiter des millions de séquences rapidement. Pour trouver des similarités approchées, on peut tout d'abord considérer de petits mots exacts présents dans les deux séquences, les graines, puis essayer d'étendre les similarités aux voisinages de ces graines. Cette thèse se focalise sur la deuxième étape des heuristiques à base de graines : comment récupérer et comparer efficacement ces voisinages des graines, pour ne garder que les bons candidats ? La thèse explore différentes solutions adaptées aux processeurs massivement multicoeurs: aujourd'hui, les GPUs sont en train de démocratiser le calcul parallèle et préparent les processeurs de demain. La thèse propose des approches directes (extension de l'algorithme bit-parallèle de Wu-Manber, publiée à PBC 2011, et recherche dichotomique) ou bien avec un index supplémentaire (utilisation de fonctions de hash parfaites). Chaque solution a été pensée pour tirer le meilleur profit des architectures avec un fort parallélisme à grain fin, en utilisant des calculs intensifs mais homogènes. Toutes les méthodes proposées ont été implémentés en OpenCL, et comparées sur leur temps d'exécution. La thèse se termine par un prototype de read mapper parallèle, MAROSE, utilisant ces concepts. Dans certaines situations, MAROSE est plus rapide que les solutions existantes avec une sensibilité similaire.
APA, Harvard, Vancouver, ISO, and other styles
36

Renaud-Goud, Paul. "Energy-aware scheduling : complexity and algorithms." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2012. http://tel.archives-ouvertes.fr/tel-00744247.

Full text
Abstract:
In this thesis we have tackled a few scheduling problems under energy constraint, since the energy issue is becoming crucial, for both economical and environmental reasons. In the first chapter, we exhibit tight bounds on the energy metric of a classical algorithm that minimizes the makespan of independent tasks. In the second chapter, we schedule several independent but concurrent pipelined applications and address problems combining multiple criteria, which are period, latency and energy. We perform an exhaustive complexity study and describe the performance of new heuristics. In the third chapter, we study the replica placement problem in a tree network. We try to minimize the energy consumption in a dynamic frame. After a complexity study, we confirm the quality of our heuristics through a complete set of simulations. In the fourth chapter, we come back to streaming applications, but in the form of series-parallel graphs, and try to map them onto a chip multiprocessor. The design of a polynomial algorithm on a simple problem allows us to derive heuristics on the most general problem, whose NP-completeness has been proven. In the fifth chapter, we study energy bounds of different routing policies in chip multiprocessors, compared to the classical XY routing, and develop new routing heuristics. In the last chapter, we compare the performance of different algorithms of the literature that tackle the problem of mapping DAG applications to minimize the energy consumption.
APA, Harvard, Vancouver, ISO, and other styles
37

Faucher, Félix. "Le récit comme outil heuristique." Mémoire, 2013. http://www.archipel.uqam.ca/5426/1/M12914.pdf.

Full text
Abstract:
L'objet de cette recherche est le récit, une perspective du récit en tant qu'outil heuristique. Ce terme est une traduction libre de la notion de « object-to-think-with » développée par Seymour Papert à l'intérieur de sa théorie de l'apprentissage en syntonie, elle-même faisant partie du « constructionnisme », théorie de l'apprentissage dérivée du constructivisme de Jean Piaget avec lequel Papert a travaillé. L'outil heuristique est compris ici comme un artefact cognitif aidant la compréhension, la découverte et l'apprentissage. L'argument principal de ce mémoire est que le récit permet d'articuler la connaissance à l'expérience de laquelle celle-ci est abstraite. En plus de la contribution majeure de Papert, cette recherche s'appuie sur les sciences cognitives, la psychologie du développement et les théories expérientielles de l'apprentissage. Sont mises à contribution : les idées de Donald Norman sur les artefacts cognitifs, celles de Lev Vygostky au sujet de la relation entre « concept spontané » et « concept scientifique » dans le cadre de son socioconstructivisme ainsi que l'articulation que John Dewey prône entre expérience et connaissance au moment de la transmission du savoir. Ce mémoire documente également le parcours de recherche qui y a mené. Cette démarche est conséquente avec les sujets abordés, il s'agit d'un parcours heuristique. Dans une suite éventuelle des travaux présentés dans le présent document il est considéré de supplémenter les théories mentionnées ci-haut avec les neurosciences et la phénoménologie. Plutôt que de considérer le récit à partir de l'ontologie d'un médium comme la littérature, le cinéma ou l'ordinateur, l'approche proposée ici place le point de vue du côté des attributs humains. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : récit, artefacts cognitifs, apprentissage, bricolage théorique.
APA, Harvard, Vancouver, ISO, and other styles
38

Piédalue, Carole. "Transformer l'image en art-thérapie : exploration heuristique du processus de transformation de l'image comme outil thérapeutique dans le développement de la résilience." Thesis, 2005. http://spectrum.library.concordia.ca/8677/1/MR52322.pdf.

Full text
Abstract:
Cette recherche porte sur l'étude d'un modèle de transformation intentionnelle de l'image en art-thérapie ayant pour but de favoriser le développement d'un processus de résilience suite à un traumatisme. Elle propose une exploration détaillée des processus artistiques qui ont cours lors de la transformation volontaire d'images. La méthodologie de recherche s'inspire du modèle heuristique défini par Moustakas (1990), puisque la présente investigation prend comme objet premier d'investigation l'étude d'images, créées par la chercheuse, ayant un lien direct ou indirect avec une situation traumatique. L'opposition dialectique à l'oeuvre dans chacun des quatre thèmes qui ont émergés lors de la recherche, et le mouvement oscillatoire qui a prévalu, ont permis d'identifier l'existence d'une réalité duelle présente dans le processus transformationnel des images. Cette réalité duelle trouve une concordance exemplaire dans l'examen approfondi de la littérature scientifique portant sur le sujet de la résilience. On démontre en effet que le processus de résilience menant à la résolution d'un traumatisme comportent deux aspects indissociables, à savoir la destruction et la reconstruction. Les conclusions de l'auteure relatives à cette modalité de transformation volontaire de l'image en art-thérapie apportent des considérations significatives pour le développement de la recherche et de la pratique concernant le processus de résilience.
APA, Harvard, Vancouver, ISO, and other styles
39

Beaulac, Guillaume. "A two speed mind? : for a heuristic interpretation of dual-process theories = L'esprit à deux vitesses? : pour une interprétation heuristique des théories à processus duaux." Mémoire, 2010. http://www.archipel.uqam.ca/3774/1/M11846.pdf.

Full text
Abstract:
Ce mémoire est consacré aux théories à processus duaux, abondamment discutées dans la littérature récente en sciences cognitives. L'auteur y propose une version fortement amendée de l'approche défendue par Samuels (2009), remplaçant la distinction entre 'Systèmes' par une distinction entre 'Types de processus', qui permet de critiquer à la fois les approches (uniquement) modularistes et les approches décrivant une différence profonde entre deux systèmes ayant chacun leurs spécificités (fonctionnelles, phénoménologiques, neurologiques). Cependant, dans la version des théories à processus duaux défendue ici, la distinction entre 'Types de processus' n'est considérée a priori que comme une distinction heuristique permettant aux chercheuses et chercheurs de mieux comprendre l'esprit et d'en expliquer certaines propriétés. L'idée centrale défendue dans ce mémoire est que les processus cognitifs devraient y être distingués selon leur position dans un espace conceptuel multidimensionnel permettant de considérer l'ensemble des caractéristiques et des spécificités attribuées à un processus, cela étant préférable à les forcer dans l'un ou l'autre des 'Systèmes' ou des 'Types' identifiés dans les approches les plus influentes (cf. Evans, 2008). Une fois ce programme de recherche entamé, il sera alors possible de réviser la définition des concepts et des catégories utilisés pour refonder certaines notions présentes dans la littérature ('module', 'Système 1/2', etc.). L'argument se déroule en trois temps: 1) Le premier chapitre vise à clarifier la notion de 'module' très utilisée en sciences cognitives. Contre les approches visant à affaiblir cette notion afin que tous les processus de l'esprit soient considérés comme étant des modules, l'auteur - suivant notamment Faucher et Poirier (2009) et Samuels (2006) - jette le doute sur l'emploi qui est fait de cette notion par plusieurs auteurs très influents, notamment en psychologie évolutionniste (par exemple, Barrett, Carruthers, Cosmides, Tooby). 2) L'objectif du second chapitre est de présenter, examiner et critiquer plusieurs théories à processus duaux et de suggérer qu'aucune théorie actuellement discutée n'est adéquate pour décrire l'architecture de l'esprit. Les approches, particulièrement influentes ou représentatives, défendues par Stanovich (1999; 2004; 2009), par Evans (2008; 2009), par Lieberman (2007; 2009) et par Carruthers (2006; 2009) y sont abordées. 3) Dans le troisième chapitre, l'auteur critique le cadre développé par Samuels (2009), puis développe son approche des théories à processus duaux en montrant certains de ses avantages. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : philosophie des sciences, sciences cognitives, psychologie, neurosciences, théorie à processus duaux, modularité, module, heuristique, biais, pensée critique, naturalisme.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography