Dissertations / Theses on the topic 'Intelligence relationnelle'

To see the other types of publications on this topic, follow the link: Intelligence relationnelle.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 38 dissertations / theses for your research on the topic 'Intelligence relationnelle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Perrin, Guillaume. "Coexistence des territoires : l'espace physique à l'épreuve du virtuel : Une approche relationnelle cybermétrique issue d'une démarche d'intelligence territoriale." Phd thesis, Université du Sud Toulon Var, 2010. http://tel.archives-ouvertes.fr/tel-00522519.

Full text
Abstract:
L'émergence des nouvelles technologies de l'information et de la communication, des systèmes d'intelligence et des usages qui se profilent, a engendré de profondes mutations organisationnelles. Elles touchent toutes, de près ou de loin, la relation de l'ensemble des acteurs et impactent les territoires sur lesquels ils reposent. Afin de déterminer les phénomènes, de les appréhender et de les représenter, il convient d'établir des indicateurs d'immersion de l'information au sein des territoires qui s'en trouvent ainsi bouleversés. Il apparaît opportun d'établir comment l'espace se réorganise et se redéfini, quelles sont les influences de l'espace physique sur le domaine informationnel, et comment l'espace virtuel peut à son tour, impacter les territoires physiques. Nous nous attachons à déterminer les nouveaux assemblages de territoires, les combinaisons et les interactions qui sont opérés entre les territoires physiques et les nouveaux territoires virtuels constitués. Des initiatives surgissent, qui visent à régir les espaces et envisager les usages, mais le manque de réelle coordination, la dépendance aux avancées technologiques, l'absence de clairvoyance ou bien encore de vision globale, endiguent les aboutissements constructifs qui pourraient sourdre d'une réelle cohésion. L'apport de l'intelligence territoriale, couplée à l'adoption et à la maîtrise d'analyses cybermétriques, nous permet d'aborder le sujet dans ses caractéristiques relationnelles, à la fois entre les différents espaces, mais également par l'étude plus précise du lien au sein même de ces territoires. Tout ceci afin de contribuer à approfondir et à projeter : quels territoires pour aujourd'hui et pour demain ?
APA, Harvard, Vancouver, ISO, and other styles
2

Zinsou, Omer. "Etude et mise en oeuvre d'un modeleur surfacique d'objets tridimensionnels : intégration dans une base de données relationnelle." Compiègne, 1988. http://www.theses.fr/1988COMPD135.

Full text
Abstract:
Proposition d'un système global et interactif, appelé modeleur surfacique, permettant d'aborder la modélisation d'objets complexes sous un angle plus guidé et fonctionnel contrairement à la plupart des systèmes classiques qui sont séquentiels et automatiques. Sont utilisés un ensemble de contours (planes ou gauches, ouvertes ou fermes, parallèles ou non) et la théorie des B-splines pour la création interactive de formes nouvelles ou la reconstruction interactive de formes existantes.
APA, Harvard, Vancouver, ISO, and other styles
3

Combes, Victor. "Management mutualiste : la fin d'un oxymore ?" Thesis, Paris, HESAM, 2022. http://www.theses.fr/2022HESAC005.

Full text
Abstract:
Les organisations mutualistes font partie de l’Economie Sociale et Solidaire, qui porte l’ambition d’une alternative face au modèle capitaliste dominant, malgré des pratiques hétérogènes et une banalisation galopante. Le management mutualiste, encore peu conceptualisé, est l’objet d’une thèse CIFRE au sein d’un groupe mutualiste français. Dans le cadre d’un positionnement épistémologique interprétativiste, notre travail empirique, sous-tendu par trois méthodes de collecte de données, s’est focalisé sur le suivi et l’analyse des effets d’un dispositif fondé sur le codéveloppement et proposé aux managers de ce groupe mutualiste. Il révèle un isomorphisme managérial en décalage avec la dynamique de l’alter souhaitée et prônée par les organisations mutualistes. Ce travail fait émerger : un apport conceptuel autour de l’intelligence relationnelle, des recommandations autour d’un management mutualiste, et la proposition d’un nouveau dispositif au service d’une culture mutualiste repensée
Mutualist organizations are part of the Social and Solidarity Economy, which carries the ambition of an alternative to the dominant capitalist model, despite heterogeneous practices and galloping trivialization. Mutualist management, still little conceptualized, is the subject of a CIFRE thesis within a French mutualist group. Within the framework of an interpretative epistemological position, our empirical work, underpinned by three data collection methods, focused on the monitoring and analysis of the effects of a system based on co-development and proposed to managers from this mutualist group. It reveals a managerial isomorphism that is out of step with the dynamics of the alter desired and advocated by mutual organizations. This work brings out: a conceptual contribution around relational intelligence, recommendations around a mutualist management, and the proposal of a new device for a redesigned mutualist culture
APA, Harvard, Vancouver, ISO, and other styles
4

Curé, Olivier. "Siam : système intéractif d'automédication multimédia." Paris 5, 1999. http://www.theses.fr/1999PA05S019.

Full text
Abstract:
Le projet SIAM (système interactif d'automédication multimédia) est destiné au grand public et a pour objectif de rendre opérationnel sur internet un outil multimédia d'automédication, c'est-à-dire une aide à la proposition de médicaments à partir de l'identification d'un symptôme patient. La réalisation d'une telle application comporte les aspects suivants : - représentation des connaissances médicales et pharmacologiques utiles. - conception et réalisation de l'interface utilisateur sur internet. - mise à disposition de l'utilisateur de modules pertinents d'explication médicale. La représentation des connaissances fait appel à des disciplines variées telles que l'intelligence artificielle (IA), les sciences cognitives, ou les bases de connaissances et de données. Nous sommes tenus de traiter à la fois les aspects cliniques et thérapeutiques de cette application. Pour ce faire, notre système réalisé un lien entre les symptômes et les médicaments de façon a pouvoir conseiller l'utilisateur. Pour exploiter correctement sur le web d'internet une base d'environ 1500 médicaments et plusieurs dizaines de symptômes, nous avons choisi comme mode de représentation des connaissances une base de données relationnelle orientée système expert (SE), solution qui nous parait bien adaptée à l'important volume d'information qu'il convient de traiter. Les caractéristiques de ce système destiné au grand public, c'est-à-dire à un ensemble d'utilisateurs peu familiers aussi bien du domaine médical que de la navigation sur internet, induisent de très nombreuses contraintes sur la conception de l'interface d'utilisation. Celle-ci se distingue par une présentation constante sur toutes les pages du site, par la mise en œuvre d'un thesaurus et par un mode binaire de questions / réponses. L'un des intérêts principaux de ce système pour le grand public est de fournir des listes de médicaments disponibles sans ordonnance. Une place de choix est ainsi faite aux médicaments dits OTC (over the counter) ainsi qu'à l'automédication, en collaboration étroite avec les professionnels de la sante. Le système ainsi réalisé, par les avantages multiples qu'il procure à l'utilisateur, démontre l'intérêt que présente le développement sur internet d'outils d'aide à l'utilisation de médicaments.
APA, Harvard, Vancouver, ISO, and other styles
5

Mouaddib, Noureddine. "Gestion des informations nuancées : une proposition de modèle et de méthode pour l'identification nuancée d'un phénomène." Nancy 1, 1989. http://www.theses.fr/1989NAN10475.

Full text
Abstract:
Cette thèse présente une solution globale au problème de l'identification d'un phénomène ou d'un objet mal défini dans un domaine d'application décrit par des connaissances nuancées. Cette solution comprend trois éléments: un modèle de représentation des connaissances nuancées, une méthode de détermination des objets ressemblant au phénomène à identifier, un processus d'identification dans un système possédant une base de données multimédia. Le modèle de représentation des connaissances présente les particularités suivantes: une ou plusieurs nuances, exprimées en langue naturelle, peuvent être associés à chacune des valeurs prise par un caractère d'un objet, à chaque domaine de définition discret de caractère peut être associé un micro-thésaurus dont les liens (généricité, synonymie, opposition) peuvent être munis de coefficients exprimant certaines distances sémantiques entre les termes, des poids d'importance ou de confiance peuvent être associés à chaque caractère aussi bien dans la description des objets de référence que dans la description du phénomène à identifier. La méthode d'identification repose sur la théorie des possibilités dont nous avons assoupli l'application en diminuant le nombre de fonctions caractéristiques à fournir, par le spécialiste du domaine d'application, grâce à l'introduction d'heuristiques permettant soit de les générer à partir des micro-thérausus soit de les calculer à partir d'autres déjà définies par composition ou par transformation. Le processus d'identification permet une identification interactive et progressive au cours de laquelle alternent des phases de filtrage, d'affichage de résultats, d'observation d'images et de consultation de textes. En cas d'échec, nous proposons une stratégie de retour-arrière qui s'appuie sur les poids des caractères.
APA, Harvard, Vancouver, ISO, and other styles
6

Rodrigues, Christophe. "Apprentissage incrémental des modèles d'action relationnels." Paris 13, 2013. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_rodrigues.pdf.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'apprentissage artificiel pour l'action. Nous nous situons à l'intersection de l'apprentissage par renforcement (AR) et de la programmation logique inductive (PLI). Nous étudions plus précisément l'apprentissage de modèles d'actions. Un modèle d'action décrit les conditions et effets des actions possibles dans un environnement. Il permet d'anticiper les conséquences des actions d'un agent et peut aussi être utilisé par un planificateur. Nous nous intéressons en particulier à une représentation relationnelle des environnements. Nous décrivons alors les états et les actions à l'aide d'objets et de relations entre les différents objets qui les composent. Nous présentons la méthode IRALe apprennant de façon incrémentale des modèles d'action relationnels. Nous commençons par supposer que les états sont entièrement observables et que les conséquences des actions sont déterministes. Nous apportons une preuve de convergence pour cette méthode. Ensuite, nous développons une approche d'exploration active qui essaye de focaliser l'expérience de l'agent sur des actions supposées non couvertes par le modèle. Enfin, nous généralisons l'approche en introduisant une perception de l'environnement bruitée afin de rendre plus réaliste notre cadre d'apprentissage. Pour chaque approche, nous illustrons empiriquement son intérêt sur plusieurs problèmes de planification. Les résultats obtenus montrent que le nombre d'interactions nécessaires avec les environnements est très faible comparé à la taille des espaces d'états considérés. De plus, l'apprentissage actif permet d'améliorer significativement ces résultats
In this thesis, we study machine learning for action. Our work both covers reinforcement learning (RL) and inductive logic programming (ILP). We focus on learning action models. An action model describes the preconditions and effects of possible actions in an environment. It enables anticipating the consequences of the agent’s actions and may also be used by a planner. We specifically work on a relational representation of environments. They allow to describe states and actions by the means of objects and relations between the various objects that compose them. We present the IRALe method, which learns incrementally relational action models. First, we presume that states are fully observable and the consequences of actions are deterministic. We provide a proof of convergence for this method. Then, we develop an active exploration approach which allows focusing the agent’s experience on actions that are supposedly non-covered by the model. Finally, we generalize the approach by introducing a noisy perception of the environment in order to make our learning framework more realistic. We empirically illustrate each approach’s importance on various planification problems. The results obtained show that the number of interactions necessary with the environments is very weak compared to the size of the considered states spaces. Moreover, active learning allows to improve significantly these results
APA, Harvard, Vancouver, ISO, and other styles
7

Loubier, Eloïse. "Analyse et visualisation de données relationnelles par morphing de graphe prenant en compte la dimension temporelle." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00423655.

Full text
Abstract:
Avec la mondialisation, l'entreprise doit faire face aux menaces de plus en plus fortes de la concurrence et à l'accélération des flux d'information. Pour cela, elle est amenée à rester continuellement informée des innovations, des stratégies de la concurrence et de l'état du marché tout en gardant la maîtrise de son environnement. Le développement d'Internet et la globalisation ont à la fois renforcé cette exigence, et fourni les moyens de collecter l'information qui, une fois synthétisée, prend souvent une forme relationnelle. Pour analyser le relationnel, le recours à la visualisation par des graphes apporte un réel confort aux utilisateurs, qui, de façon intuitive, peuvent s'approprier une forme de connaissance difficile à appréhender autrement.
Nos travaux conduisent à l'élaboration des techniques graphiques permettant la compréhension des activités humaines, de leurs interactions mais aussi de leur évolution, dans une perspective décisionnelle. Nous concevons un outil alliant simplicité d'utilisation et précision d'analyse se basant sur deux types de visualisations complémentaires : statique et dynamique.
L'aspect statique de notre modèle de visualisation repose sur un espace de représentation, dans lequel les préceptes de la théorie des graphes sont appliqués. Le recours à des sémiologies spécifiques telles que le choix de formes de représentation, de granularité, de couleurs significatives permet une visualisation plus juste et plus précise de l'ensemble des données. L'utilisateur étant au cœur de nos préoccupations, notre contribution repose sur l'apport de fonctionnalités spécifiques, qui favorisent l'identification et l'analyse détaillée de structures de graphes. Nous proposons des algorithmes qui permettent de cibler le rôle des données au sein de la structure, d'analyser leur voisinage, tels que le filtrage, le k-core, la transitivité, de retourner aux documents sources, de partitionner le graphe ou de se focaliser sur ses spécificités structurelles.
Une caractéristique majeure des données stratégiques est leur forte évolutivité. Or l'analyse statistique ne permet pas toujours d'étudier cette composante, d'anticiper les risques encourus, d'identifier l'origine d'une tendance, d'observer les acteurs ou termes ayant un rôle décisif au cœur de structures évolutives.
Le point majeur de notre contribution pour les graphes dynamiques représentant des données à la fois relationnelles et temporelles, est le morphing de graphe. L'objectif est de faire ressortir les tendances significatives en se basant sur la représentation, dans un premier temps, d'un graphe global toutes périodes confondues puis en réalisant une animation entre les visualisations successives des graphes attachés à chaque période. Ce procédé permet d'identifier des structures ou des événements, de les situer temporellement et d'en faire une lecture prédictive.
Ainsi notre contribution permet la représentation des informations, et plus particulièrement l'identification, l'analyse et la restitution des structures stratégiques sous jacentes qui relient entre eux et à des moments donnés les acteurs d'un domaine, les mots-clés et concepts qu'ils utilisent.
APA, Harvard, Vancouver, ISO, and other styles
8

Saleh, Imad. "Rapport entre les bases de données relationnelles et l'intelligence artificielle : étude et conception du modèle H-Relation." Paris, EHESS, 1990. http://www.theses.fr/1990EHES0057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Loubier, Éloïse. "Analyse et visualisation de données relationnelles par morphing de graphe prenant en compte la dimension temporelle." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/2264/.

Full text
Abstract:
Avec la mondialisation, l'entreprise doit faire face aux menaces de plus en plus fortes de la concurrence et à l'accélération des flux d'information. Pour cela, elle est amenée à rester continuellement informée des innovations, des stratégies de la concurrence et de l'état du marché tout en gardant la maîtrise de son environnement. Le développement d'Internet et la globalisation ont à la fois renforcé cette exigence, et fourni les moyens de collecter l'information qui, une fois synthétisée, prend souvent une forme relationnelle. Pour analyser le relationnel, le recours à la visualisation par des graphes apporte un réel confort aux utilisateurs, qui, de façon intuitive, peuvent s'approprier une forme de connaissance difficile à appréhender autrement. Nos travaux conduisent à l'élaboration des techniques graphiques permettant la compréhension des activités humaines, de leurs interactions mais aussi de leur évolution, dans une perspective décisionnelle. Nous concevons un outil alliant simplicité d'utilisation et précision d'analyse se basant sur deux types de visualisations complémentaires : statique et dynamique. L'aspect statique de notre modèle de visualisation repose sur un espace de représentation, dans lequel les préceptes de la théorie des graphes sont appliqués. Le recours à des sémiologies spécifiques telles que le choix de formes de représentation, de granularité, de couleurs significatives permet une visualisation plus juste et plus précise de l'ensemble des données. L'utilisateur étant au cœur de nos préoccupations, notre contribution repose sur l'apport de fonctionnalités spécifiques, qui favorisent l'identification et l'analyse détaillée de structures de graphes. Nous proposons des algorithmes qui permettent de cibler le rôle des données au sein de la structure, d'analyser leur voisinage, tels que le filtrage, le k-core, la transitivité, de retourner aux documents sources, de partitionner le graphe ou de se focaliser sur ses spécificités structurelles. Une caractéristique majeure des données stratégiques est leur forte évolutivité. Or l'analyse statistique ne permet pas toujours d'étudier cette composante, d'anticiper les risques encourus, d'identifier l'origine d'une tendance, d'observer les acteurs ou termes ayant un rôle décisif au cœur de structures évolutives. Le point majeur de notre contribution pour les graphes dynamiques représentant des données à la fois relationnelles et temporelles, est le morphing de graphe. L'objectif est de faire ressortir les tendances significatives en se basant sur la représentation, dans un premier temps, d'un graphe global toutes périodes confondues puis en réalisant une animation entre les visualisations successives des graphes attachés à chaque période. Ce procédé permet d'identifier des structures ou des événements, de les situer temporellement et d'en faire une lecture prédictive. Ainsi notre contribution permet la représentation des informations, et plus particulièrement l'identification, l'analyse et la restitution des structures stratégiques sous jacentes qui relient entre eux et à des moments donnés les acteurs d'un domaine, les mots-clés et concepts qu'ils utilisent
With word wide exchanges, companies must face increasingly strong competition and masses of information flows. They have to remain continuously informed about innovations, competition strategies and markets and at the same time they have to keep the control of their environment. The Internet development and globalization reinforced this requirement and on the other hand provided means to collect information. Once summarized and synthesized, information generally is under a relational form. To analyze such a data, graph visualization brings a relevant mean to users to interpret a form of knowledge which would have been difficult to understand otherwise. The research we have carried out results in designing graphical techniques that allow understanding human activities, their interactions but also their evolution, from the decisional point of view. We also designed a tool that combines ease of use and analysis precision. It is based on two types of complementary visualizations: statics and dynamics. The static aspect of our visualization model rests on a representation space in which the precepts of the graph theory are applied. Specific semiologies such as the choice of representation forms, granularity, and significant colors allow better and precise visualizations of the data set. The user being a core component of our model, our work rests on the specification of new types of functionalities, which support the detection and the analysis of graph structures. We propose algorithms which make it possible to target the role of the data within the structure, to analyze their environment, such as the filtering tool, the k-core, and the transitivity, to go back to the documents, and to give focus on the structural specificities. One of the main characteristics of strategic data is their strong evolution. However the statistical analysis does not make it possible to study this component, to anticipate the incurred risks, to identify the origin of a trend, and to observe the actors or terms having a decisive role in the evolution structures. With regard to dynamic graphs, our major contribution is to represent relational and temporal data at the same time; which is called graph morphing. The objective is to emphasize the significant tendencies considering the representation of a graph that includes all the periods and then by carrying out an animation between successive visualizations of the graphs attached to each period. This process makes it possible to identify structures or events, to locate them temporally, and to make a predictive reading of it. Thus our contribution allows the representation of advanced information and more precisely the identification, the analysis, and the restitution of the underlying strategic structures which connect the actors of a domain, the key words, and the concepts they use; this considering the evolution feature
APA, Harvard, Vancouver, ISO, and other styles
10

Guénec, Nadège. "Méthodologies pour la création de connaissances relatives au marché chinois dans une démarche d'Intelligence Économique : application dans le domaine des biotechnologies agricoles." Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00554743.

Full text
Abstract:
Le décloisonnement des économies et l'accélération mondiale des échanges commerciaux ont, en une décennie à peine, transformés l'environnement concurrentiel des entreprises. La zone d'activités s'est élargie en ouvrant des nouveaux marchés à potentiels très attrayants. Ainsi en est-il des BRIC (Brésil, Russie, Inde et Chine). De ces quatre pays, impressionnants par la superficie, la population et le potentiel économique qu'ils représentent, la Chine est le moins accessible et le plus hermétique à notre compréhension de par un système linguistique distinct des langues indo-européennes d'une part et du fait d'une culture et d'un système de pensée aux antipodes de ceux de l'occident d'autre part. Pourtant, pour une entreprise de taille internationale, qui souhaite étendre son influence ou simplement conserver sa position sur son propre marché, il est aujourd'hui absolument indispensable d'être présent sur le marché chinois. Comment une entreprise occidentale aborde-t-elle un marché qui de par son altérité, apparaît tout d'abord comme complexe et foncièrement énigmatique ? Six années d'observation en Chine, nous ont permis de constater les écueils dans l'accès à l'information concernant le marché chinois. Comme sur de nombreux marchés extérieurs, nos entreprises sont soumises à des déstabilisations parfois inimaginables. L'incapacité à " lire " la Chine et à comprendre les enjeux qui s'y déroulent malgré des effets soutenus, les erreurs tactiques qui découlent d'une mauvaise appréciation du marché ou d'une compréhension biaisée des jeux d'acteurs nous ont incités à réfléchir à une méthodologie de décryptage plus fine de l'environnement d'affaire qui puisse offrir aux entreprises françaises une approche de la Chine en tant que marché. Les méthodes de l'Intelligence Economique (IE) se sont alors imposées comme étant les plus propices pour plusieurs raisons : le but de l'IE est de trouver l'action juste à mener, la spécificité du contexte dans lequel évolue l'organisation est prise en compte et l'analyse se fait en temps réel. Si une approche culturelle est faite d'interactions humaines et de subtilités, une approche " marché " est dorénavant possible par le traitement automatique de l'information et de la modélisation qui s'en suit. En effet, dans toute démarche d'Intelligence Economique accompagnant l'implantation d'une activité à l'étranger, une grande part de l'information à portée stratégique vient de l'analyse du jeu des acteurs opérants dans le même secteur d'activité. Une telle automatisation de la création de connaissance constitue, en sus de l'approche humaine " sur le terrain ", une réelle valeur ajoutée pour la compréhension des interactions entre les acteurs car elle apporte un ensemble de connaissances qui, prenant en compte des entités plus larges, revêtent un caractère global, insaisissable par ailleurs. La Chine ayant fortement développé les technologies liées à l'économie de la connaissance, il est dorénavant possible d'explorer les sources d'information scientifiques et techniques chinoises. Nous sommes en outre convaincus que l'information chinoise prendra au fil du temps une importance de plus en plus cruciale. Il devient donc urgent pour les organisations de se doter de dispositifs permettant non seulement d'accéder à cette information mais également d'être en mesure de traiter les masses d'informations issues de ces sources. Notre travail consiste principalement à adapter les outils et méthodes issues de la recherche française à l'analyse de l'information chinoise en vue de la création de connaissances élaborées. L'outil MATHEO, apportera par des traitements bibliométriques une vision mondiale de la stratégie chinoise. TETRALOGIE, outil dédié au data-mining, sera adapté à l'environnement linguistique et structurel des bases de données scientifiques chinoises. En outre, nous participons au développement d'un outil d'information retreival (MEVA) qui intègre les données récentes des sciences cognitives et oeuvrons à son application dans la recherche de l'information chinoise, pertinente et adéquate. Cette thèse étant réalisée dans le cadre d'un contrat CIFRE avec le Groupe Limagrain, une application contextualisée de notre démarche sera mise en œuvre dans le domaine des biotechnologies agricoles et plus particulièrement autour des enjeux actuels de la recherche sur les techniques d'hybridation du blé. L'analyse de ce secteur de pointe, qui est à la fois une domaine de recherche fondamentale, expérimentale et appliquée donne actuellement lieu à des prises de brevets et à la mise sur le marché de produits commerciaux et représente donc une thématique très actuelle. La Chine est-elle réellement, comme nous le supposons, un nouveau territoire mondial de la recherche scientifique du 21e siècle ? Les méthodes de l'IE peuvent-elles s'adapter au marché chinois ? Après avoir fourni les éléments de réponses à ces questions dans es deux premières parties de notre étude, nous poserons en troisième partie, le contexte des biotechnologies agricoles et les enjeux mondiaux en terme de puissance économico-financière mais également géopolitique de la recherche sur l'hybridation du blé. Puis nous verrons en dernière partie comment mettre en œuvre une recherche d'information sur le marché chinois ainsi que l'intérêt majeur en terme de valeur ajoutée que représente l'analyse de l'information chinoise
APA, Harvard, Vancouver, ISO, and other styles
11

Lakhal, Lotfi. "Contribution à l'étude des interfaces pour non-informaticien dans la manipulation de bases de données relationnelles." Nice, 1986. http://www.theses.fr/1986NICE4067.

Full text
Abstract:
Nous avons enrichi la sémantique du modèle relationnel par la définition d'un réseau sémantique associé aux chemins de requête potentiels. Pour contrôler la sémantique des questions posées, nous avons conçu un système de validation des requêtes relationnelles. Celle-ci propose à l'utilisateur: une traduction de sa requête dans d'autres langages relationnels; un paraphrasage de sa requête en langage pseudo-naturel
APA, Harvard, Vancouver, ISO, and other styles
12

Lebastard, Franck. "Driver : une couche objet virtuelle persistante pour le raisonnement sur les bases de données relationnelles." Lyon, INSA, 1993. http://www.theses.fr/1993ISAL0030.

Full text
Abstract:
Cette thèse présente DRIVER, une couche objet virtuelle persistante permet tant d'utiliser dans un même formalisme objet choisi aussi bien l'information contenue dans les bases de données relationnelles que la connaissance d'un système de plus haut niveau, comme notre générateur de Systèmes Experts SMECI. Un schéma de correspondances, défini par l'utilisateur, associe aux données des bases connectées une représentation objet qui permet de les manipuler et de les exploiter de façon absolument transparente dans l'environnement du système expert, notamment dans le cadre du raisonnement. DRIVER permet également d'apporter la persistance aux objets de l'environnement, au gré de l'utilisateur
This thesis presents DRIVER, a persistent virtual object layer, that permits to use, in a same chosen object formalism, both the information contained in relational databases and the knowledge of a higher-level system, such as our expert system shell SMECI. A user-defined mapping assigns an object representation to data of connected bases; it permits to handle and to utilize them exactly as other objects in the expert system environment, for example during reasoning. DRIVER can also supply some environment objects with persistence, according to user's wishes
APA, Harvard, Vancouver, ISO, and other styles
13

Augier, Sébastien. "Apprentissage Supervisé Relationnel par Algorithmes d'Évolution." Phd thesis, Université Paris Sud - Paris XI, 2000. http://tel.archives-ouvertes.fr/tel-00947322.

Full text
Abstract:
Cette thèse concerne l'apprentissage de règles relationnelles à partir d'exemples et de contre-exemples, à l'aide d'algorithmes évolutionnaires. Nous étudions tout d'abord un biais de langage offrant une expressivité suffisamment riche pour permettre de couvrir à la fois le cadre de l'apprentissage relationnel par interprétations et les formalismes propositionnels classiques. Bien que le coût de l'induction soit caractérisé par la complexité NP-difficile du test de subsomption pour cette classe de langages, une solution capable de traiter en pratique les problèmes réels complexes est proposée. Le système SIAO1, qui utilise ce biais de langage pour l'apprentissage de règles relationnelles est ensuite présenté. Il est fondé sur une stratégie de recherche évolutionnaire qui se distingue principalement des approches classiques par: - des opérateurs de mutation et de croisement dirigés par la théorie du domaine et par les exemples d'apprentissage; - le respect de la relation d'ordre définie sur le langage. L'évaluation du système sur plusieurs bases faisant référence en apprentissage automatique montre que SIAO1 est polyvalent, se compare favorablement aux autres approches et sollicite peu l'utilisateur en ce qui concerne la spécification de biais de recherche ou d'évaluation. La troisième partie de ce travail propose deux architectures parallèles génériques derivées des modèles maître-esclave asynchrone et du pipeline. Elles sont étudiées dans le cadre de l'extraction de connaissances à partir de données à l'aide de SIAO1 du point de vue de l'accélération qu'elles procurent d'une part et de leur capacité à changer d'échelle d'autre part. Un modèle de prédiction simple mais précis des performances de chacune des architectures parallèles est également proposé.
APA, Harvard, Vancouver, ISO, and other styles
14

Bosco, Michel. "Contribution à la spécification et à la conception de systèmes d'information intelligents pour le génie logiciel." Toulouse, ENSAE, 1988. http://www.theses.fr/1988ESAE0004.

Full text
Abstract:
Les logiciels sont fréquemment, aujourd'hui, des ensembles d'outils, des "ateliers" dont l'aspect intégré est un point fort: Cette intégration, est, le plus souvent, obtenue par l'utilisation d'un Système d'Information qui supporte les informations partagées par les outils. Nos travaux ont consisté à examiner quelles étaient aujourd'hui les lacunes des logiciels proposés pour construire des Systèmes d'Information et de définir certains concepts qu'il fallait leur ajouter. Nous avons aussi réalisé un prototype qui les implémente, en nous appuyant sur un système de gestion de bases de données relationnelles, un langage logique (Prolog), et un système de gestion de fichiers. Ce travail a pris le nom d'Impish, et s'inscrit dans le cadre du projet ESPRIT P938, "Integrated Management Process Workbench", dont l'objectif est de réaliser un atelier de gestion de projets logiciels.
APA, Harvard, Vancouver, ISO, and other styles
15

Rastin, Parisa. "Automatic and Adaptive Learning for Relational Data Stream Clustering." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD052.

Full text
Abstract:
Le travail de recherche exposé dans cette thèse concerne le développement d’approches d’apprentissage non-supervisé adaptés aux grands jeux de données relationnelles et dynamiques. La combinaison de ces trois caractéristiques (taille, complexité et évolution)constitue un défi majeur dans le domaine de l’exploration de données et peu de solutions satisfaisantes existent pour le moment, malgré les besoins de plus en plus manifestes des entreprises. C’est un véritable challenge, car les approches adaptées aux données relationnelle sont une complexité quadratique inadaptée à l’analyse de données dynamiques. Nous proposons ici deux approches complémentaires pour l’analyse de ce type de données. La première approche est capable de détecter des clusters bien séparés à partir d’un signal créé lors d’un réordonnancement incrémental de la matrice de dissimilarité, sans paramètre à choisir (par ex. le nombre de clusters). La seconde propose d’utiliser des points de support parmi les objets afin de construire un espace de représentation permettant de définir des prototypes représentatifs des clusters. Enfin, nous appliquons les approches proposées au profilage en temps réel d’utilisateurs connectés. Les tâches de profilage visent à reconnaître"l’état d’esprit" des utilisateurs à travers leurs navigations sur différents sites
The research work presented in this thesis concerns the development of unsupervised learning approaches adapted to large relational and dynamic data-sets. The combination of these three characteristics (size, complexity and evolution) is a major challenge in the field of data mining and few satisfactory solutions exist at the moment, despite the obvious needs of companies. This is a real challenge, because the approaches adapted to relational data have a quadratic complexity, unsuited to the analysis of dynamic data. We propose here two complementary approaches for the analysis of this type of data. The first approach is able to detect well-separated clusters from a signal created during an incremental reordering of the dissimilarity matrix, with no parameter to choose (e.g., the number of clusters). The second proposes to use support points among the objects in order to build a representation space to define representative prototypes of the clusters. Finally, we apply the proposed approaches to real-time profiling of connected users. Profiling tasks are designed to recognize the "state of mind" of users through their navigations on different web-sites
APA, Harvard, Vancouver, ISO, and other styles
16

Munch, Mélanie. "Améliorer le raisonnement dans l'incertain en combinant les modèles relationnels probabilistes et la connaissance experte." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASB011.

Full text
Abstract:
Cette thèse se concentre sur l'intégration des connaissances d'experts pour améliorer le raisonnement dans l'incertitude. Notre objectif est de guider l'apprentissage des relations probabilistes avec les connaissances d'experts pour des domaines décrits par les ontologies.Pour ce faire, nous proposons de coupler des bases de connaissances (BC) et une extension orientée objet des réseaux bayésiens, les modèles relationnels probabilistes (PRM). Notre objectif est de compléter l'apprentissage statistique par des connaissances expertes afin d'apprendre un modèle aussi proche que possible de la réalité et de l'analyser quantitativement (avec des relations probabilistes) et qualitativement (avec la découverte causale). Nous avons développé trois algorithmes à travers trois approches distinctes, dont les principales différences résident dans leur automatisation et l'intégration (ou non) de la supervision d'experts humains.L'originalité de notre travail est la combinaison de deux philosophies opposées : alors que l'approche bayésienne privilégie l'analyse statistique des données fournies pour raisonner avec, l'approche ontologique est basée sur la modélisation de la connaissance experte pour représenter un domaine. La combinaison de la force des deux permet d'améliorer à la fois le raisonnement dans l'incertitude et la connaissance experte
This thesis focuses on integrating expert knowledge to enhance reasoning under uncertainty. Our goal is to guide the probabilistic relations’ learning with expert knowledge for domains described by ontologies.To do so we propose to couple knowledge bases (KBs) and an oriented-object extension of Bayesian networks, the probabilistic relational models (PRMs). Our aim is to complement the statistical learning with expert knowledge in order to learn a model as close as possible to the reality and analyze it quantitatively (with probabilistic relations) and qualitatively (with causal discovery). We developped three algorithms throught three distinct approaches, whose main differences lie in their automatisation and the integration (or not) of human expert supervision.The originality of our work is the combination of two broadly opposed philosophies: while the Bayesian approach favors the statistical analysis of the given data in order to reason with it, the ontological approach is based on the modelization of expert knowledge to represent a domain. Combining the strenght of the two allows to improve both the reasoning under uncertainty and the expert knowledge
APA, Harvard, Vancouver, ISO, and other styles
17

Obenson, Philip. "Contribution à l'étude de l'impact de la logique des prédicats du premier ordre et de l'intelligence artificielle sur les bases de données relationnelles : Application aux bases de données bibliographiques." Université de Franche-Comté. UFR des sciences et techniques, 1987. http://www.theses.fr/1987BESA2014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Nica, Cristina. "Exploring sequential data with relational concept analysis." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD032/document.

Full text
Abstract:
De nombreuses méthodes d’extraction de motifs séquentiels ont été proposées pour découvrir des motifs utiles qui décrivent les données analysées. Certaines de ces travaux se sont concentrés sur l’énumération efficace de motifs partiellement ordonnés fermés (cpo-motifs), ce qui rend leur évaluation difficile pour les experts, car leur nombre peut être important. Par suite, nous proposons une approche nouvelle, qui consiste à extraire directement des cpo-motifs multi-niveaux qui sont organisés dans une hiérarchie. Nous proposons une méthode originale dans la cadre de l’Analyse Relationnelle de Concepts (ARC), appelée RCA-SEQ, qui exploite la structure et les propriétés des treillis issus de l’ARC. RCA-SEQ comporte cinq étapes : le prétraitement des données ; l'exploration par l’ARC des données ; l'extraction automatisée d'une hiérarchie de cpo-motifs multi-niveaux par navigation des treillis issus de l’ARC ; la sélection de cpo-motifs pertinents ; l'évaluation des motifs par les experts
Many sequential pattern mining methods have been proposed to discover useful patterns that describe the analysed sequential data. Several of these works have focused on efficiently enumerating all closed partially-ordered patterns (cpo-patterns), that makes their evaluation a laboured task for experts since their number can be large. To address this issue, we propose a new approach, that is to directly extract multilevel cpo-patterns implicitly organised into a hierarchy. To this end, we devise an original method within the Relational Concept Analysis (RCA) framework, referred to as RCA-SEQ, that exploits the structure and properties of the lattices from the RCA output. RCA-SEQ spans five steps: the preprocessing of the raw data; the RCA-based exploration of the preprocessed data; the automatic extraction of a hierarchy of multilevel cpo-patterns by navigating the lattices from the RCA output; the selection of relevant multilevel cpo-patterns; the pattern evaluation done by experts
APA, Harvard, Vancouver, ISO, and other styles
19

Chang, Euy-Hyun. "Contribution à la représentation des données et des connaissances pour la modélisation d'objets tridimensionnels." Compiègne, 1988. http://www.theses.fr/1988COMPD138.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Tsatcha, Dieudonné. "Contribution à l'extraction et à la représentation des connaissances de l'environnement maritime : proposition d'une architecture dédiée aux applications de navigation." Thesis, Brest, 2014. http://www.theses.fr/2014BRES0118/document.

Full text
Abstract:
De nos jours, les applications informatiques autonomes sont au centre de grandes préoccupations de la recherche scientifique. Ces dernières sont destinées initialement à des systèmes d'aide à la décision dans des environnements contraints et dynamiques, communément appelés environnements complexes. Elles peuvent dès à présent, à l'aide des avancées de la recherche, permettre de construire et déduire leurs connaissances propres afin d'interagir en temps réel avec leur environnement. Cependant, elles sont confrontées à la difficulté d'avoir une modélisation fidèle du monde réel et des entités qui le composent. L'un des principaux objectifs de nos recherches est de capturer et modéliser la sémantique associée aux entités spatio-temporelles afin d'enrichir leur expressivité dans les SIG ou les systèmes d'aide à la décision. Un service de routage maritime dynamique a été déployé en exploitant cette modélisation. Cet algorithme a été démontré comme optimal en termes d'espace mémoire et de temps de calcul. La sémantique capturée se compose de l'affordance et de la saillance visuelle de l'entité spatiale. Les connaissances associées à cette sémantique sont par la suite représentées par une ontologie computationnelle qui intègre des approches spatio-temporelles. Ces connaissances sont soit déduites du savoir de l'expert du domaine, soit extraites de gros volumes de données textuelles en utilisant des techniques de traitement automatique du langage. L'ontologie computationnelle proposée nous a permis de définir un algorithme de routage maritime dynamique (fonction des évènements ou objets présents dans l'environnement) fondé sur une heuristique itérative monocritère de plus courte distance et bidirectionnelle. L'algorithme BIDA* proposé s'applique sur un graphe itératif qui est une conceptualisation d'une grille hexagonale itérative recouvrant la zone de navigation. Cet algorithme permet aussi la gestion de différents niveaux de résolution. Toujours dans l'initiative de produire un modèle aussi proche que possible du monde réel, l'algorithme BIDA* a été enrichi des stratégies multicritères afin de prendre en compte les différentes contraintes de la navigation maritime. Les contraintes globales et locales auxquelles nous nous sommes intéressés sont la profondeur des eaux, la distance de navigation et la direction de navigation. Le modèle proposé permet ainsi d'enrichir les capacités cognitives des utilisateurs évoluant dans les environnements maritimes et peut aussi être utilisé pour construire des systèmes complètement autonomes explorant ces environnements. Un prototype expérimental de navigation intelligente mettant en oeuvre cette modélisation et proposant un service de routage maritime a été développé dans le cadre de cette thèse
No
APA, Harvard, Vancouver, ISO, and other styles
21

Lesaint, David. "Calcul d'ensembles de solutions pour problèmes de satisfaction de contraintes." Toulouse, ENSAE, 1995. http://www.theses.fr/1995ESAE0006.

Full text
Abstract:
Le formalisme des problèmes de satisfaction de contraintes (CSP) et les méthodes associées offrent un cadre théorique de plus en plus utilisé pour traiter les problèmes d'intelligence artificielle. Toutefois, la plupart des méthodes se concentrent sur le calcul d'une solution ce qui constitue un objectif trop limite. Nous introduisons dans cette thèse la notion de relation complète qui permet de calculer et représenter de facon compacte des ensembles de solutions. Nous proposons d'abord une méthode pour calculer une partition des solutions d'un CSP binaire par relations complètes. Cette méthode met en oeuvre décomposition structurelle et décomposition des contraintes par identification de symétries (calcul d'interchangeabilité). Sa complexité, qui est fonction de la taille d'un transversal minimal du graphe, n'est pas liée au nombre de solutions, à l'inverse des méthodes énumératives. Une évaluation expérimentale sur problèmes jouets en démontre le bon comportement. Nous montrons ensuite que cette méthode relève d'un schéma plus général qui consiste à résoudre le CSP dual d'un CSP pour obtenir une partition de ses solutions. Il est possible de construire un dual binaire pour tout CSP binaire: certaines classes polynomiales s'avèrent alors être stables par passage au dual binaire, assurant ainsi un coût polynomial pour le calcul d'un sous-ensemble des solutions. Nous proposons enfin une extension de l'algorithme backtrack standard pour le calcul de quelques solutions. Expérimentée sur problèmes aléatoires, cette extension entraîne un surcoût modeste par rapport au calcul d'une seule solution bien qu'elle fournisse en meilleur cas un nombre exponentiel de solutions.
APA, Harvard, Vancouver, ISO, and other styles
22

Mhiri, Lotfi. "Utilisation des techniques avancees des bases de donnees pour la representation des informations et des connaissances d'un systeme "intelligent" d'enseignement assiste par ordinateur : bieao." Toulouse 3, 1988. http://www.theses.fr/1988TOU30203.

Full text
Abstract:
L'approche suivie est une approche base de donnees, utilisant plus particulierement les techniques des bases d'informations generalisees et les bases de donnees deductives. Le systeme de gestion de la bieao est compose d'un systeme de gestion de bases de donnees relationnelles et d'extensions declaratives et procedurales permettant ainsi l'exploitation des sous-schemas de la base
APA, Harvard, Vancouver, ISO, and other styles
23

Ghalamallah, Ilhème. "Proposition d'un modèle d'analyse exploratoire multidimensionnelle dans un contexte d'intelligence économique." Toulouse 3, 2009. http://www.theses.fr/2009TOU30293.

Full text
Abstract:
La réussite d'une entreprise est souvent conditionnée par sa capacité à identifier, collecter, traiter et diffuser de l'information à des fins stratégiques. Par ailleurs, les technologies de l'information et de la connaissance apportent des contraintes auxquelles les entreprises doivent s'adapter : un flot continu, une circulation beaucoup plus rapide, des techniques toujours plus complexes. Le risque est d'être submergé par cette information et de ne plus pouvoir distinguer l'essentiel du négligeable. En effet, avec l'avènement de la nouvelle économie dominée par le marché, la problématique industrielle et commerciale de l'entreprise est devenue très complexe. Désormais, pour être compétitive, l'entreprise doit savoir gérer son capital immatériel. L'intelligence économique (IE) est une réponse aux bouleversements de l'environnement global des entreprises et plus largement de toute organisation. Dans une économie où tout se complexifie et bouge rapidement, la gestion stratégique de l'information est devenue l'un des moteurs essentiels de la performance globale des entreprises. L'IE est une démarche et un processus organisationnel qui permet d'être plus compétitif, par la surveillance de son environnement et de sa dynamique. Dans ce contexte, nous avons constaté qu'une grande part de l'information à portée stratégique vient du relationnel : liens entre acteurs du domaine, réseaux sémantiques, alliances, fusions, acquisitions, collaborations, cooccurrences de tous ordres. Nos travaux consistent à proposer un modèle d'analyse multidimensionnelle dédiée à l'IE. Cette approche repose sur l'extraction de connaissances par l'analyse de l'évolution des données relationnelles. Nous proposons un modèle permettant de mieux comprendre l'activité des acteurs d'un domaine donné, leurs interactions mais aussi leur évolution et leur stratégie, ceci dans une perspective décisionnelle. Cette démarche repose sur la conception d'un système d'information générique d'analyse en ligne permettant d'homogénéiser et d'organiser les données textuelles sous forme relationnelle et, de là, en extraire des connaissances implicites dont le contenu et la mise en forme sont adaptés à des décideurs non spécialistes du domaine de l'extraction des connaissances
A successful business is often conditioned by its ability to identify, collect, process and disseminate information for strategic purposes. Moreover, information technology and knowledge provide constraints that companies must adapt : a continuous stream, a circulation much faster techniques increasingly complex. The risk of being swamped by this information and no longer able to distinguish the essential from the trivial. Indeed, with the advent of new economy dominated by the market, the problem of industrial and commercial enterprise is become very complex. Now, to be competitive, the company must know how to manage their intangible capital. Competitive Intelligence (CI) is a response to the upheavals of the overall business environment and more broadly to any organization. In an economy where everything moves faster and more complex, management Strategic Information has become a key driver of overall business performance. CI is a process and an organizational process that can be more competitive, by monitoring its environment and its dynamics. In this context, we found that much information has strategic significance to the relationship: links between actors in the field, semantic networks, alliances, mergers, acquisitions, collaborations, co-occurrences of all kinds. Our work consists in proposing a model of multivariate analysis dedicated to the IE. This approach is based on the extraction of knowledge by analyzing the evolution of relational databases. We offer a model for understanding the activity of actors in a given field, but also their interactions their development and strategy, this decision in perspective. This approach is based on the designing a system of generic information online analysis to homogenize and organize text data in relational form, and thence to extract implicit knowledge of the content and formatting are adapted to non-specialist decision makers in the field of knowledge extraction
APA, Harvard, Vancouver, ISO, and other styles
24

Fruit, Ronan. "Exploration-exploitation dilemma in reinforcement learning under various form of prior knowledge." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I086.

Full text
Abstract:
Combinés à des réseaux de neurones profonds ("Deep Neural Networks"), certains algorithmes d'apprentissage par renforcement tels que "Q-learning" ou "Policy Gradient" sont désormais capables de battre les meilleurs joueurs humains à la plupart des jeux de console Atari ainsi qu'au jeu de Go. Malgré des résultats spectaculaires et très prometteurs, ces méthodes d'apprentissage par renforcement dit "profond" ("Deep Reinforcement Learning") requièrent un nombre considérable d'observations pour apprendre, limitant ainsi leur déploiement partout où l'obtention de nouveaux échantillons s'avère coûteuse. Le manque d'efficacité de tels algorithmes dans l'exploitation des échantillons peut en partie s'expliquer par l'utilisation de réseaux de neurones profonds, connus pour être très gourmands en données. Mais il s'explique surtout par le recours à des algorithmes de renforcement explorant leur environnement de manière inefficace et non ciblée. Ainsi, des algorithmes tels que Q-learning ou encore Policy-Gradient exécutent des actions partiellement randomisées afin d'assurer une exploration suffisante. Cette stratégie est dans la plupart des cas inappropriée pour atteindre un bon compromis entre l'exploration indispensable à la découverte de nouvelles régions avantageuses (aux récompenses élevées), et l'exploitation de régions déjà identifiées comme telles. D'autres approches d'apprentissage par renforcement ont été développées, pour lesquelles il est possible de garantir un meilleur compromis exploration-exploitation, parfois proche de l'optimum théorique. Cet axe de recherche s'inspire notamment de la littérature sur le cas particulier du problème du bandit manchot, avec des algorithmes s'appuyant souvent sur le principe "d'optimisme dans l'incertain". Malgré les nombreux travaux sur le compromis exploration-exploitation, beaucoup dequestions restent encore ouvertes. Dans cette thèse, nous nous proposons de généraliser les travaux existants sur le compromis exploration-exploitation à des contextes différents, avec plus ou moins de connaissances a priori. Nous proposons plusieurs améliorations des algorithmes de l'état de l'art ainsi qu'une analyse théorique plus fine permettant de répondre à plusieurs questions ouvertes sur le compromis exploration-exploitation. Nous relâchons ensuite l'hypothèse peu réaliste (bien que fréquente) selon laquelle il existe toujours un chemin permettant de relier deux régions distinctes de l'environnement. Le simple fait de relâcher cette hypothèse permet de mettre en lumière l'impact des connaissances a priori sur les limites intrinsèques du compromis exploration-exploitation. Enfin, nous montrons comment certaines connaissances a priori comme l'amplitude de la fonction valeur ou encore des ensembles de macro-actions peuvent être exploitées pour accélérer l'apprentissage. Tout au long de cette thèse, nous nous sommes attachés à toujours tenir compte de la complexité algorithmique des différentes méthodes proposées. Bien que relativement efficaces, tous les algorithmes présentés nécessitent une phase de planification et souffrent donc du problème bien connu du "fléau de la dimension", ce qui limite fortement leur potentiel applicatif (avec les méthodes actuelles). L'objectif phare des présents travaux est d'établir des principes généraux pouvant être combinés avec des approches plus heuristiques pour dépasser les limites des algorithmes actuels
In combination with Deep Neural Networks (DNNs), several Reinforcement Learning (RL) algorithms such as "Q-learning" of "Policy Gradient" are now able to achieve super-human performaces on most Atari Games as well as the game of Go. Despite these outstanding and promising achievements, such Deep Reinforcement Learning (DRL) algorithms require millions of samples to perform well, thus limiting their deployment to all applications where data acquisition is costly. The lack of sample efficiency of DRL can partly be attributed to the use of DNNs, which are known to be data-intensive in the training phase. But more importantly, it can be attributed to the type of Reinforcement Learning algorithm used, which only perform a very inefficient undirected exploration of the environment. For instance, Q-learning and Policy Gradient rely on randomization for exploration. In most cases, this strategy turns out to be very ineffective to properly balance the exploration needed to discover unknown and potentially highly rewarding regions of the environment, with the exploitation of rewarding regions already identified as such. Other RL approaches with theoretical guarantees on the exploration-exploitation trade-off have been investigated. It is sometimes possible to formally prove that the performances almost match the theoretical optimum. This line of research is inspired by the Multi-Armed Bandit literature, with many algorithms relying on the same underlying principle often referred as "optimism in the face of uncertainty". Even if a significant effort has been made towards understanding the exploration-exploitation dilemma generally, many questions still remain open. In this thesis, we generalize existing work on exploration-exploitation to different contexts with different amounts of prior knowledge on the learning problem. We introduce several algorithmic improvements to current state-of-the-art approaches and derive a new theoretical analysis which allows us to answer several open questions of the literature. We then relax the (very common although not very realistic) assumption that a path between any two distinct regions of the environment should always exist. Relaxing this assumption highlights the impact of prior knowledge on the intrinsic limitations of the exploration-exploitation dilemma. Finally, we show how some prior knowledge such as the range of the value function or a set of macro-actions can be efficiently exploited to speed-up learning. In this thesis, we always strive to take the algorithmic complexity of the proposed algorithms into account. Although all these algorithms are somehow computationally "efficient", they all require a planning phase and therefore suffer from the well-known "curse of dimensionality" which limits their applicability to real-world problems. Nevertheless, the main focus of this work is to derive general principles that may be combined with more heuristic approaches to help overcome current DRL flaws
APA, Harvard, Vancouver, ISO, and other styles
25

Charnay, Clément. "Enhancing supervised learning with complex aggregate features and context sensitivity." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD025/document.

Full text
Abstract:
Dans cette thèse, nous étudions l'adaptation de modèles en apprentissage supervisé. Nous adaptons des algorithmes d'apprentissage existants à une représentation relationnelle. Puis, nous adaptons des modèles de prédiction aux changements de contexte.En représentation relationnelle, les données sont modélisées par plusieurs entités liées par des relations. Nous tirons parti de ces relations avec des agrégats complexes. Nous proposons des heuristiques d'optimisation stochastique pour inclure des agrégats complexes dans des arbres de décisions relationnels et des forêts, et les évaluons sur des jeux de données réelles.Nous adaptons des modèles de prédiction à deux types de changements de contexte. Nous proposons une optimisation de seuils sur des modèles à scores pour s'adapter à un changement de coûts. Puis, nous utilisons des transformations affines pour adapter les attributs numériques à un changement de distribution. Enfin, nous étendons ces transformations aux agrégats complexes
In this thesis, we study model adaptation in supervised learning. Firstly, we adapt existing learning algorithms to the relational representation of data. Secondly, we adapt learned prediction models to context change.In the relational setting, data is modeled by multiples entities linked with relationships. We handle these relationships using complex aggregate features. We propose stochastic optimization heuristics to include complex aggregates in relational decision trees and Random Forests, and assess their predictive performance on real-world datasets.We adapt prediction models to two kinds of context change. Firstly, we propose an algorithm to tune thresholds on pairwise scoring models to adapt to a change of misclassification costs. Secondly, we reframe numerical attributes with affine transformations to adapt to a change of attribute distribution between a learning and a deployment context. Finally, we extend these transformations to complex aggregates
APA, Harvard, Vancouver, ISO, and other styles
26

Granier, Jacques. "Un système d'ingénierie assisté par ordinateur pour la conception des équipements d'irrigation : une application réalisée en langage SNARX." Montpellier 2, 1990. http://www.theses.fr/1990MON20156.

Full text
Abstract:
Les connaissances mises en uvre pour la realisation d'un projet d'irrigation font appel aux sciences de l'ingenieur dans differents domaines (agronomie, hydraulique, technologie du materiel, economie). La simulation d'un processus de conception au cours duquel interviennent plusieurs specialistes de differentes disciplines a exige la definition d'un langage a regles de production (snarx), la construction d'un moteur d'inferences, et l'assemblage des connaissances de facon a en permettre une utilisation intelligente et interactive
APA, Harvard, Vancouver, ISO, and other styles
27

Lozano, Aparicio Jose Martin. "Data exchange from relational databases to RDF with target shape schemas." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I063.

Full text
Abstract:
Resource Description Framework (RDF) est un modèle de graphe utilisé pour publier des données sur le Web à partir de bases de données relationnelles. Nous étudions l'échange de données depuis des bases de données relationnelles vers des graphes RDF avec des schémas de formes cibles. Essentiellement, échange de données modélise un processus de transformation d'une instance d'un schéma relationnel, appelé schéma source, en un graphe RDF contraint par un schéma cible, selon un ensemble de règles, appelé tuple source-cible générant des dépendances. Le graphe RDF obtenu est appelé une solution. Étant donné que les dépendances générant des tuple définissent ce processus de manière déclarative, il peut y avoir de nombreuses solutions possibles ou aucune solution du tout. Nous étudions le système d'échange de données relationnel avec RDF constructive avec des schémas de formes cibles, qui est composé d'un schéma source relationnel, un schéma de formes pour le schéma cible, un ensemble de mappages utilisant des constructeurs IRI. De plus, nous supposons que deux constructeurs IRI ne se chevauchent pas. Nous proposons un langage visuel pour la spécification des correspondances (VML) qui aide les utilisateurs non experts à spécifier des mappages dans ce système. De plus, nous développons un outil appelé ShERML qui effectue l'échange de données avec l'utilisation de VML et pour les utilisateurs qui souhaitent comprendre le modèle derrière les mappages VML, nous définissons R2VML, un langage texte, qui capture VML et présente une syntaxe succincte pour définition des mappages.Nous étudions le problème de la vérification de la consistance: un système d'échange de données est consistent si pour chaque instance de source d'entrée, il existe au moins une solution. Nous montrons que le problème de consistance est coNP-complet et fournissons un algorithme d'analyse statique du système qui permet de décider si le système est consistent ou non.Nous étudions le problème du calcul de réponses certaines. Une réponse est certaine si la réponse tient dans chaque solution. En générale, réponses certaines sont calculées en utilisant d'une solution universelle. Cependant, dans notre contexte, une solution universelle pourrait ne pas exister. Ainsi, nous introduisons la notion de solution de simulation universelle, qui existe toujours et permet de calculer certaines réponses à n'importe quelle classe de requêtes robustes sous simulation. Une de ces classes sont les expressions régulières imbriquées (NRE) qui sont forward c'est-à-dire qui n'utilisent pas l’opération inverse. L'utilisation d'une solution de simulation universelle rend traitable le calcul de réponses certaines pour les NRE (data-complexity).Enfin, nous étudions le problème d'extraction de schéma des formes qui consiste à construire un schéma de formes cibles à partir d'un système constructif d'échange de données relationnel vers RDF sans le schéma de formes cibles. Nous identifions deux propriétés souhaitables d'un bon schéma cible, qui sont la correction c'est-à-dire que chaque graphe RDF produit est accepté par le schéma cible; et la complétude c'est-à-dire que chaque graphe RDF accepté par le schéma cible peut être produit. Nous proposons un algorithme d'extraction qui convient à tout système d'échange de données sans schéma, mais qui est également complet pour une grande classe pratique de systèmes sans schéma
Resource Description Framework (RDF) is a graph data model which has recently found the use of publishing on the web data from relational databases. We investigate data exchange from relational databases to RDF graphs with target shapes schemas. Essentially, data exchange models a process of transforming an instance of a relational schema, called the source schema, to a RDF graph constrained by a target schema, according to a set of rules, called source-to-target tuple generating dependencies. The output RDF graph is called a solution. Because the tuple generating dependencies define this process in a declarative fashion, there might be many possible solutions or no solution at all. We study constructive relational to RDF data exchange setting with target shapes schemas, which is composed of a relational source schema, a shapes schema for the target schema, a set of mappings that uses IRI constructors. Furthermore, we assume that any two IRI constructors are non-overlapping. We propose a visual mapping language (VML) that helps non-expert users to specify mappings in this setting. Moreover, we develop a tool called ShERML that performs data exchange with the use of VML and for users that want to understand the model behind VML mappings, we define R2VML, a text-based mapping language, that captures VML and presents a succinct syntax for defining mappings.We investigate the problem of checking consistency: a data exchange setting is consistent if for every input source instance, there is at least one solution. We show that the consistency problem is coNP-complete and provide a static analysis algorithm of the setting that allows to decide if the setting is consistent or not. We study the problem of computing certain answers. An answer is certain if the answer holds in every solution. Typically, certain answers are computed using a universal solution. However, in our setting a universal solution might not exist. Thus, we introduce the notion of universal simulation solution, which always exists and allows to compute certain answers to any class of queries that is robust under simulation. One such class is nested regular expressions (NREs) that are forward i.e., do not use the inverse operation. Using universal simulation solution renders tractable the computation of certain answers to forward NREs (data-complexity).Finally, we investigate the shapes schema elicitation problem that consists of constructing a target shapes schema from a constructive relational to RDF data exchange setting without the target shapes schema. We identity two desirable properties of a good target schema, which are soundness i.e., every produced RDF graph is accepted by the target schema; and completeness i.e., every RDF graph accepted by the target schema can be produced. We propose an elicitation algorithm that is sound for any schema-less data exchange setting, but also that is complete for a large practical class of schema-less settings
APA, Harvard, Vancouver, ISO, and other styles
28

García, Durán Alberto. "Learning representations in multi-relational graphs : algorithms and applications." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2271/document.

Full text
Abstract:
Internet offre une énorme quantité d’informations à portée de main et dans une telle variété de sujets, que tout le monde est en mesure d’accéder à une énorme variété de connaissances. Une telle grande quantité d’information pourrait apporter un saut en avant dans de nombreux domaines (moteurs de recherche, réponses aux questions, tâches NLP liées) si elle est bien utilisée. De cette façon, un enjeu crucial de la communauté d’intelligence artificielle a été de recueillir, d’organiser et de faire un usage intelligent de cette quantité croissante de connaissances disponibles. Heureusement, depuis un certain temps déjà des efforts importants ont été faits dans la collecte et l’organisation des connaissances, et beaucoup d’informations structurées peuvent être trouvées dans des dépôts appelés Bases des Connaissances (BCs). Freebase, Entity Graph Facebook ou Knowledge Graph de Google sont de bons exemples de BCs. Un grand problème des BCs c’est qu’ils sont loin d’êtres complets. Par exemple, dans Freebase seulement environ 30% des gens ont des informations sur leur nationalité. Cette thèse présente plusieurs méthodes pour ajouter de nouveaux liens entre les entités existantes de la BC basée sur l’apprentissage des représentations qui optimisent une fonction d’énergie définie. Ces modèles peuvent également être utilisés pour attribuer des probabilités à triples extraites du Web. On propose également une nouvelle application pour faire usage de cette information structurée pour générer des informations non structurées (spécifiquement des questions en langage naturel). On pense par rapport à ce problème comme un modèle de traduction automatique, où on n’a pas de langage correct comme entrée, mais un langage structuré. Nous adaptons le RNN codeur-décodeur à ces paramètres pour rendre possible cette traduction
Internet provides a huge amount of information at hand in such a variety of topics, that now everyone is able to access to any kind of knowledge. Such a big quantity of information could bring a leap forward in many areas if used properly. This way, a crucial challenge of the Artificial Intelligence community has been to gather, organize and make intelligent use of this growing amount of available knowledge. Fortunately, important efforts have been made in gathering and organizing knowledge for some time now, and a lot of structured information can be found in repositories called Knowledge Bases (KBs). A main issue with KBs is that they are far from being complete. This thesis proposes several methods to add new links between the existing entities of the KB based on the learning of representations that optimize some defined energy function. We also propose a novel application to make use of this structured information to generate questions in natural language
APA, Harvard, Vancouver, ISO, and other styles
29

Medina-Oliva, Gabriela. "Modélisation conjointe des connaissances multi-points de vue d'un système industriel et de son système de soutien pour l'évaluation des stratégies de maintenance." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00702247.

Full text
Abstract:
Par rapport aux exigences de plus en plus importantes relatives au Maintien en Condition Opérationnelle d'un système industriel, le processus de maintenance joue un rôle fondamental pour l'amélioration de la disponibilité, de la productivité, etc. Pour essayer de contrôler au mieux ces performances, les responsables de maintenance doivent donc être capables de choisir les stratégies de maintenance et les ressources à mettre en œuvre les plus adaptées aux besoins. Dans un objectif d'aide à la prise de décisions en maintenance, les travaux présentés dans ce mémoire ont pour objet de proposer une méthodologie pour l'élaboration d'un modèle support permettant par simulation d'évaluer les différentes stratégies. La valeur ajoutée de la méthodologie réside dans l'unification, à base de modèles relationnels probabilistes (PRM), des différents types de connaissance nécessaires à la construction de ce modèle d'évaluation. Ce dernier est ainsi construit à partir de motifs génériques et modulables représentatifs des variables décisionnels du système industriel (système principal) et de son système de maintenance. Ces motifs, par instanciation, facilitent la construction des modèles d'applications spécifiques. Cette méthodologie, issue du projet ANR SKOOB, est testée sur le cas applicatif de la maintenance d'un système de production de ferment.
APA, Harvard, Vancouver, ISO, and other styles
30

Lee, Jeon Young. "Contribution à l'étude de l'architecture d'un système intégrant les différents formalismes de représentation de la connaissance." Compiègne, 1985. http://www.theses.fr/1985COMPDE48.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Medina, Oliva Gabriela. "Modélisation conjointe des connaissances multi-points de vue d'un système industriel et de son système de soutien pour l'évaluation des stratégies de maintenance." Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10092/document.

Full text
Abstract:
Par rapport aux exigences de plus en plus importantes relatives au Maintien en Condition Opérationnelle d'un système industriel, le processus de maintenance joue un rôle fondamental pour l'amélioration de la disponibilité, de la productivité, etc. Pour essayer de contrôler au mieux ces performances, les responsables de maintenance doivent donc être capables de choisir les stratégies de maintenance et les ressources à mettre en oeuvre les plus adaptées aux besoins. Dans un objectif d'aide à la prise de décisions en maintenance, les travaux présentés dans ce mémoire ont pour objet de proposer une méthodologie pour l'élaboration d'un modèle support permettant par simulation d'évaluer les différentes stratégies. La valeur ajoutée de la méthodologie réside dans l'unification, à base de modèles relationnels probabilistes (PRM), des différents types de connaissance nécessaires à la construction de ce modèle d'évaluation. Ce dernier est ainsi construit à partir de motifs génériques et modulables représentatifs des variables décisionnels du système industriel (système principal) et de son système de maintenance. Ces motifs, par instanciation, facilitent la construction des modèles d'applications spécifiques. Cette méthodologie, issue du projet ANR SKOOB, est testée sur le cas applicatif de la maintenance d'un système de production de ferment
Nowadays, the importance of the maintenance function has increased, due to the requirements on the maintain in operational conditions phase (MCO) of the system-of-interest (SI). As well as for the relevant role of maintenance in improving availability, performance efficiency, total plant availability, etc. To control performances, maintenance managers should be able to make some choices about the maintenance strategies and the resources that can fulfil the requirements. Within this context, we propose a methodology to formalize a model allowing to perform simulation to assess maintenance strategies. The scientific contribution of our work is that this approach unify by using a probabilistic relational model (PRM), different kind of knowledge needed to assess maintenance strategies. Knowledge is presented as generic and modular patterns based on PRM. These patterns integrate relevant decisional variables of the system of interest and of its maintenance system. This approach eases the modeling phase for a specific application. This methodology is one of the results of the project ANR SKOOB. This approach was tested on an industrial case for the maintenance of a harvest production process
APA, Harvard, Vancouver, ISO, and other styles
32

Minout, Mohammed. "Modélisation des aspects temporels dans les bases de données spatiales." Doctoral thesis, Universite Libre de Bruxelles, 2007. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210672.

Full text
Abstract:
L'introduction du temps dans les bases de données classiques et spatiales apparaît de plus en plus, aujourd'hui, comme une nécessité pour une gestion optimale de l'historicité. En effet, les applications de bases de données spatio-temporelles sont présentes dans un grand nombre d'applications. Le besoin, par exemple, est de sauvegarder l'historique des géométries des parcelles dans le système d'information d'un plan cadastral, la prévention d'incendie dans le système de gestion forestière, le système de navigation des véhicules, etc. Cet historique des phénomènes permet de mieux comprendre ce qui s'est produit dans le passé, de manière à éventuellement anticiper certaines évolutions futures.

Etant donné ces nouveaux besoins, cette thèse se focalise sur la modélisation et l'implantation des aspects temporels dans bases de données. En effet, la conception d'une application de base de données se fait par un enchaînement de trois phases (conceptuelle, logique et physique). Au niveau conceptuel, plusieurs modèles conceptuels ont été proposés intégrant les caractéristiques temporelles et spatiales.

Malheureusement, au niveau logique, les modèles de données des SGBD actuels n'offrent pas les concepts nécessaires pour implanter le modèle conceptuel spatio-temporel. Nous proposons donc de nouvelles règles de traductions d'un schéma conceptuel, basé sur le modèle MADS (Modélisation des Applications à des données spatio-temporelles), en un schéma logique MADSLog pour les modèles cibles à savoir :relationnel et relationnel-objet. Chaque règle transforme un concept structurel, temporel et spatial du modèle MADS en un ou plusieurs concepts supportés par la cible. Par exemple, la propriété spatiale définissant la géométrie d'un type d'objet est traduite par la création d'un nouvel attribut de type spatial dans ce type d'objet. Un outil CASE(Computer-Aided Software Engineering) appelé Schema Translateur est développé dans cette thèse implémentant toutes les règles de traductions.

La traduction de schémas conceptuels en schémas logiques peut impliquer une perte sémantique en raison de la différence de la puissance d'expression entre le modèle conceptuel et le modèle de données des SGBD existants. D'où la nécessité de générer un ensemble de contraintes d'intégrité afin de préserver la sémantique définie dans le schéma conceptuel. Ces contraintes sont exprimées à ce niveau par des formules logiques.

Avec l'apparition de GML (Geographic Markup Language ) qui est conçu pour la modélisation, le transport et le stockage d'informations géographiques. Nous transformons également le schéma conceptuel MADS en GML. De nouveaux schémas GML temporel et spatial sont définis qui peuvent être employés par n'importe application de base de données spatio-temporelle.

Au niveau physique, nous proposons une méthode d'adaptation du schéma logique en schéma physique pour le modèle relationnel-objet.

Elle permet de définir les tables, les types abstraits, les types d'objets, les domaines, etc. Notre proposition permet aussi la génération des contraintes d'intégrité au niveau physique. En effet, chaque contrainte d'intégrité (structurelle, temporelle ou spatiale) qui est définie en calcul logique est exprimée soit directement par des contraintes déclaratives ou soit par des déclencheurs du SGBD choisi. Les déclencheurs spatiaux sont fondés sur les fonctionnalités prédéfinies dans Oracle, alors que les déclencheurs temporels sont basés sur les opérateurs et méthodes appliquées sur les types temporels.

Enfin, la traduction de requêtes est une deuxième clef de cette recherche. Le but de la traduction de requêtes, exprimées en algèbre, étant de reconstituer l'information au sens MADS à partir de la base de données stockées dans le SGDB cible. Elle permet de traduire les expressions algébriques MADS, qui sont définies sur le schéma conceptuel et non sur le schéma physique, en requêtes opérationnelles qui peuvent être exécutées sur une base de données spatiale et temporelle sous un SGBD ou un SIG.


Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
33

Agli, Hamza. "Raisonnement incertain pour les règles métier." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066129/document.

Full text
Abstract:
Nous étudions dans cette thèse la gestion des incertitudes au sein des systèmes à base de règles métier orientés objet (Object-Oriented Business Rules Management Systems ou OO-BRMS) et nous nous intersessions à des approches probabilistes. Afin de faciliter la modélisation des distributions de probabilités dans ces systèmes, nous proposons d'utiliser les modèles probabilistes relationnels (Probabilistic Relational Models ou PRM), qui sont une extension orientée objet des réseaux bayésiens. Lors de l'exploitation des OO-BRMS, les requêtes adressées aux PRM sont nombreuses et les réponses doivent être calculées rapidement. Pour cela, nous proposons, dans la première partie de cette thèse, un nouvel algorithme tirant parti de deux spécificités des OO-BRMS. Premièrement, les requêtes de ces derniers s'adressent seulement à une sous partie de leur base. Par conséquent, les probabilités à calculer ne concernent que des sous-ensembles de toutes les variables aléatoires des PRM. Deuxièmement, les requêtes successives diffèrent peu les unes des autres. Notre algorithme exploite ces deux spécificités afin d'optimiser les calculs. Nous prouvons mathématiquement que notre approche fournit des résultats exacts et montrons son efficacité par des résultats expérimentaux. Lors de la deuxième partie, nous établissons des principes généraux permettant d'étendre les OO-BRMS pour garantir une meilleure inter-operabilité avec les PRM. Nous appliquons ensuite notre approche au cas d'IBM Operational Decisions Manager (ODM) dans le cadre d'un prototype développé, que nous décrivons de manière générale. Enfin, nous présentons des techniques avancées permettant de compiler des expressions du langage technique d'ODM pour faciliter leur exploitation par le moteur probabiliste des PRM
In this thesis, we address the issue of uncertainty in Object-Oriented Business Rules Management Systems (OO-BRMSs). To achieve this aim, we rely on Probabilistic Relational Models (PRMs). These are an object-oriented extension of Bayesian Networks that can be exploited to efficiently model probability distributions in OO-BRMSs. It turns out that queries in OO-BRMS are numerous and we need to request the PRM very frequently. The PRM should then provide a rapid answer. For this reason, we propose, in the first part of this thesis, a new algorithm that respects two specifities of OO-BRMSs and optimizes the probabilistic inference accordingly. First, OO-BRMSs queries affect only a subset of their base, hence, the probabilities of interest concern only a subset of the PRMs random variables. Second, successive requests differ only slightly from each other. We prove theoretically the correctness of the proposed algorithm and we highlight its efficiency through experimental tests. During the second part, we establish some principles for probabilistic OO-BRMSs and we describe an approach to couple them with PRMs. Then, we apply the approach to IBM Operational Decision Manager (ODM), one of the state-of-the-art OO-BRMSs, and we provide a general overview of the resulted prototype. Finally, we discuss advanced techniques to compile elements of ODM technical language into instructions that are exploitable by the PRM probabilistic engine
APA, Harvard, Vancouver, ISO, and other styles
34

Toustou, Beatrice. "Le rôle des interactions sociales dans le processus créatif : le cas des chercheurs de l'industrie." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM1058.

Full text
Abstract:
Si pendant de nombreuses décennies, la créativité a été décrite comme une activité solitaire, en référence à des caractéristiques individuelles possédées par certains individus, il est aujourd’hui établi que les relations jouent un rôle critique dans la création de connaissances (Perry-Smith, 2006). Néanmoins, en dépit de leur importance, les échanges interpersonnels ont reçu relativement peu d’attention en comparaison d’autres ressources utiles au processus créatif. Ce travail doctoral est donc consacré à l’étude du rôle des interactions sociales dans la dynamique du processus créatif. Les cadres théoriques mobilisés sont la théorie de la complexité et la théorie de l’échange social. Notre recherche empirique a été réalisée auprès de chercheurs de l’industrie dont le cœur de la mission est de nature inventive. Cette thèse est composée de trois articles, qui répondent à la question de recherche suivante : Dans quelle mesure et de quelle manière les interactions sociales jouent-elles un rôle dans le processus créatif ? Notre contribution théorique consiste à (1) apporter une définition plurielle de la créativité ; (2) mettre en évidence les différentes ressources sociales mobilisées, qui façonnent un processus créatif dynamique en deux méta-étapes (émergence et amplification des idées) ; (3) décrire trois formes d’échange social, sous-tendues par différentes logiques de réciprocité, qui jouent un rôle important au cours du processus créatif. Cette thèse souligne le rôle des interactions sociales dans le processus créatif et toute l’importance des moments de socialisation dans la vie des organisations qui souhaitent développer la créativité de leurs salariés
Although for many decades creativity has been described as a solitary activity that refers to individual characteristics possessed by certain individuals, today it has been established that relationships play a crucial role in the creation of knowledge (Perry-Smith, 2006). Nevertheless, despite their importance, interpersonal exchanges have received relatively little attention compared to other resources useful to the creative process (Bouty, 2000). This doctoral study is therefore devoted to examining the role of social interactions in the creative process. The theoretical framework draws on literature in the fields of complexity theory and social exchange. The empirical research was carried out among industrial researchers whose main mission is creative in nature. The thesis is composed of three articles, each of which treats a dimension of the overall research question: To what extent and in which ways do social interactions influence the creative process?The research contributes to theory building by (1) providing a plural definition of creativity; (2) highlighting the different social resources that researchers draw on and building a dynamic creative process divided into two meta-stages (emergence of ideas and their amplification); and (3) describing three forms of social exchange, underpinned by different logics of reciprocity that play an important role during the creative process.Overall, this thesis points out the importance of social interactions in the creative process and the full importance of moments of socialization within organizations wishing to develop their employees’ creativity
APA, Harvard, Vancouver, ISO, and other styles
35

Puget, Dominique. "Aspects sémantiques dans les Systèmes de Recherche d'Informations." Toulouse 3, 1993. http://www.theses.fr/1993TOU30139.

Full text
Abstract:
Les travaux de recherche exposes dans ce memoire relevent du domaine de l'informatique documentaire, et se situent plus particulierement parmi les travaux sur les systemes intelligents en recherche d'informations. Notre etude s'inscrit dans le prolongement du projet infodiab, qui est un systeme de recherche d'informations utilisant le langage courant comme source d'informations et comme moyen d'interrogation. Ce systeme est destine a faciliter la prise en charge d'une maladie grave et contraignante: le diabete. Notre premiere contribution a permis le couplage de infodiab avec le systeme dialog (une messagerie et un forum) que nous avons developpe dans le but de favoriser le dialogue entre les patients diabetiques et leur medecin generaliste, mais egalement afin de pouvoir mettre a jour le fonds documentaire du systeme de recherche d'informations, et ceci principalement en fonction des besoins en informations des utilisateurs. Notre deuxieme contribution a pour but la realisation d'un systeme de recherche d'informations base sur un modele de representation qui s'inspire de la theorie des graphes conceptuels en reprenant les grands principes. La structure utilisee pour representer la connaissance est un graphe oriente assimilable a un graphe conceptuel que nous avons appele graphe syntaxique. L'interet de notre approche est de gerer la syntaxe et la semantique utiles et representatives dans le domaine de l'application pour la representation des documents et l'evaluation des requetes, et ceci afin d'obtenir un modele de representation suffisamment simple pour permettre une manipulation efficace. Par rapport aux systemes de recherche classiques, notre systeme offre tout d'abord une meilleure comprehension des documents et des requetes. Ceci se traduit par une reconnaissance des relations syntaxiques et semantiques entre les termes d'un document ou d'une requete. De plus, notre systeme permet une comparaison intelligente entre un document et une requete, ce qui signifie en fait l'utilisation des connaissances syntaxiques et semantiques entre les differents termes durant l'evaluation d'une requete. Ainsi, cela contribue a ameliorer le taux de rappel et le taux de precision du systeme
APA, Harvard, Vancouver, ISO, and other styles
36

GONZáLEZ, GóMEZ Mauricio. "Jeux stochastiques sur des graphes avec des applications à l’optimisation des smart-grids." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN064.

Full text
Abstract:
Au sein de la communauté scientifique, l’étude des réseaux d’énergie suscite un vif intérêt puisque ces infrastructures deviennent de plus en plus importantes dans notre monde moderne. Des outils mathématiques avancés et complexes sont nécessaires afin de bien concevoir et mettre en œuvre ces réseaux. La précision et l’optimalité sont deux caractéristiques essentielles pour leur conception. Bien que ces deux aspects soient au cœur des méthodes formelles, leur application effective reste largement inexplorée aux réseaux d’énergie. Cela motive fortement le travail développé dans cette thèse. Un accent particulier est placé sur le problème général de planification de la consommation d'énergie. Il s'agit d'un scénario dans lequel les consommateurs ont besoin d’une certaine quantité d’énergie et souhaitent que cette demande soit satisfaite dans une période spécifique (e.g., un Véhicule Électrique (VE) doit être rechargé dans une fenêtre de temps définie par son propriétaire). Par conséquent, chaque consommateur doit choisir une puissance de consommation à chaque instant (par un système informatisé), afin que l'énergie finale accumulée atteigne un niveau souhaité. La manière dont les puissances sont choisies est obtenue par l’application d’une « stratégie » qui prend en compte à chaque instant les informations pertinentes d'un consommateur afin de choisir un niveau de consommation approprié (e.g., l’énergie accumulée pour recharge le VE). Les stratégies peuvent être conçues selon une approche centralisée (dans laquelle il n'y a qu'un seul décideur qui contrôle toutes les stratégies des consommateurs) ou décentralisée (dans laquelle il y a plusieurs contrôleurs, chacun représentant un consommateur). Nous analysons ces deux scénarios dans cette thèse en utilisant des méthodes formelles, la théorie des jeux et l’optimisation. Plus précisément, nous modélisons le problème de planification de la consommation d'énergie à l'aide des processus de décision de Markov et des jeux stochastiques. Par exemple, l’environnement du système électrique, à savoir : la partie non contrôlable de la consommation totale (e.g., la consommation hors VEs), peut être représentée par un modèle stochastique. La partie contrôlable de la consommation totale peut s’adapter aux contraintes du réseau de distribution (e.g., pour ne pas dépasser la température maximale d'arrêt du transformateur électrique) et à leurs objectifs (e.g., tous les VEs soient rechargés). Cela peut être vu comme un système stochastique avec des multi-objectifs sous contraintes. Par conséquent, cette thèse concerne également une contribution aux modèles avec des objectives multicritères, ce qui permet de poursuivre plusieurs objectifs à la fois et une conception des stratégies qui sont fonctionnellement correctes et robustes aux changements de l'environnement
Within the research community, there is a great interest in exploring many applications of energy grids since these become more and more important in our modern world. To properly design and implement these networks, advanced and complex mathematical tools are necessary. Two key features for their design are correctness and optimality. While these last two properties are in the core of formal methods, their effective application to energy networks remains largely unexploited. This constitutes one strong motivation for the work developed in this thesis. A special emphasis is made on the generic problem of scheduling power consumption. This is a scenario in which the consumers have a certain energy demand and want to have this demand fulfilled before a set deadline (e.g., an Electric Vehicle (EV) has to be recharged within a given time window set by the EV owner). Therefore, each consumer has to choose at each time the consumption power (by a computerized system) so that the final accumulated energy reaches a desired level. The way in which the power levels are chosen is according to a ``strategy’’ mapping at any time the relevant information of a consumer (e.g., the current accumulated energy for EV-charging) to a suitable power consumption level. The design of such strategies may be either centralized (in which there is a single decision-maker controlling all strategies of consumers), or decentralized (in which there are several decision-makers, each of them representing a consumer). We analyze both scenarios by exploiting ideas originating from formal methods, game theory and optimization. More specifically, the power consumption scheduling problem can be modelled using Markov decision processes and stochastic games. For instance, probabilities provide a way to model the environment of the electrical system, namely: the noncontrollable part of the total consumption (e.g., the non-EV consumption). The controllable consumption can be adapted to the constraints of the distribution network (e.g., to the maximum shutdown temperature of the electrical transformer), and to their objectives (e.g., all EVs are recharged). At first glance, this can be seen as a stochastic system with multi-constraints objectives. Therefore, the contributions of this thesis also concern the area of multi-criteria objective models, which allows one to pursue several objectives at a time such as having strategy designs functionally correct and robust against changes of the environment
APA, Harvard, Vancouver, ISO, and other styles
37

Diop, Fallilou. "Analyses probabilistes pour l'étude des réseaux électriques de distribution." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC055/document.

Full text
Abstract:
Les mutations observées sur le système électrique (production décentralisée, véhicules électriques, stockage, micro réseau...) font émerger des problématiques d'ordres économiques et techniques dans la gestion de ce dernier. Parmi eux, l'impact sur les niveaux de tension et de courant de neutre des réseaux de distribution. Le but de cette thèse est d'étudier des modèles probabilistes pour estimer ces impacts. L'incertitude sur la puissance PV produite et sur l'utilisation des VEs implique la nécessité de développer des modèles probabilistes de consommation et de production d'électricité. Deux modèles différents de production et de consommation ont été étudiés : L'un basé sur l'approximation de données historiques par une densité de probabilité, l'autre reposant sur la répartition des données en groupes définis par un profil type et une probabilité d'occurrence. Des techniques de load flow probabilistes ont été étudiées dans cette thèse pour prendre en compte l'effet intermittente de la production PV et l'incertitude sur la consommation. Une technique basée sur la méthode de simulation Monte Carlo, une deuxième basée sur l'approximation PEM et une dernière basée sur l'utilisation du clustering appelée méthode pseudo Monte Carlo. Après avoir comparé la pertinence des méthodes sur deux réseaux test, la méthode pseudo Monte Carlo est appliquée, pour son gain en temps de simulation et son adaptabilité, dans un cas d'application qui porte sur l'estimation de la probabilité de dépassement des limites du courant de neutre en fonction du déséquilibre de production PV installée
The current changes on the electrical system bring out economic and technical issues in the management of the latter. Among these issues, the impact of distributed generation and VEs on the technical constraints of the distribution network. The aim of this thesis is to study probabilistic models to estimate the impacts of photovoltaic production and electrical vehicles on medium and low voltage distribution networks. Two different probabilistic models of production and consumption were studied : one based on the fitting of historical data by one probability density function, the other one based on the data clustered in groups defined by a standard profile and a probability of occurrence. Three probabilistic load flow technics have been studied in this thesis. The first is based on the Monte Carlo simulation method, the second is based on the PEM approximation method and the last, based on the use of clustering, is called pseudo Monte Carlo method
APA, Harvard, Vancouver, ISO, and other styles
38

Glorot, Xavier. "Apprentissage des réseaux de neurones profonds et applications en traitement automatique de la langue naturelle." Thèse, 2014. http://hdl.handle.net/1866/11989.

Full text
Abstract:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Machine learning aims to leverage data in order for computers to solve problems of interest. Despite being invented close to sixty years ago, Artificial Neural Networks (ANN) remain an area of active research and a powerful tool. Their resurgence in the context of deep learning has led to dramatic improvements in various domains from computer vision and speech processing to natural language processing. The quantity of available data and the computing power are always increasing, which is desirable to train high capacity models such as deep ANNs. However, some intrinsic learning difficulties, such as local minima, remain problematic. Deep learning aims to find solutions to these problems, either by adding some regularisation or improving optimisation. Unsupervised pre-training or Dropout are examples of such solutions. The two first articles presented in this thesis follow this line of research. The first analyzes the problem of vanishing/exploding gradients in deep architectures. It shows that simple choices, like the activation function or the weights initialization, can have an important impact. We propose the normalized initialization scheme to improve learning. The second focuses on the activation function, where we propose the rectified linear unit. This work was the first to emphasise the use of linear by parts activation functions for deep supervised neural networks, which is now an essential component of such models. The last two papers show some applications of ANNs to Natural Language Processing. The first focuses on the specific subject of domain adaptation in the context of sentiment analysis, using Stacked Denoising Auto-encoders. It remains state of the art to this day. The second tackles learning with multi-relational data using an energy based model which can also be applied to the task of word-sense disambiguation.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography