Dissertations / Theses on the topic 'Données artificielles'

To see the other types of publications on this topic, follow the link: Données artificielles.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Données artificielles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Amadou, Kountché Djibrilla. "Localisation dans les bâtiments des personnes handicapées et classification automatique de données par fourmis artificielles." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4021/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le concept du « smart » envahit de plus en plus notre vie quotidienne. L’exemple type est sans doute le smartphone. Celui-ci est devenu au fil des ans un appareil incontournable. Bientôt, c’est la ville, la voiture, la maison qui seront « intelligentes ». L’intelligence se manifeste par une capacité d’interaction et de prise de décision entre l’environnement et l’utilisateur. Ceci nécessite des informations sur les changements d’états survenus des deux côtés. Les réseaux de capteurs permettent de collecter ces données, de leur appliquer des pré-traitements et de les transmettre aux applications. Ces réseaux de par certaines de leurs caractéristiques se rapprochent de l’intelligence collective, dans le sens, où des entités de faibles capacités se coordonnent automatiquement, sans intervention humaine, de façon décentralisée et distribuée pour accomplir des tâches complexes. Ces méthodes bio-inspirées ont servi à la résolution de plusieurs problèmes, surtout l’optimisation, ce qui nous a encouragé à étudier la possibilité de les utiliser pour les problèmes liés à l’Ambient Assisted Living ou AAL et à la classification automatique de données. L’AAL est un sous-domaine des services dits basés sur le contexte, et a pour objectifs de faciliter la vie des personnes âgées et handicapées dans leurs défis quotidiens. Pour ce faire, il détermine le contexte et, sur cette base, propose divers services. Deux éléments du contexte nous ont intéressé : le handicap et la position. Bien que la détermination de la position (localisation, positionnement) se fasse à l’extérieur des bâtiments avec des précisions très satisfaisantes, elle rencontre plusieurs difficultés à l’intérieur des bâtiments, liées à la propagation des ondes électromagnétiques dans les milieux difficiles, aux coûts des systèmes, à l’interopérabilité, etc. Nos travaux se sont intéressés au positionnement des personnes handicapées à l’intérieur de bâtiments en utilisant un réseau de capteurs afin de déterminer les caractéristiques de l’onde électromagnétique (puissance, temps, angle) pour estimer la position par méthodes géométriques (triangulation, latération), méthodes de fingerprinting (k plus proches voisins), par des filtres baysiens (filtre de Kalman). L’application est d’offrir des services types AAL tel que la navigation. Nous avons élargi la notion de réseau de capteurs pour prendre en compte tout appareil capable d’émettre et de recevoir une onde électromagnétique et se trouvant dans l’environnement. Nous avons aussi appliqué l’algorithme API sur la classification automatique de données. Enfin, nous avons proposé une architecture à middleware pour la localisation indoor
The concept of « smart » invades more and more our daily life. A typical example is the smartphone, which becames by years an essential device. Soon, it’s the city, the car and the home which will become « smart ». The intelligence is manifested by the ability for the environment to interact and to take decisons in its relationships with users and other environments. This needs information on state changes occurred on both sides. Sensor networks allow to collect these data, to apply on them some pre-processings and to transmit them. Sensor network, towards some of their caracteristics are closed to Swarm Intelligence in the sense that small entities with reduced capababilities can cooperate automatically, in unattended, decentralised and distributed manner in order to accomplish complex tasks. These bio-inspired methods have served as basis for the resolution of many problems, mostly optimization and this insipired us to apply them on problems met in Ambient Assisted Living and on the data clustering problem. AAL is a sub-field of context-aware services, and its goals are to facilitate the everyday life of elderly and disable people. These systems determine the context and then propose different kind of services. We have used two important elements of the context : the position and the disabilty. Although positioning has very good precision outdoor, it faces many challenges in indoor environments due to the electromagnetic wave propagation in harsh conditions, the cost of systems, interoperabilty, etc. Our works have been involved in positioning disabled people in indoor environment by using wireless sensor network for determining the caracteristics of the electromagnetic wave (signal strenght, time, angle) for estimating the position by geometric methods (triangulation, lateration), fingerprinting methods (k-nearest neighbours), baysiens filters (Kalman filter). The application is to offer AAL services like navigation. Therefore we extend the definition of sensor node to take into account any device, in the environment, capable of emiting and receiving a signal. Also, we have studied the possibility of using Pachycondylla Apicalis for data clustering and for indoor localization by casting this last problem as data clustering problem. Finally we have proposed a system based on a middleware architecture
2

Lavergne, Julien. "Algorithme de fourmis artificielles pour la construction incrémentale et la visualisation interactive de grands graphes de voisinage." Thesis, Tours, 2008. http://www.theses.fr/2008TOUR4049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons dans cette thèse à la résolution d'un problème de classification non supervisée d'un grand volume de données (i.e. 1 million). Nous proposons une méthode de construction incrémentale de grands graphes de voisinage par des fourmis artificielles qui s'inspire du comportement d'auto-assemblage de fourmis réelles se fixant progressivement à un support puis successivement aux fourmis déjà fixées afin de créer une structure vivante. La connexion entre fourmis (données) se fait à partir d'une mesure de similarité entre les données. Nous permettons également l'exploration visuelle et interactive de nos graphes en réponse aux besoins d'extraction de connaissances de l'expert du domaine. Ce dernier peut visualiser la forme globale d'un graphe et explorer localement les relations de voisinage avec une navigation guidée par le contenu. Nos travaux s'inscrivent pleinement en classification interactive ainsi qu'en fouille de textes avec une immersion en réalité virtuelle
We present in this work a new incremental algorithm for building proximity graphs for large data sets in order to solve a clustering problem. It is inspired from the self-assembly behavior observed in real ants where ants progressively become attached to an existing support and then successively to other attached ants. Each artificial ant represents one data. The way ants move and build a graph depends on the similarity between the data. A graph, built with our method, is well suitable for visualization and interactively exploration depending on the needs of the domain expert. He can visualize the global shape of the graph and locally explore the neighborhood relations with a content-based navigation. Finally, we present different applications of our work as the interactive clustering, the automatic graph construction of documents and an immersion in a virtual reality environment for discovering knowledge in data
3

Langlois, Vincent. "Couple de friction métallique de nouvelle génération en arthroplastie totale primaire de hanche : historique, données actuelles et résultats préliminaires d'une série de 54 cas." Bordeaux 2, 2001. http://www.theses.fr/2001BOR23022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Gusarov, Nikita. "Performances des modèles économétriques et de Machine Learning pour l’étude économique des choix discrets de consommation." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALE001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est une étude interdisciplinaire de la modélisation discrète des choix, abordant à la fois les techniques d'économétrie et d'apprentissage automatique (ML) appliquées à la modélisation des choix individuels de consommation. La problématique découle de points de contact insuffisants entre les utilisateurs (économistes et ingénieurs) et les analystes des données, qui poursuivent différents objectifs, bien qu'ils utilisent des techniques similaires. Pour combler cet écart interdisciplinaire, ce travail propose un framework unifié pour l'analyse des performances du modèle. Il facilite la comparaison des techniques d'analyse des données sous différentes hypothèses et transformations.Le framework conçu convient à une variété de modèles économétriques et ML. Il aborde la tâche de comparaison des performances du point de vue de la procédure de recherche, incorporant toutes les étapes affectant potentiellement les perceptions des performances. Pour démontrer les capacités du framework, nous proposons une série de 3 études appliquées. Dans ces études, la performance du modèle est explorée face aux changements de: (1) la taille et l'équilibre de l'échantillon, résultant de la collecte de données; (2) les changements de la structure des préférences au sein de la population, reflétant des hypothèses comportementales incorrectes; et (3) la sélection du modèle, directement liée à la perception des performances
This thesis is a cross-disciplinary study of discrete choice modeling, addressing both econometrics and machine learning (ML) techniques applied to individual choice modeling. The problematic arises from insufficient points of contact among users (economists and engineers) and data scientists, who pursue different objectives, although using similar techniques. To bridge this interdisciplinary gap, the PhD work proposes a unified framework for model performance analysis. It facilitates the comparison of data analysis techniques under varying assumptions and transformations.The designed framework is suitable for a variety of econometrics and ML models. It addresses the performance comparison task from the research procedure perspective, incorporating all the steps potentially affecting the performance perceptions. To demonstrate the framework’s capabilities we propose a series of 3 applied studies. In those studies the model performance is explored face to the changes in (1) sample size and balance, resulting from data collection; (2) changes in preferences structure within population, reflecting incorrect behavioral assumptions; and (3) model selection, directly intertwined with the performance perception
5

Giraudel, Jean-Luc. "Exploration des données et prédiction en écologie par des méthodes d'intelligence artificielle." Toulouse 3, 2001. http://www.theses.fr/2001TOU30138.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Pichlova, Markéta. "Méthodes d'intelligence artificielle pour l'analyse des données en provenance de pistons instrumentés." Paris 6, 2005. http://www.theses.fr/2005PA066104.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Turmeaux, Teddy. "Contraintes et fouille de données." Orléans, 2004. http://www.theses.fr/2004ORLE2048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La fouille de données est un domaine de recherche actif, visant à découvrir des connaissances implicites dans des bases de données. Nous étudions ici l'intérêt de formalismes issus de la logique du premier ordre pour la fouille de données. En particulier, nous examinons l'intérêt des contraintes, vues comme des formules du premier ordre et interprétées sur un domaine particulier. Un point important de tout formalisme utilisé en ECD est la définition d'une relation de généralité qui permet de structurer l'espace des motifs, et de faciliter ainsi la recherche de motifs intéressants. Nous nous intéressons tout d'abord aux bases de données contraintes qui étendent à la fois les bases de données relationnelles, déductives et spatiales, et qui permettent la définition d'ensembles infinis grâce à la notion de tuples généralisés. Nous étudions ensuite le formalisme des clauses contraintes utilisées en Programmation Logique avec Contraintes. Nous reprenons la définition classique de généralité entre clauses contraintes et nous déterminons dans ce cadre le moindre généralisé, le moindre spécialisé et des opérateurs de raffinement. Nous montrons comment les calculer en pratique sur plusieurs domaines de contraintes spécifiques. Enfin nous introduisons un nouveau motif: les règles caractéristiques. Ces règles sont la combinaison d'un chemin quantifié et d'une contrainte et permettent de capturer la notion de lien entre entités et de contraintes sur ces entités. Nous montrons l'intérêt de telles règles dans le cadre de bases de données géographiques, notamment sur des données géologiques fournies par le Bureau de Recherche Géologique et Minières.
8

Ugon, Adrien. "Fusion symbolique et données polysomnographiques." Paris 6, 2013. http://www.theses.fr/2013PA066187.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des dernières décennies, la médecine a nécessité des examens de plus enplus complexes pour effectuer un diagnostic et orienter vers un traitement. Il est mêmecourant de pratiquer plusieurs examens dans des spécialités médicales différentes afind’étudier une pathologie par des approches multiples et ainsi mieux la connaître. Cela pose des difficultés d’inteprétation car les données sont parfois hétérogènes maissurtout souvent très pointues et leur traitement requiert une expertise du domaine. Dans ce contexte, la fusion symbolique constitue une solution possible. En effet, ellea prouvé son efficacité à traiter des problèmes sur des niveaux d’abstraction aussi bienfaibles qu’élevés et à élaborer une connaissance de haut niveau. Cette thèse démontre l’efficacité de la fusion symbolique appliquée au traitement desdonnées polysomnographiques pour l’élaboration d’un outil de support au diagnostic duSyndrome d’Apnées du Sommeil. Pour être diagnostiqué, ce trouble du sommeil nécessiteune polysomnographie. Cet examen médical consiste en l’enregistrement simultané dedivers paramètres physiologiques durant toute une nuit. Son interprétation nécessitel’annotation des courbes enregistrées par une analyse visuelle effectuée par un médecinspécialiste du sommeil, ce qui est une tâche chronophage et fastidieuse dont les résultatspeuvent présenter quelques divergences d’un expert à l’autre. Le recours à un outil desupport au diagnostic fiable permet d’augmenter le consensus. Cette thèse développe lesétapes d’élaboration d’un tel outil
In recent decades, medical examinations required to diagnose and guide to treatmentbecame more and more complex. It is even a current practice to use several examinationsin different medical specialties to study a disease through multiple approaches so as todescribe it more deeply. The interpretation is difficult because the data is both heterogeneous and also veryspecific, with skilled domain of knowledge required to analyse it. In this context, symbolic fusion appears to be a possible solution. Indeed, it wasproved to be very effective in treating problems with low or high levels of abstraction ofinformation to develop a high level knowledge. This thesis demonstrates the effectiveness of symbolic fusion applied to the treatmentof polysomnographic data for the development of an assisted diagnosis tool of Sleep ApneaSyndrome. Proper diagnosis of this sleep disorder requires a polysomnography. This medicalexamination consists of simultaneously recording of various physiological parametersduring a night. Visual interpretation is tedious and time consuming and there commonlyis some disagreement between scorers. The use of a reliable support-to-diagnosis toolincreases the consensus. This thesis develops stages of the development of such a tool
9

Gross-Amblard, David. "Approximation dans les bases de données contraintes." Paris 11, 2000. http://www.theses.fr/2000PA112304.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le modèle des bases de données contraintes, introduit par Kanellakis, Kuper et Revesz [KKR95] permet la prise en compte d'informations géométriques, comme les données cartographiques. Les objets géométriques sont représentés comme la solution d'un système d'équations ou d'inéquations, sans limitation sur leur dimension. La compléxité en temps de l'évaluation des requêtes du premier ordre ou du volume est raisonnable lorsque la dimension des objets est fixe. Lorsque la dimension des objets est une variable du problème, cette complexité est prohibitive (globalement exponentielle dans la dimension). Dans cette thèse, nous nous intéressons à l'obtention d'algorithmes d'évaluation en temps polynomial dans la dimension, par des techniques d'approximation probabiliste. En étendant les travaux de Dyer, Frieze et Kannan [DFK91], nous obtenons : - un algorithme d'échantillonnage de points avec distribution presque uniforme dans l'ensemble défini par une requête du premier ordre ; - un algorithme estimant le volume et la forme de cet ensemble [GdR00]. Sous certaines conditions, le volume peut être estimé sans évaluation préalable de la requête. Nous considérons ensuite la robustesse des relations topologiques entre objets après utilisation d'algorithmes d'approximation. Enfin, nous présentons un prototype de base de données spatiales mettant en oeuvre certains de ces algorithmes probabilistes sur des données réelles.
10

El, Alam Iyad. "Management des compétences : nouvelles technologies et intelligence artificielle." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX32077.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ravail porte sur la modélisation systémique et mathématique des problèmes d'ajustement des Compétences, tant dans les approches classiques que furent les modèles de la Recherche Opérationnelle, que selon de nouveaux points de vue découlant de l'Intelligence Artificielle et des réseaux neuronaux. Cette modélisation est faite dans le cadre d'un Système décisionnel d’évaluation et d’adéquation des compétences par les apports de la modélisation des micros et des macros compétences. Le contexte de l'intelligence artificielle dans lequel nous nous mettrons sera celui des réseaux neuronaux multicouches et de ceux que l'on appelle 'Fuzzy ART' dans le but de proposer un système que nous avons appelé le MARC (Modèle d’Adéquation et de Recherche de Compétences). Les domaines d'application seront surtout ceux des grandes organisations demandant des personnels en grand nombre et pouvant changer fréquemment d'affectation. Le postulat de cette étude vise à montrer qu'il est possible d'envisager une amélioration des décisions des responsables de Ressources Humaines ou des Responsables Opérationnels par une meilleure exploitation des informations liées aux compétences. Ceci est évidemment l'un des facteurs à placer au cœur des nouvelles problématiques stratégiques liées aux compétences et aux formations
The study focuses on the systemic and mathematical modelisation of the skills adjustment problems, both in the classical approaches of operational research models and in new viewpoints stemming from neural networks and artificial intelligence. This modelisation is conducted within the framework of a decision support system of evaluation and skills match through the contribution of the modelisation of micro- and macro-competencies. The context of artificial intelligence will be that of multilayer neural networks, and of the so-called Fuzzy ART, with the aim of proposing a system which we have called CRMM (Competencies Research Matching Model). The system will be implemented in large-sized organizations in need of large numbers of personnel subject to frequent post changes. The assumption on which this study is based tends to demonstrate the possibility to improve the decision-making of human resources or operational managers through a better exploitation of competency-related data. This factor should obviously be placed at the core of new strategic problematics linked to competencies and training
11

Dupont, Xavier. "Programmation par contraintes sur les flux de données." Caen, 2014. http://www.theses.fr/2014CAEN2016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce manuscrit, nous étudions la généralisation de la programmation par contraintes sur les variables à domaines finies aux variables flux. D'une part, les concepts de flux, de séquences infinies et de mots infinies ont fait l'objet de nombreux travaux, et un objectif consiste à réaliser un état de l'art qui couvre la théorie des langages, les logiques classiques et temporelles, ainsi que les nombreux formalismes qui sont fortement apparentés à ceux-ci. Le rapprochement effectué avec les logique temporelles est un premier pas vers l'unification des formalismes sur les flux, et les logiques temporelles étant elles-même nombreuses, nous établissons une classification de celles-ci qui permettra l'extrapolation des contributions à d'autres contextes. Le second objectif consiste à identifier les éléments de ces formalismes qui permettent le traitement des problèmes de satisfactions avec les techniques de la programmation par contraintes sur les variables à domaines finis. Comparée à l'expressivité des logiques temporelles, celle de notre formalisme est plus limitée. Ceci est dû au fait que la programmation par contraintes ne permet que la conjonction de contraintes, et impose d'intégrer la disjonction dans la notion de propagateur de contraintes. Notre formalisme permet un gain en concision et la réutilisation de la notion de propagateur. La question de la généralisation à des logiques plus expressives est laissée ouverte
In this thesis, we investigate the generalisation of constraint programming on finite variables to stream variables. First, the concepts of streams, infinite sequences and infinite words have been extensively studied in the litterature, and we propose a state of the art that covers language theory, classical and temporal logics, as well as the numerous formalisms that are strongly related to those. The comparison with temporal logics is a first step towards the unification of formalisms over streams, and because the temporal logics are themselves numerous, the classification of these allows the extrapolation of our contributions to other contexts. The second goal involves identifying the features of the existing formalisms that lend themselve to the techniques of constraint programming over finite variables. Compared to the expressivity of temporal logics, that of our formalism is more limited. This stems from the fact that constraint programming allows only the conjunction of constraints, and requires encapsulating disjunction into constraint propagators. Nevertheless, our formalism allows a gain in concision and the reuse of the concept of propagator in a temporal setting. The question of the generalisation of these results to more expressive logics is left open
12

Zarri, Gian Piero. "Utilisation de techniques relevant de l'intelligence artificielle pour le traitement de données biographiques complexes." Paris 11, 1985. http://www.theses.fr/1985PA112342.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse fournit une description générale de RESEDA, système « intelligent » d’informatique documentaire qui utilise des techniques empruntées au Knowledge Engineering et l’Intelligence Artificielle (IA) pour le traitement de donnés biographiques complexes. Toutes les connaissances du système sont représentées sous forme purement déclarative, en utilisant un langage de représentation unique (« métalangage ») qui se sert de variables pour la représentation des informations appartenant à la base de règles ; le métalangage constitue un exemple de réalisation IA du concept de « grammaire de cas ». Pour des raisons d’efficacité informatique, les opérations d’inférence de « niveau zéro » de RESEDA sont exécutées en se servant uniquement des ressources de la « machine d’appariement » du système. Cette machine doit une grande partie de sa puissance à une utilisation judicieuse des données temporelles qui permet d’obtenir une indexation efficace de la base de faits. Seules les inférences d’ordre supérieur demandent d’utiliser de véritables « moteurs d’inférence ». Le moteur de RESEDA est caractérisé par les deux faits suivants : a) il est « commandé par l’évènement » (event driven) pendant la phase d’initialisation ; b) la résolution d’un problème est effectuée en le décomposant en sous-problèmes et en construisant progressivement un « arbre de choix ». Cet arbre est exploré en faisant usage d’une technique « en profondeur d’abord » avec « retour en arrière » (backtracking) systématique. Les opérations d’inférence de niveau supérieur du système sont constituées par les « hypothèses » et les « transformations ». La tâche des hypothèses est d’établir de nouvelles relations de cause entre des évènements présents dans la base de faits qui sont à priori complètement disjoints ; le système possède de cette façon une capacité, même si élémentaire, d’apprentissage
The aim of this thesis is to provide a general description of RESEDA, an « intelligent » Information Retrieval system dealing with biographical data and using techniques borrowed from Knowledge Engineering and Artificial Intelligence (AI). All the system’s “knowledge” is represented in purely declarative form. This is the case both for the “fact database” and the “rule base”; the fact database contains the data, in the usual sens of the word that the system has to retrieve. Together, the fact and rule bases make up RESEDA’s “knowledge base”. Information in the knowledge base is depicted using a single knowledge representation language (“metalanguage”), which makes use of quantified variables when describing date in the rule base; the metalanguage is a particularly powerful realization of an AI type “case grammar”. For reasons of computational efficiency, the low-level (“level zero”) inferencing (retrieving) is carried out in RESEDA by using only the resources of the system’s match machine. This machine owes a large part of its power to the judicious use of temporal data in efficiently indexing the fact database. Only high-level inferences require the creation of real “inference engines”. RESEDA’s inference engine hat the general characteristics a) of being “event driven” in its initialization; b) of solving problems by constructing a “choice tree”. Traversal of the choice tree is performed depth-first with systematic backtracking. The high-level inference operations, relying on information in the rule base and making use of the inference engine, that are implemented in the system, are known as “transformations” and “hypotheses”. The “hypotheses” enable new causal relationships to be established between events in the fact database which are a priori totally disjointed; the system is thus equipped with an, albeit elementary, learning capability
13

Mathieu, Olivier. "Application des méthodes de l'intelligence artificielle à l'analyse de données en physique des particules." Aix-Marseille 2, 1990. http://www.theses.fr/1990AIX22058.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail realise en prolog est une introduction de l'intelligence artificielle a l'analyse de donnees en physique des particules. Nous avons realise un environnement interactif d'aide a l'analyse. Il integre la connaissance de la structure de donnees et des logiciels standard de l'experience aleph, et offre un langage de programmation specialise. Cet environnement permet de decrire les taches d'analyse dans un formalisme clair et concis, puis de les figer afin de les utiliser comme bases pour des taches plus avancees. Il est par ailleurs assez ouvert pour recevoir une base de faits decrivant le monde physique qui pourrait en faire un systeme expert
14

Chu, Chengbin. "Nouvelles approches analytiques et concept de mémoire artificielle pour divers problèmes d'ordonnancement." Metz, 1990. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1990/Chu.Chengbin.SMZ9021.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de la thèse a été de construire une structure générale de mémoire artificielle et de l'évaluer sur de nombreux problèmes d'ordonnancement. En cherchant des algorithmes approches efficaces pour la mémoire artificielle relative à ces problèmes, il a été trouvé des résultats analytiques nouveaux sur les problèmes à une machine que nous présentons au chapitre 3. Le chapitre 1, essentiellement bibliographique, est une introduction générale aux problèmes d'ordonnancement et à leur résolution. La première partie du chapitre 2 est consacrée aux concepts et aux outils qui permettent de construire une structure générale de mémoire artificielle. La deuxième partie du chapitre 2 montre comment construire les modules spécifiques propres aux problèmes considérés dans cette thèse: 1) ordonnancement d'atelier de type job-shop pour différents critères; 2) ordonnancement d'atelier à une machine avec dates d'arrivée des taches non identiques pour différents critères; 3) ordonnancement du placement de boites parallélépipédiques dans un emballage parallélépipédique (problème de container loading). Le chapitre 3 est consacré aux problèmes à une machine, et en particulier aux résultats analytiques nouveaux trouves. Le chapitre 4 est consacré à une première évaluation du concept de mémoire artificielle grâce à de nombreuses expériences réalisées pour les trois applications
15

Dubois, Gilles. "Apport de l'intelligence artificielle à la coopération de systèmes d'information automatisée." Lyon 3, 1997. http://www.theses.fr/1997LYO33004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le developpement des technologies de gestion des donnees et de communication entre les systemes provoque la creation d'un nombre toujours plus important de systemes d'information repartis tant a l'echelle de l'organisation qu'a celle de la planete. L'interoperabilite entre ces systemes, autonomes et heterogenes, necessite la definition de processus cooperatifs capables de coordonner les echanges d'information et de reduire les conflits qui en resultent. Une structure federative a base d'objets de differentes granularites est proposee. Cette structure exploite des techniques d'intelligence artificielle pour resoudre les conflits d'ordre structurel et semantique. Une representation dynamique des sources d'information cooperantes permet de suivre leur evolution au cours du temps et assure une description semantique adaptee au traitement de requetes globales. L'autonomie des sources d'information locales est ainsi respectee. Un modele canonique oriente objet assure l'homogeneite de la representation des informations (donnees et connaissances) dans la federation. Une extension de l'architecture proposee exploite les interactions entre agents pour apporter une composante cognitive a la cooperation. Une complementarite entre la structure federative orientee objet et les systemes multi-agents est finalement argumentee. Les choix d'implantation d'un prototype en environnement oriente objet sont presentes
Recent advances in distributed systems, computer network and database technology have changed the information processing needs of organizations. Current information systems should integrate various heterogeneous sources of data and knowledge according to distributed logical and physical requirements. An automated information system is perceived as a set of autonomous components which work in a synergistic manner by exchanging information expertise and coordinating their activities. In order for this exchange to be judicious, the individual systems must agree on the meaning of their exchanged information to solve conflicts due to heterogeneity. We have chosen an object oriented model as canonical model. The object model overcomes component heterogeneity and respects the autonomy of local systems in a distributed context. The cooperation structure uses artificial intelligence techniques to solve both structural and semantic conflicts. A dynamic description of information sources deals with local evolution and is involved in global queries treatment. An extension of the proposal exploits agents interactions to bring cognitive capabilities to the cooperation structure. The contribution of multi-agent systems to information system cooperation is argued. Technical choices to implement a prototype in an object oriented environment are described
16

Boudellal, Toufik. "Extraction de l'information à partir des flux de données." Saint-Etienne, 2006. http://www.theses.fr/2006STET4014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'intelligence artificielle est un thème général de travail en informatique. Nous trouvons dans cette thématique le traitement des données ou l'analyse de données. Ce domaine s'intéresse principalement à la recherche de différentes approches pour la découverte de connaissances. Les problèmes proposés à étudier dans cette thèse sont définis à l'intérieur de ce domaine. Nous commençons notre problématique par un passage sur les travaux en cours en extraction de connaissances à partir des flux de données. Ensuite, revenons sur la base de ces travaux pour étudier leurs portabilités aux systèmes de flux de données adaptatifs. Puis, nous proposons notre nouvelle approche ainsi que des résultats expérimentaux. Nous finirons par une conclusion de nos travaux et des perspectives de recherches dans cette nouvelle thématique
The aim of this work is an attempt to resolve a mining data streams specified problem. It is an adaptative analysis of data streams. The web generation proposes new challenges due to the complexity of data structures. As an example, the data issued from virtual galleries, credit card transactions,. . . Generally, such data are continuous in time, and their sizes are dynamic. We propose a new algorithm based on measures applied to adaptative data streams. The interpretation of results is possible due to such measures. In fact, we compare our algorithm experimentally to other adapted approaches that are considered fundamental in the field. A modified algorithm that is more useful in applications is also discussed. This thesis finishes with a suggestions set about our future work relating to noises data streams and another set of suggestions about the future needfully work
17

Saleh, Imad. "Rapport entre les bases de données relationnelles et l'intelligence artificielle : étude et conception du modèle H-Relation." Paris, EHESS, 1990. http://www.theses.fr/1990EHES0057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Saïs, Fatiha. "Intégration sémantique de données guidée par une ontologie." Paris 11, 2007. http://www.theses.fr/2007PA112300.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous traitons du problème d'intégration sémantique de données. L’objectif est de pouvoir combiner des sources de données autonomes et hétérogènes. Pour y parvenir, toutes les données doivent être représentées selon un même schéma et selon une sémantique unifiée. Cette thèse est articulée en deux parties relativement indépendantes. La première présente une méthode automatique et flexible de réconciliation de données avec une ontologie dans le cas où les données sont représentées dans des tableaux. Pour représenter le résultat de la réconciliation, nous avons défini le format SML dont l’originalité est de permettre de représenter tous les appariements trouvés mais également les informations imparfaitement identifiées. La seconde partie présente deux méthodes de réconciliation de références décrites relativement à un même schéma. Il s’agit de décider si des descriptions différentes se réfèrent à la même entité du monde réel. La première méthode, nommée L2R, est logique. La sémantique des données et du schéma y est traduite par un ensemble de règles de (non) réconciliation permettant d’inférer des décisions de (non) réconciliation certaines. La seconde, nommée N2R, est numérique. Dans cette méthode, la sémantique du schéma est traduite par une mesure de similarité informée utilisée pour calculer la similarité des paires de références. Ce calcul est exprimé dans un système d’équations non linéaire résolu par une méthode itérative. Ces méthodes obtiennent des résultats satisfaisants sur des données réelles, ce qui montre la faisabilité d’approches complètement automatiques et guidées uniquement par une ontologie pour ces deux problèmes de réconciliation
This thesis deals with semantic data integration guided by an ontology. Data integration aims at combining autonomous and heterogonous data sources. To this end, all the data should be represented according to the same schema and according to a unified semantics. This thesis is divided into two parts. In the first one, we present an automatic and flexible method for data reconciliation with an ontology. We consider the case where data are represented in tables. The reconciliation result is represented in the SML format which we have defined. Its originality stems from the fact that it allows representing all the established mappings but also information that is imperfectly identified. In the second part, we present two methods of reference reconciliation. This problem consists in deciding whether different data descriptions refer to the same real world entity. We have considered this problem when data is described according to the same schema. The first method, called L2R, is logical: it translates the schema and the data semantics into a set of logical rules which allow inferring correct decisions both of reconciliation and no reconciliation. The second method, called N2R, is numerical. It translates the schema semantics into an informed similarity measure used by a numerical computation of the similarity of the reference pairs. This computation is expressed in a non linear equation system solved by using an iterative method. Our experiments on real datasets demonstrated the robustness and the feasibility of our approaches. The solutions that we bring to the two problems of reconciliation are completely automatic and guided only by an ontology
19

Salehi, Mehrdad. "Developing a Model and a Language to Identify and Specify the Integrity Constraints in Spatial Datacubes." Doctoral thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26325/26325.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Thèse (Ph. D.)--Université Laval, 2009.
Texte en anglais avec résumés en anglais et en français. Bibliogr.: f. 185-197. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.
20

Collard, Martine. "Fouille de données, Contributions Méthodologiques et Applicatives." Habilitation à diriger des recherches, Université Nice Sophia Antipolis, 2003. http://tel.archives-ouvertes.fr/tel-01059407.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans ce mémoire, ont été développés sur le thème de la découverte de motifs intéressants à travers la fouille de données et mis en oeuvre dans le cadre de la conception de systèmes d'information. Ils sont essentiellement consacrés aux problèmes soulevés par l'étape de fouille pour la découverte de modèles et de motifs fréquents. Ils sont à la fois d'ordre méthodologique et applicatif.
21

Mballo, Cherif. "Ordre, codage et extension du critère de Kolmogorov-Smirnov pour la segmentation de données symboliques." Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous adaptons le critère de découpage binaire de Kolmogorov-Smirnov aux données de type intervalle, diagramme et taxonomique. Ce critère nécessite un ordre des descriptions des objets. Il est basé sur la fonction de répartition. Nous ordonnons ces données de différentes façons. L'estimation de la fonction de répartition théorique par la fonction de répartition empirique permet l'adaptation de ce critère à ces données. En segmentation, la variable à expliquer est souvent qualitative au départ. Dans notre cas, elle peut être de type intervalle, diagramme ou taxonomique. Différents critères de codage de telles variables sont proposés. Ce critère est comparé à celui de l'entropie et de Gini. Deux méthodes d'affectation sont examinées : la première affecte un objet entièrement à un nœud et la deuxième l'affecte à la fois aux deux nœuds fils générés par un découpage. Cette dernière tient compte de la position de la donnée à classer par rapport à celle seuil de coupure. Un algorithme pour expliquer les corrélations à l'intérieur des classes d'une partition obtenue sur une variable classique et une application sur une main d'œuvre frontalière du Luxembourg sont présentés
We adapt Kolmogorov-Smirnov's binary splitting criterion to interval, diagram and taxonomical data for decision tree induction. This criterion requires an order on the values of the objects. It is based on the cumulative distribution function. We order these data in different ways. The approximation of the theoretical distribution function by the empirical distribution function makes it possible to adapt this criterion to these data. In segmentation, the variable to explain is usually qualitative. In our case, it can be a symbolic variable of interval, diagram or taxonomical type. Different coding criteria of these types of variables are proposed. This criterion is compared with two criteria (entropy and Gini). Two assignment methods are examined: the first assigns an object entirely to one node and the second assigns it to both children nodes generated by a split. This last method takes into account the position of the data to be classified with regard to the selected data for the cut. We present an algorithm to explain the correlations inside the classes of a partition obtained on a classical variable and a practical application on a Luxemburg border zone workers
22

Boudane, Abdelhamid. "Fouille de données par contraintes." Thesis, Artois, 2018. http://www.theses.fr/2018ARTO0403/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous abordons les problèmes bien connus de clustering et de fouille de règles d’association. Notre première contribution introduit un nouveau cadre de clustering, où les objets complexes sont décrits par des formules propositionnelles. Premièrement, nous adaptons les deux fameux algorithmes de clustering, à savoir, le k-means et l’algorithme hiérarchique ascendant, pour traiter ce type d’objets complexes. Deuxièmement, nous introduisons un nouvel algorithme hiérarchique descendant pour le clustering des objets représentés explicitement par des ensembles de modèles. Enfin, nous proposons un encodage basé sur la satisfiabilité propositionnelle du problème de clustering des formules propositionnelles sans avoir besoin d’une représentation explicite de leurs modèles. Dans une seconde contribution, nous proposons une nouvelle approche basée sur la satisfiabilité pour extraire les règles d’association en une seule étape. La tâche est modélisée comme une formule propositionnelle dont les modèles correspondent aux règles à extraire. Pour montrer la flexibilité de notre cadre, nous abordons également d’autres variantes, à savoir, l’extraction des règles d’association fermées, minimales non redondantes, les plus générales et les indirectes. Les expérimentations sur de nombreux jeux de données montrent que sur la majorité des tâches de fouille de règles d’association considérées, notre approche déclarative réalise de meilleures performances que les méthodes spécialisées
In this thesis, We adress the well-known clustering and association rules mining problems. Our first contribution introduces a new clustering framework, where complex objects are described by propositional formulas. First, we extend the two well-known k-means and hierarchical agglomerative clustering techniques to deal with these complex objects. Second, we introduce a new divisive algorithm for clustering objects represented explicitly by sets of models. Finally, we propose a propositional satisfiability based encoding of the problem of clustering propositional formulas without the need for an explicit representation of their models. In a second contribution, we propose a new propositional satisfiability based approach to mine association rules in a single step. The task is modeled as a propositional formula whose models correspond to the rules to be mined. To highlight the flexibility of our proposed framework, we also address other variants, namely the closed, minimal non-redundant, most general and indirect association rules mining tasks. Experiments on many datasets show that on the majority of the considered association rules mining tasks, our declarative approach achieves better performance than the state-of-the-art specialized techniques
23

Attik, Mohammed. "Traitement intelligent de données par réseaux de neurones artificiels : application à la valorisation des systèmes d'information géographiques." Nancy 1, 2006. http://docnum.univ-lorraine.fr/public/SCD_T_2006_0211_ATTIK.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de recherche présentés dans cette thèse rentrent dans le cadre de la problématique de l'Extraction de Connaissances à partir des Données (ECD) que nous avons illustrée à travers le traitement des données du Système d'Information Géographique établi par le Bureau de Recherches Géologiques et Minières (BRGM). Les objectifs de cette thèse sont d'établir des cartes prédictives de substances, d'avoir une interprétation sur les critères permettant d'établir cette décision, et de fournir une hiérarchisation des attributs descriptifs. Pour atteindre ces objectifs, nous avons proposé étape par étape un ensemble d'améliorations que nous allons présenter comme suit : Dans un premier temps, nous avons proposé d'utiliser l'approche ensemble de classifieurs de réseaux de neurones offrant des réponses probabilistes afin de construire des cartes prédictives complémentaires pour une meilleure interprétation. Nous avons également proposé d'utiliser les techniques de détermination des " outliers " pour détecter les zones qui ne présentent pas les conditions de minéralisation. Dans un deuxième temps, nous avons proposé des améliorations de techniques pour la sélection de variables, en particulier pour les deux familles de sélection Optimal Brain Damage et Optimal Brain Surgeon, et pour des critères d'évaluation des méthodes de sélection de variables basées sur l'information mutuelle. Nous avons proposé d'utiliser l'approche ensembliste en sélection de variables pour déterminer les variables les plus pertinentes, hiérarchiser de manière globale l'ensemble des variables, permettre aux experts de choisir la ou les solutions qui apparaissent comme étant les plus compréhensibles, et enfin pour se focaliser uniquement sur une combinaison de règles décrivant le concept-cible issue d'un sous-ensemble pertinent de variables. Les deux premiers objectifs visés ci-dessus ont été abordés en utilisant les treillis de Galois et l'analyse statistique de distribution
The purpose of this thesis is: (i) establish predictive maps on ore deposits, (ii) select a subset of descriptive features that effectively contribute to the building of these predictive maps, (iii) identify and interpret dependencies between the selected features, (iv) place the features into a hierarchy that indicates their importance. A real-life data of Geographical Information System provided by the French geological survey (BRGM) have been used in the accomplished experiments. In order to establish predictive maps, we have used neural network ensemble which is a very successful technique where outputs of a set of separately trained neural network are combined to form one unified prediction. This technique generates several predictive maps following the used aggregation function. In addition, to understand domain data, we have focused on selecting a subset of relevant features. We have proposed an improvement of existing features selection techniques that are based on the principle of Optimal Brain Damage (OBD) as well as those of Optimal Brain Surgeon (OBS) and Mutual Information (MI). We have also proposed novel solutions to understand data that combine ensemble feature selection approach with either concept lattices or statistic techniques. The latter solutions help discovering all relevant features and organizing them into hierarchy according to their concurrencies in the selected subsets of features. Moreover, we have addressed the problem of clustering-based analysis of data provided with multiple labels. The proposed approach uses new measures that extend the scope of the recall and precision measures in information retrieval (IR) to the processing of multi-label data. Experiments have been carried out on data pertaining to geographical information system and documentary system have highlighted the accuracy of our approach for knowledge extraction
24

Nair, Benrekia Noureddine Yassine. "Classification interactive multi-label pour l’aide à l’organisation personnalisée des données." Nantes, 2015. https://archive.bu.univ-nantes.fr/pollux/show/show?id=bb2e3d25-7f53-4b66-af04-a9fb5e80ea28.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'importance croissante donnée actuellement aux contenus personnalisés a conduit au développement de plusieurs systèmes de classification interactive pour diverses applications originales. Néanmoins, tous ces systèmes recourent à une classification mono-label des items qui limite fortement l'expressivité de l'utilisateur. Le problème majeur commun à tous les développeurs d'un système de classification interactif et multi-label est: quel classifieur multi-label devrions-nous choisir? Les évaluations expérimentales des systèmes d'apprentissage interactifs récents sont essentiellement subjectives. L:importance de leurs conclusions est donc limitée. Pour tirer des conclusions plus générales qui permettent de guider la sélection de l'algorithme d'apprentissage approprié lors du développement d'un tel système, nous étudions de manière approfondie l'impact des contraintes d'interactivité majeures (apprentissage à partir de peu d'exemples en un temps limité) sur les performances prédictives et les temps de calcul des classifieurs. Les expérimentations mettent en évidence le potentiel d'une approche d'apprentissage ensemble Random Forest of Predictive Clustering Trees(RF-PCT). Cependant, la forte contrainte sur le temps de calcul posée par l'interactivité, nous a conduits à proposer une nouvelle approche d'apprentissage hybride FMDI-RF+ qui associe RF-PCT avec une approche de factorisation de matrice efficace pour la réduction de dimensions. Les résultats expérimentaux indiquent que FMDI-RF+ est aussi précise que RF-PCT dans les prédictions avec clairement un avantage à FMDI-RF+ pour la vitesse de calcul
The growing importance given today to personalized contents led to the development of several interactive classification systems for various novel applications. Nevertheless, all these systems use a single-label item classification which greatly constrains the user's expressiveness. The major problem common to all developers of an interactive multi-label system is: which multi-label classifier should we choose? Experimental evaluations of recent interactive learning systems are mainly subjective. The importance of their conclusions is consequently limited. To draw more general conclusions for guiding the selection of a suitable learning algorithm during the development of such a system, we extensively study the impact of the major interactivity constraints (learning from few examples in a limited time) on the classifier predictive and time-computation performances. The experiments demonstrate the potential of an ensemble learning approach Random Forest of Predictive Clustering Trees(RF-PCT). However,the strong constraint imposed by the interactivity on the computation time has led us to propose a new hybrid learning approach FMDI-RF+ which associates RF-PCT with an efficient matrix factorization approach for dimensionality reduction. The experimental results indicate that RF-FMDI+ is as accurate as RF-PCT in the predictions with a significant advantage to FMDI-RF + for the speed of computation
25

Poussevin, Mickael. "Apprentissage de représentation pour des données générées par des utilisateurs." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066040/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions comment les méthodes d'apprentissage de représentations peuvent être appliquées à des données générées par l'utilisateur. Nos contributions couvrent trois applications différentes, mais partagent un dénominateur commun: l'extraction des représentations d'utilisateurs concernés. Notre première application est la tâche de recommandation de produits, où les systèmes existant créent des profils utilisateurs et objets qui reflètent les préférences des premiers et les caractéristiques des derniers, en utilisant l'historique. De nos jours, un texte accompagne souvent cette note et nous proposons de l'utiliser pour enrichir les profils extraits. Notre espoir est d'en extraire une connaissance plus fine des goûts des utilisateurs. Nous pouvons, en utilisant ces modèles, prédire le texte qu'un utilisateur va écrire sur un objet. Notre deuxième application est l'analyse des sentiments et, en particulier, la classification de polarité. Notre idée est que les systèmes de recommandation peuvent être utilisés pour une telle tâche. Les systèmes de recommandation et classificateurs de polarité traditionnels fonctionnent sur différentes échelles de temps. Nous proposons deux hybridations de ces modèles: la première a de meilleures performances en classification, la seconde exhibe un vocabulaire de surprise. La troisième et dernière application que nous considérons est la mobilité urbaine. Elle a lieu au-delà des frontières d'Internet, dans le monde physique. Nous utilisons les journaux d'authentification des usagers du métro, enregistrant l'heure et la station d'origine des trajets, pour caractériser les utilisateurs par ses usages et habitudes temporelles
In this thesis, we study how representation learning methods can be applied to user-generated data. Our contributions cover three different applications but share a common denominator: the extraction of relevant user representations. Our first application is the item recommendation task, where recommender systems build user and item profiles out of past ratings reflecting user preferences and item characteristics. Nowadays, textual information is often together with ratings available and we propose to use it to enrich the profiles extracted from the ratings. Our hope is to extract from the textual content shared opinions and preferences. The models we propose provide another opportunity: predicting the text a user would write on an item. Our second application is sentiment analysis and, in particular, polarity classification. Our idea is that recommender systems can be used for such a task. Recommender systems and traditional polarity classifiers operate on different time scales. We propose two hybridizations of these models: the former has better classification performance, the latter highlights a vocabulary of surprise in the texts of the reviews. The third and final application we consider is urban mobility. It takes place beyond the frontiers of the Internet, in the physical world. Using authentication logs of the subway users, logging the time and station at which users take the subway, we show that it is possible to extract robust temporal profiles
26

Obenson, Philip. "Contribution à l'étude de l'impact de la logique des prédicats du premier ordre et de l'intelligence artificielle sur les bases de données relationnelles : Application aux bases de données bibliographiques." Université de Franche-Comté. UFR des sciences et techniques, 1987. http://www.theses.fr/1987BESA2014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Jullien, Christian. "Le-cool : un langage orienté objet à héritage multiple permettant la manipulation des concepts et des données en intelligence artificielle." Paris 6, 1986. http://www.theses.fr/1986PA066264.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Après un bref aperçu des techniques employées, les caractéristiques de la programmation orientée objet sont exposées. Les nouvelles structures de contrôle sont abordées, ainsi que la gestion des liens collatéraux. Quelques exemples d'application sont présentés.
28

Bousquet, Cédric. "Raisonnement terminologique et fouille de données en pharmacovigilance : de nouvelles approches basées sur la terminologie MedDRA." Paris 6, 2004. http://www.theses.fr/2004PA066024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Chelghoum, Kamel. "Un modèle de données sémantique pour la C. A. O." Lyon 1, 1989. http://www.theses.fr/1989LYO10173.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le domaine de la conception assistee par ordinateur (cao) a fait naitre des besoins tres specifiques en matiere de gestion de donnees. Outre les fonctionnalites classiques des sgbd, la cao exige de nouvelles fonctionnalites qui se resument principalement en la prise en compte d'objets complexes, des structures de donnees dynamiques, la cohabitation de donnees de types differents et la representation multiple d'un meme objet. Pour repondre a ces exigences, les techniques de bases de donnees apportees par les sgbd classiques ne suffisent pas. On a donc fait appel aux outils de l'intelligence artificielle (ia). Le but de ce travail et de developper un systeme de gestion de donnees repondant aux exigences du domaine de la cao. Pour cela un modele de donnees a ete elabore, il s'inspire a la fois des modeles semantiques de bases de donnees et des modes de representation de connaissances en ia. Le modele est base sur les reseaux semantiques et la logique des predicats. Le systeme offre a l'utilisateur des outils permettant la description et la manipulatin d'objets. Les donnees manipulees representent des structures et des valeurs. Une maquette du systeme a ete developpee avec un langage de programmatin logique
30

Bouabdallaoui, Yassine. "Introduction de l'intelligence artificielle dans le secteur de la construction : études de cas du Facility Management." Electronic Thesis or Diss., Centrale Lille Institut, 2021. http://www.theses.fr/2021CLIL0022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’industrie du Facility Management (FM) a connu une évolution rapide au cours des dernières décennies, ce qui a entraîne une forte expansion des activités qui y sont liées. Les organisations de FM sont passées du rôle traditionnel de fournisseur de services de maintenance à des activités complexes et interconnectées impliquant des personnes, des processus et des technologies. En conséquence de cette croissance exponentielle, les industriels de la FM sont confrontés à des défis croissants et variés allant des défis environnementaux aux défis contractuels et économiques. Le récent développement de l'Intelligence artificielle (IA) et de l’apprentissage machine a offert aux universitaires comme aux industriels un nouveau ensemble d'outils pour innover et relever les nouveaux défis de la digitalisation et de la donnée.L'IA a permis le développement des solutions multiples telles que l'automatisation et la personnalisation des services. Le secteur du Facility Management peut bénéficier de ces nouvelles techniques pour mieux gérer ses actifs et améliorer ses processus. Cependant, l'intégration de l'IA dans l'écosystème du FM est une tâche difficile qui nécessite de réduire l'écart entre les problématiques métiers et les technologies de données. Pour développer le véritable potentiel de l'analyse des données et de l'IA dans l'industrie du FM, un travail important est nécessaire pour surmonter les problèmes de qualité et de gestion des données dans le secteur du FM. L'objectif global de cette thèse est de conceptualiser la compréhension théorique et pratique de la mise en œuvre de l'intelligence artificielle et des technologies d’apprentissage machine dans les activités de Facility Management pour mieux exploiter les bâtiments. Les promesses de la mise en œuvre de l'IA ont été présentées ainsi que les défis et les obstacles qui limitent le développement de l'IA dans le secteur du Facility Management. Pour résoudre ces problématiques, un cadre de travail a été proposé pour améliorer la gestion des données et tirer parti de l'IA dans ce secteur d’activité. Plusieurs études de cas ont été sélectionnées pour aborder ce cadre de travail. Les études de cas sélectionnées couvraient les applications de maintenance prévisionnelle, d'assistant virtuel et d’automatisation de la gestion des demandes d’interventions. Les résultats de ce travail ont démontré le potentiel de l'IA pour relever les défis du FM tels que la gestion de la maintenance et la gestion des déchets. Cependant, de nombreux obstacles limitant le développement de l'IA dans le secteur du FM ont été identifiés, notamment des problèmes de disponibilité des données et de passage à grande échelle
The industry of Facility Management (FM) has known a rapid advancement through the last decades which leads to a largeexpansion of FM activities. The FM organisations have evolved from the traditional role of providing maintenance services toinclude complex and interconnected activities involving people, processes and technologies. As a consequence of thisexponential growth, facility managers are dealing with growing and varied challenges ranging from energy efficiency andenvironmental challenges to service customisation and customer satisfaction. The development of Artificial Intelligence (AI)is offering academics and practitioners a new set of tools to address these challenges. AI is enabling multiple solutions suchas automation, improving predictability and forecasting and offering services customisation. The Facility Managementindustry can benefit from these new techniques to better manage their assets and improve their processes. However, theintegration of AI into the FM ecosystem is a challenging task that needs to overcome the gap between the business driversand the AI. To unlock the full potential of data analytics and AI in the FM industry, significant work is needed to overcomethe issues of data quality and data management in the FM sector. The overall aim of this thesis is to conceptualise thetheoretical and practical understanding and implementation of artificial intelligence and data-driven technologies into FacilityManagement activities to leverage data and optimise facilities usage. Promises of AI implementations were presented alongwith the challenges and the barriers limiting the development of AI in the FM sector. To resolve these issues, a frameworkwas proposed to improve data management and leverage AI in FM. Multiple case studies were selected to address thisframework. The selected case studies covered predictive maintenance, virtual assistant and natural language processingapplications. The results of this work demonstrated the potential of AI to address FM challenges such in maintenancemanagement and waste management. However, multiple barriers limiting the development of AI in the FM sector wereidentified including data availability issues
31

Berrabah, Djamel. "Etude de la cohérence globale des contraintes dans les bases de données." Paris 5, 2006. http://www.theses.fr/2006PA05S003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail de modélisation de données est toujours une activité délicate et nécessite une bonne expérience des concepteurs. Il a pour objectif la construction d’un schéma conceptuel. Ce dernier peut être soit issu du processus d’intégration de schémas de bases de données, soit le résultat d’une rétro-conception de celles-ci soit tout simplement le fruit de la modélisation du réel auquel on s’intéresse. Le schéma conceptuel est un ensemble de structures de données accompagné d’une liste de contraintes afin de représenter au mieux le réel perçu. Les moyens actuels de définition de ces dernières ne permettent pas d’une pan de représenter un grand nombre de contraintes et d’autre part n’assurent pas leur cohérence globale et ainsi la validité des données n’est pas vérifiée. Par conséquent, l’étude de la cohérence globale de ces contraintes, la détection d’éventuels conflits et leur localisation nous parait indispensable. Nous proposons dans cette thèse une approche permettant d’étudier cette cohérence. A cet effet, nous formalisons les contraintes définies au niveau du schéma conceptuel sous forme d’inégalités mathématiques combinées avec des expressions de la logique des prédicats du premier ordre pour générer un programme logique. Pour ce faire, nous avons proposé un méta-schéma permettant de sauvegarder le schéma conceptuel dans sa totalité. Nous appliquons ensuite un raisonnement sur le programme logique afin de détecter et localiser d’éventuels conflits. Dans le cas échéant, le schéma est considéré invalide. Une proposition de correction peut être faite. Dans le cas où le schéma conceptuel est valide, celui-ci est traduit dans un langage cible selon l’environnement choisi. Notre traduction est complète, elle prend en compte la totalité des contraintes définies
The task of data modelling is always a delicate activity and requires a good experiment of designers. The aim of this task is a conceptual schema creation. A conceptual schema can result from database schemas integration process, database reverse engineering or simply from interested reality design. The conceptual schema is a set of data structures and constraints in order to represent, as well as possible, the real word. The current means to define constraint neither represent a great number of constraints nor ensure their total coherence. Thus the validity of data is not checked. In addition, total coherence study of these constraints (the detection of possible conflicts and their localization) is necessary. ‘vVe propose in this thesis an approach to study this coherence. To this end, we formalize constraints, defined in the conceptual schema, in mathematical inequalities form combined with expressions in first-order predicate logic. The result of this formalization is a logical program. To do this, we proposed a meta-schema to save the conceptual schema in its totality. Then, we apply reasoning on the logical program in order to detect and localize possible conflicts. If conflicts exist, the conceptual schema is considered invalid and must be corrected. If the conceptual schema is valid, it is translated in a target language according to the selected environment. Our translation is complete since it takes into account the totality of the defined constraints
32

Deba, El Abbassia. "Transformation de modèles de données : intégration de la métamodélisation et de l'approche grammaticale." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/220/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La recherche d'ARN non-codants (ARNnc) a reçu un regain d'intérêt suite à la découverte de nouveaux types d'ARNnc aux fonctions multiples. De nombreuses techniques ont été développées pour localiser ces ARN dans des séquences génomiques. Nous utilisons ici une approche supposant la connaissance d'un ensemble d'éléments de structure discriminant une famille d'ARNnc appelé signature. Dans cette approche, nous combinons plusieurs techniques de pattern-matching avec le formalisme des réseaux de contraintes pondérées afin de modéliser simplement le problème, de décrire finement les signatures et d'attribuer un coût à chaque solution. Nos travaux nous ont conduit à élaborer plusieurs techniques de filtrage ainsi que des algorithmes de pattern-matching originaux que nous présentons ici. Nous avons de plus conçu un logiciel, appelé DARN!, qui implante notre approche, ainsi qu'un module de génération de signatures. Ceux-ci permettent de rechercher efficacement de nouveaux ARNnc
Following recent discoveries about the several roles of non-coding RNAs (ncRNAs), there is now great interest in identifying these molecules. Numerous techniques have been developed to localize these RNAs in genomic sequences. We use here an approach which supposes the knowledge of a set of structural elements called signature that discriminate an ncRNA family. In this work, we combine several pattern-matching techniques with the weighted constraint satisfaction problem framework. Together, they make it possible to model our biological problem, to describe accurately the signatures and to give the solutions a cost. We conceived filtering techniques as well as novel pattern-matching algorithms. Furthermore, we designed a software called DARN! that implements our approach and another tool that automatically creates signatures. These tools make it possible to localize efficiently new ncRNAs
33

Lakhal, Lotfi. "Contribution à l'étude des interfaces pour non-informaticien dans la manipulation de bases de données relationnelles." Nice, 1986. http://www.theses.fr/1986NICE4067.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous avons enrichi la sémantique du modèle relationnel par la définition d'un réseau sémantique associé aux chemins de requête potentiels. Pour contrôler la sémantique des questions posées, nous avons conçu un système de validation des requêtes relationnelles. Celle-ci propose à l'utilisateur: une traduction de sa requête dans d'autres langages relationnels; un paraphrasage de sa requête en langage pseudo-naturel
34

Weber, Christophe. "Développement de méthodes d'analyse avancées de données expérimentales sur les phénomènes d'encrassement d'échangeurs thermiques en conditions réelles de fonctionnement." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’absence d’outils dédiés, permettant aux industriels d’agir efficacement sur les phénomènes d’encrassement des échangeurs thermiques est à l’origine de cette étude. L’objet de la thèse est de construire une méthodologie pour permettre d’évaluer in situ les paramètres caractéristiques de l’effet d’encrassement, de mettre en œuvre et de valider ensuite des méthodes d’analyse de ces données pour en extraire un outil de prédiction des effets d’encrassement à partir de la connaissance d’un nombre réduit de données de fonctionnement. Cette démarche réalisée pour différents systèmes thermohydrauliques identifiés et instrumentés privilégie des processus d’encrassement dans des récupérateurs thermiques sur fumées et gaz de combustion ainsi que sur des eaux chargées. Nous concentrerons nos efforts sur les phénomènes d’encrassement d’échangeurs en environnement réel, en insistant sur le développement des méthodologies d’identification des cinétiques d’encrassement et sur les démarches de validation pour des cas concrets. Enfin, une application de programme de maintenance, par différentes stratégies de nettoyage limitant les dégradations de l’efficacité des installations étudiées, sera conduite : elle permettra d’identifier les stratégies les plus adaptées. La finalité de la démarche étant destinée à terme, pour une installation quelconque, de développer un outil expert à partir d’un nombre réduit d’informations. Celui-ci permettrait d’évaluer la cinétique d’encrassement de l’équipement thermique pour une période future et d’élaborer une pratique de maintenance dans la perspective d’une réduction des coûts énergétiques et des coûts d’intervention
The lack of dedicated tools, enabling at industrials to act effectively on the fouling phenomena in heat exchanger is the origin of this study. The purpose of the thesis is to develop a methodology in order to assess - in situ -at the characteristic parameters of the fouling effects, implement and then validate the data analysis methods to extract a fouling effects prediction tools from the knowledge of a limited number of operating data. This approach realized for different identified and instrumented thermohydraulic systems favors the fouling process in heat exchangers on charged water. We will focus on the phenomena of fouling of heat exchangers in a real environment, with emphasis on the development of methodologies to identify the fouling kinetic's and on the approach for validation of practical and concrete cases. Finally, application of a maintenance program by different cleaning strategies limiting the degradation of the efficiency of the facilities studied will be conducted: it will identify the most appropriate strategies. The purpose of the initiative, intended to run for any installation, is to develop an expert tool from reduced amount of information. This tool assesses to evaluate the kinetics of fouling of the thermal equipment for a future period and develop a maintenance practice from the perspective of reducing energy costs and costs of intervention
35

Renaux, Pierre. "Extraction d'informations à partir de documents juridiques : application à la contrefaçon de marques." Caen, 2006. http://www.theses.fr/2006CAEN2019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le cadre de nos recherches repose sur l'extraction et l'analyse de connaissances à partir d'une source de données documentaire de type juridique caractérisant les contrefaçons de marques nominatives. Cette discipline reflète parfaitement toutes les contraintes appartenant aux différents domaines intervenant dans le cadre de l'extraction de connaissances à partir de documents : document électronique, bases de données, statistiques, intelligence artificielle et interaction homme/machine. Cependant, les performances de ces méthodes sont étroitement liées à la qualité des données utilisées. Dans notre contexte de recherche, chaque décision est supervisée par un rédacteur (le magistrat) et dépend étroitement du contexte rédactionnel, limitant les procédés d'extraction d'information. Nous nous intéressons donc aux décisions susceptibles de biaiser l'apprentissage des documents. Nous observons les fondements de celles-ci, déterminons leur importance stratégique et le cas échéant nous proposons des solutions adaptées afin de réorienter le biais observé vers une meilleure représentation des documents. Nous proposons une approche exploratoire supervisée pour évaluer la qualité des données impliquées, en déterminant les propriétés biaisant la qualité de la connaissance établie ainsi qu'une plate-forme interactive et collaborative de modélisation des processus conduisant à l'extraction de connaissances afin d'intégrer efficacement le savoir-faire de l'expert
Our research framework focuses on the extraction and analysis of induced knowledge from legal corpus databases describing the nominative trade-mark infringement. This discipline deals with all the constraints arising from the different domains of knowledge discovery from documents: the electronic document, databases, statistics, artificial intelligence and human computer interaction. Meanwhile, the accuracy of these methods are closely linked with the quality of the data used. In our research framework, each decision is supervised by an author (the magistrate) and relies on a contextual writing environment, thus limiting the information extraction process. Here we are interesteding in decisions which direct the document learning process. We observe their surrounding, find their strategic capacity and offer adapted solutions in order to determine a better document representation. We suggest an explorative and supervised approach for calculating the data quality by finding properties which corrupt the knowledge quality. We have developped an interactive and collaborative platform for modelling all the processes concluding to the knowledge extraction in order to efficiently integrate the expert's know-how and practices
36

Allesiardo, Robin. "Bandits Manchots sur Flux de Données Non Stationnaires." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS334/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème des bandits manchots est un cadre théorique permettant d'étudier le compromis entre exploration et exploitation lorsque l'information observée est partielle. Dans celui-ci, un joueur dispose d'un ensemble de K bras (ou actions), chacun associé à une distribution de récompenses D(µk) de moyenne µk Є [0, 1] et de support [0, 1]. A chaque tour t Є [1, T], il choisit un bras kt et observe la récompense y kt tirée depuis D (µkt). La difficulté du problème vient du fait que le joueur observe uniquement la récompense associée au bras joué; il ne connaît pas celle qui aurait pu être obtenue en jouant un autre bras. À chaque choix, il est ainsi confronté au dilemme entre l'exploration et l'exploitation; explorer lui permet d'affiner sa connaissance des distributions associées aux bras explorés tandis qu'exploiter lui permet d'accumuler davantage de récompenses en jouant le meilleur bras empirique (sous réserve que le meilleur bras empirique soit effectivement le meilleur bras). Dans la première partie de la thèse nous aborderons le problème des bandits manchots lorsque les distributions générant les récompenses sont non-stationnaires. Nous étudierons dans un premier temps le cas où même si les distributions varient au cours du temps, le meilleur bras ne change pas. Nous étudierons ensuite le cas où le meilleur bras peut aussi changer au cours du temps. La seconde partie est consacrée aux algorithmes de bandits contextuels où les récompenses dépendent de l'état de l'environnement. Nous étudierons l'utilisation des réseaux de neurones et des forêts d'arbres dans le cas des bandits contextuels puis les différentes approches à base de méta-bandits permettant de sélectionner en ligne l'expert le plus performant durant son apprentissage
The multi-armed bandit is a framework allowing the study of the trade-off between exploration and exploitation under partial feedback. At each turn t Є [1,T] of the game, a player has to choose an arm kt in a set of K and receives a reward ykt drawn from a reward distribution D(µkt) of mean µkt and support [0,1]. This is a challeging problem as the player only knows the reward associated with the played arm and does not know what would be the reward if she had played another arm. Before each play, she is confronted to the dilemma between exploration and exploitation; exploring allows to increase the confidence of the reward estimators and exploiting allows to increase the cumulative reward by playing the empirical best arm (under the assumption that the empirical best arm is indeed the actual best arm).In the first part of the thesis, we will tackle the multi-armed bandit problem when reward distributions are non-stationary. Firstly, we will study the case where, even if reward distributions change during the game, the best arm stays the same. Secondly, we will study the case where the best arm changes during the game. The second part of the thesis tacles the contextual bandit problem where means of reward distributions are now dependent of the environment's current state. We will study the use of neural networks and random forests in the case of contextual bandits. We will then propose meta-bandit based approach for selecting online the most performant expert during its learning
37

Khiari, Mehdi. "Découverte de motifs n-aires utilisant la programmation par contraintes." Caen, 2012. http://www.theses.fr/2012CAEN2015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La fouille de données et la Programmation Par Contraintes (PPC) sont deux domaines de l'informatique qui ont eu, jusqu’à très récemment, des destins séparés. Cette thèse est l'une des toutes premières à s'intéresser aux liens entre la fouille de données et la PPC, et notamment aux apports de cette dernière à l'extraction de motifs sous contraintes. Différentes méthodes génériques pour la découverte de motifs locaux ont été proposées. Mais, ces méthodes ne prennent pas en onsidération le fait que l'intérêt d'un motif dépend souvent d'autres motifs. Un tel motif est appelé motif n-aire. Très peu de travaux concernant l'extraction de motifs n-aires ont été menés et les méthodes développées sont toutes ad hoc. Cette thèse propose un cadre unifié pour modéliser et résoudre les contraintes n-aires en fouille de données. Tout d'abord, l'extraction de motifs n-aires est modélisée sous forme de problème de satisfaction de contraintes (CSP). Puis, un langage de requêtes à base de contraintes de haut niveau est proposé. Ce langage permet d'exprimer une large panoplie de contraintes n-aires. Plusieurs méthodes de résolution sont développées et comparées. Les apports principaux de ce cadre sont sa déclarativité et sa généricité. Il s'agit du premier cadre générique et flexible permettant la modélisation et la résolution de contraintes n-aires en fouille de données
Until recently, data mining and Constraint Programming have been developed separately one from the other. This thesis is one of the first to address the relationships between these two areas of computer science, in particular using constraint programming techniques for constraint-based mining. The data mining community has proposed generic approaches to discover local patterns under constraints, and this issue is rather well-mastered. However, these approaches do not take into consideration that the interest of a pattern often depends on the other patterns. Such a pattern is called n-ary pattern or pattern set. Few works on mining n-ary patterns were conducted and the proposed approaches are ad hoc. This thesis proposes an unified framework for modeling and solving n-ary constraints in data mining. First, the n-ary pattern extraction problem is modeled as a Constraint Satisfaction Problem (CSP). Then, a high-level declarative language for mining n-ary patterns is proposed. This language allows to express a wide range of n-ary constraints. Several solving methods are developed and compared. The main advantages of this framework are its declarative and generic sides. To the best of our knowledge, it is the first generic and flexible framework for modeling and mining n-ary patterns
38

Szathmary, Laszlo. "Méthodes symboliques de fouille de données avec la plate-forme Coron." Phd thesis, Université Henri Poincaré - Nancy I, 2006. http://tel.archives-ouvertes.fr/tel-00336374.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet principal de cette thèse est l'extraction de connaissances dans les bases de données (ECBD). Plus précisément, nous avons étudié deux des plus importantes tâches d'ECBD actuelles, qui sont l'extraction de motifs et la génération de règles d'association. Tout au long de notre travail, notre objectif a été de trouver des règles d'associations intéressantes selon plusieurs points de vue : dans un but de fouille efficace, pour réduire au minimum l'ensemble des règles extraites et pour trouver des unités de connaissances intelligibles (et facilement interprétables). Pour atteindre ce but, nous avons développé et adapté des algorithmes spécifiques.
Les contributions principales de cette thèse sont : (1) nous avons développé et adapté des algorithmes pour trouver les règles d'association minimales non-redondantes ; (2) nous avons défini une nouvelle base pour les règles d'associations appelée “règles fermées” ; (3) nous avons étudié un champ de l'ECBD important mais relativement peu étudié, à savoir l'extraction des motifs rares et des règles d'association rares ; (4) nous avons regroupé nos algorithmes et une collection d'autres algorithmes ainsi que d'autres opérations auxiliaires d'ECBD dans une boîte à outils logicielle appelée Coron.
39

Nguyen, Gia Toan Delobel Claude. "Quelques fonctionnalités de bases de données avancées." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00321615.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Chevalier, Jules. "Raisonnement incrémental sur des flux de données." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES008/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons dans cette thèse une architecture pour le raisonnement incrémental sur des flux de triples. Afin de passer à l’échelle, elle est conçue sous la forme de modules indépendants, permettant l’exécution parallèle du raisonnement. Plusieurs instances d’une même règle peuvent être exécutées simultanément afin d’améliorer les performances. Nous avons également concentré nos efforts pour limiter la dispersion des doublons dans le système, problème récurrent du raisonnement. Pour cela, un triplestore partagé permet à chaque module de filtrer au plus tôt les doublons. La structure de notre architecture, organisée en modules indépendants par lesquels transitent les triples, lui permet de recevoir en entrée des flux de triples. Enfin, notre architecture est indépendante du fragment utilisé. Nous présentons trois modes d’inférence pour notre architecture. Le premier consiste à inférer l’ensemble des connaissances implicites le plus rapidement possible. Le second priorise l'inférence de certaines connaissances prédéterminées. Le troisième vise à maximiser la quantité de triples inférés par seconde. Nous avons implémenté l’architecture présentée à travers Slider, un raisonneur incrémental prenant nativement en charge les fragments ρdf et RDFS. Il peut être facilement étendu à des fragments plus complexes. Nos expérimentations ont montré une amélioration des performances de plus de 65% par rapport au raisonneur OWLIM-SE. Nous avons également mené des tests montrant que l’utilisation du raisonnement incrémental avec Slider apporte un avantage systématique aux performances par rapport au raisonnement par lots, quels que soient l’ontologie utilisée et le fragment appliqué
In this thesis, we propose an architecture for incremental reasoning on triple streams. To ensure scalability, it is composed of independent modules; thus allowing parallel reasoning. That is, several instances of a same rule can be simultaneously executed to enhance performance. We also focused our efforts to limit the duplicates spreading in the system, a recurrent issue for reasoning. To achieve this, we design a shared triplestore which allows each module to filter duplicates as soon as possible. The triples passes through the different independent modules of the architecture allows the reasoner to receive triple streams as input. Finally, our architecture is of agnostic nature regarding the fragment used for the inference. We also present three inference modes for our architecture: the first one infers all the implicit knowledge as fast as possible; the second mode should be used when the priority has to be defined for the inference of a specific type of knowledge; the third one proposes to maximize the amount of triples inferred per second. We implemented this architecture through Slider, an incremental reasoning natively supporting the fragments ρdf and RDFS: It can easily be extended to more complex fragments. Our experimentations show a 65% improvement over the reasoner OWLIM-SE. However, the recently published reasoner RDFox exhibits better performance, although this one does not provide prioritized inference. We also conducted experimentations showing that the use of incremental reasoning over batch-based reasoning offers systematically better performance for all the ontologies and fragments used
41

Malek, Chakib. "Diagnostic du paysage à partir de données satellitaires : application au Sahel-Oudalan (Burkina Faso)." Paris 7, 1989. http://www.theses.fr/1989PA070022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'extraction des unites "objectives" du paysage s'articule, a l'interieur d'une demarche diachronique, autour de la combinaison de resultats intermediaires, obtenus a partir des differentes dates -coherentes avec les objectifs - d'un cycle annuel. Une partition optimale non- dirigee de l'espace est d'abord realisee sur chaque date, dans laquelle le nombre de classes est objectivement determine d'apres un critere de stabilite. La conjonction image des unites obtenues aux differentes dates, permet l'obtention dans un contexte dynamique et temporel, des unites "reelles" du paysage, legitimees par la nature physique des donnees satellitaires, et par les criteres de la methode de classification. L'etude detaillee (classification, interpretation, analyses) de chaque unite ainsi generee, conduit a leur diagnostic. Celui-ci permet d'etablir un bilan de sante de ces unites, qui conduit a localiser les zones d'intervention prioritaires, et a orienter les actions a entreprendre par les acteurs du developpement
Based on the combination of intermediate results from different and justified dates-in relation to the purposes of the study - in an annual cycle, theextraction of "objective" landscape units lean on a multi- temporal approach. An "optimal" unsupervised of the regional area is first done on the base of each date, in which the number of clusters is objectively determined by a criterion of stability. The, in a dyna- mic and temporal context, the "real" landscape units are obtained by the image-conjunction of the units resulting from the different dates, justified by the physical nature of remote sensing data, and by the clustering criteria. The detailed stydy (classification, interpretation, analysis) of each so generated unit, lead to its dynamic diagnosis. Which allow the elaboration of a "checkup" of these units, leading to the location of the area needing, with top priorities, some inter- ventions, and to direct the types of actions the actors of development have to undertake
42

Gal, Jocelyn. "Application d’algorithmes de machine learning pour l’exploitation de données omiques en oncologie." Thesis, Université Côte d'Azur (ComUE), 2019. http://theses.univ-cotedazur.fr/2019AZUR6026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement de l’informatique en médecine et en biologie a permis de générer un grand volume de données. La complexité et la quantité d’informations à intégrer lors d’une prise de décision médicale ont largement dépassé les capacités humaines. Ces informations comprennent des variables démographiques, cliniques ou radiologiques mais également des variables biologiques et en particulier omiques (génomique, protéomique, transcriptomique et métabolomique) caractérisées par un grand nombre de variables mesurées relativement au faible nombre de patients. Leur analyse représente un véritable défi dans la mesure où elles sont fréquemment « bruitées » et associées à des situations de multi-colinéarité. De nos jours, la puissance de calcul permet d'identifier des modèles cliniquement pertinents parmi cet ensemble de données en utilisant des algorithmes d’apprentissage automatique. A travers cette thèse, notre objectif est d’appliquer des méthodes d’apprentissage supervisé et non supervisé, à des données biologiques de grande dimension, dans le but de participer à l’optimisation de la classification et de la prise en charge thérapeutique des patients atteints de cancers. La première partie de ce travail consiste à appliquer une méthode d’apprentissage supervisé à des données d’immunogénétique germinale pour prédire l’efficacité thérapeutique et la toxicité d’un traitement par inhibiteur de point de contrôle immunitaire. La deuxième partie compare différentes méthodes d’apprentissage non supervisé permettant d’évaluer l’apport de la métabolomique dans le diagnostic et la prise en charge des cancers du sein en situation adjuvante. Enfin la troisième partie de ce travail a pour but d’exposer l’apport que peuvent présenter les essais thérapeutiques simulés en recherche biomédicale. L’application des méthodes d’apprentissage automatique en oncologie offre de nouvelles perspectives aux cliniciens leur permettant ainsi de poser des diagnostics plus rapidement et plus précisément, ou encore d’optimiser la prise en charge thérapeutique en termes d’efficacité et de toxicité
The development of computer science in medicine and biology has generated a large volume of data. The complexity and the amount of information to be integrated for optimal decision-making in medicine have largely exceeded human capacities. These data includes demographic, clinical and radiological variables, but also biological variables and particularly omics (genomics, proteomics, transcriptomics and metabolomics) characterized by a large number of measured variables relatively to a generally small number of patients. Their analysis represents a real challenge as they are frequently "noisy" and associated with situations of multi-colinearity. Nowadays, computational power makes it possible to identify clinically relevant models within these sets of data by using machine learning algorithms. Through this thesis, our goal is to apply supervised and unsupervised learning methods, to large biological data, in order to participate in the optimization of the classification and therapeutic management of patients with various types of cancer. In the first part of this work a supervised learning method is applied to germline immunogenetic data to predict the efficacy and toxicity of immune checkpoint inhibitor therapy. In the second part, different unsupervised learning methods are compared to evaluate the contribution of metabolomics in the diagnosis and management of breast cancer. Finally, the third part of this work aims to expose the contribution that simulated therapeutic trials can make in biomedical research. The application of machine learning methods in oncology offers new perspectives to clinicians allowing them to make diagnostics faster and more accurately, or to optimize therapeutic management in terms of efficacy and toxicity
43

Pillet, Constance-Aurore. "Transformation progressive du texte en données à l'aide de méthodes linguistiques et évaluation de cet apport de la linguistique sur l'efficacité du Text Mining." Paris 9, 2003. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2003PA090007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Cembrzynski, Thierry. "Conception et réalisation d'outils statistiques et d'intelligence artificielle pour l'aide à la planification du réseau de transport d'Électricité de France /." [Le Chesnay] : Institut national de recherche en informatique et en automatique, 1988. http://catalogue.bnf.fr/ark:/12148/cb34940505d.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Sarkis, Georges. "Communication entre les systèmes de CAO et les systèmes experts à base de connaissance en bâtiment dans un environnement d'intelligence artificielle." Marne-la-vallée, ENPC, 1992. http://www.theses.fr/1992ENPC9202.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème de conception dans le domaine du bâtiment est pluridisciplinaire. Plusieurs experts (architectes, ingénieurs, techniciens,. . . ) doivent coopérer et négocier afin de produire un résultat cohérent. Pour développer un outil informatique d'aide à la conception en bâtiment, on utilise un environnement avancé d'intelligence artificielle alliant une puissante représentation orientée objet à des mécanismes d'organisation et de contrôle du raisonnement. Le travail porte surtout sur le couplage de systèmes experts à base de connaissance en bâtiment (pour le raisonnement) avec des outils de CAO (pour la saisie et l'interaction graphique). La thèse consiste en une contribution à la spécification des éléments de base d'un prototype de cet outil. La spécification est concrétisée par une maquette logicielle.
46

Reyssier-Danzart, Annie. "Serebral, un système expert pour l'aide à l'interrogation d'une base de données." Paris 11, 1985. http://www.theses.fr/1985PA112284.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’interrogation souple des bases de données suscite aujourd'hui l’intérêt des chercheurs·en Intelligence Artificielle. Nous avons développé un outil, SEREBRAL, qui permet d'interroger intelligemment une base de données répertoriant des offres d’emploi en Informatique. SEREBRAL se décompose en trois parties:-BASEXP, un système expert qui dirige la recherche d'un emploi en Informatique une interface avec la base de données une base de données relationnelle, ORACLE distribuée en France par lNFI), dans laquelle sont recensées des annonces d'emploi. L'axe principal de cette recherche a été de mettre au point un système expert, BASEXP (Base Assistée par Système Expert). Ce mode de représentation et d'exploitation des connaissances utilise des schémas et des règles de production, associés à des coefficients de vraisemblance. Il peut être employé dans diverses applications similaires à celle que nous avions étudiée. Afin d'interroger la base de données, nous avons développé un prototype d'interface permettant de générer des requêtes SQL (conformes aux contraintes fournies par BASEXP appliqué aux emplois en informatique), de transmettre ces requêtes au SGBD et de fournir les réponses à l'utilisateur. Grâce à ces réalisations, SEREBRAL est aujourd’hui opérationnel et permet de dialoguer avec le demandeur d'emploi, de définir un profil d'emploi précis puis de communiquer les offres de la base correspondant à ce profil
Flexible query of data bases has provoked the interest of researchers in artificial intelligence. We have developed a tool called SEREBRAL that makes it possible to query a data base intelligently. This data base contains descriptions of jobs offered by computer science firms. SEREBRAL is made up of three modules: BASEXP, an expert system that allows a user to carry out a search for a job in computer science, an interface with the data base, a relational data base ORACLE (distributed by ORACLE Corporation) in which descriptions of job vacancies are stored. The main concern of the research carried out was the development of an expert system called BASEXP. This system of knowledge representation and knowledge exploitation uses schemes and rules in association with credibility factors. It can be used in various fields like that which was examined in this study. Ln order to query the data base, we developed an interface that generates the SQL queries, These queries adapt themselves to the constraints generated by BASEXP in the field of computing jobs. The interface then transmits these queries to the DBMS. Finally, it communicates the responses of the base to the user. SEREBRAL is now operational and can dialogue with the job seeker, for whom a job profile can be drawn up so that he can receive those job offers stored in the base that correspond to his profile
47

Lebastard, Franck. "Driver : une couche objet virtuelle persistante pour le raisonnement sur les bases de données relationnelles." Lyon, INSA, 1993. http://www.theses.fr/1993ISAL0030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente DRIVER, une couche objet virtuelle persistante permet tant d'utiliser dans un même formalisme objet choisi aussi bien l'information contenue dans les bases de données relationnelles que la connaissance d'un système de plus haut niveau, comme notre générateur de Systèmes Experts SMECI. Un schéma de correspondances, défini par l'utilisateur, associe aux données des bases connectées une représentation objet qui permet de les manipuler et de les exploiter de façon absolument transparente dans l'environnement du système expert, notamment dans le cadre du raisonnement. DRIVER permet également d'apporter la persistance aux objets de l'environnement, au gré de l'utilisateur
This thesis presents DRIVER, a persistent virtual object layer, that permits to use, in a same chosen object formalism, both the information contained in relational databases and the knowledge of a higher-level system, such as our expert system shell SMECI. A user-defined mapping assigns an object representation to data of connected bases; it permits to handle and to utilize them exactly as other objects in the expert system environment, for example during reasoning. DRIVER can also supply some environment objects with persistence, according to user's wishes
48

Ravi, Mondi. "Confiance et incertitude dans les environnements distribués : application à la gestion des donnéeset de la qualité des sources de données dans les systèmes M2M (Machine to Machine)." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM090/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La confiance et l'incertitude sont deux aspects importants des systèmes distribués. Par exemple, de multiples sources d'information peuvent fournir le même type d'information. Cela pose le problème de sélectionner la source la plus fiable et de résoudre l'incohérence dans l'information disponible. Gérer de front la confiance et l'incertitude constitue un problème complexe et nous développons à travers cette thèse, une solution pour y répondre. La confiance et l'incertitude sont intrinsèquement liés. La confiance concerne principalement les sources d'information alors que l'incertitude est une caractéristique de l'information elle-même. En l'absence de mesures de confiance et d'incertitude, un système doit généralement faire face à des problèmes tels que l'incohérence et l'incertitude. Pour aborder ce point, nous émettons l'hypothèse que les sources dont les niveaux de confiance sont élevés produiront de l'information plus fiable que les sources dont les niveaux de confiance sont inférieurs. Nous utilisons ensuite les mesures de confiance des sources pour quantifier l'incertitude dans l'information et ainsi obtenir des conclusions de plus haut niveau avec plus de certitude.Une tendance générale dans les systèmes distribués modernes consiste à intégrer des capacités de raisonnement dans les composants pour les rendre intelligents et autonomes. Nous modélisons ces composants comme des agents d'un système multi-agents. Les principales sources d'information de ces agents sont les autres agents, et ces derniers peuvent posséder des niveaux de confiance différents. De plus, l'information entrante et les croyances qui en découlent sont associées à un degré d'incertitude. Par conséquent, les agents sont confrontés à un double problème: celui de la gestion de la confiance sur les sources et celui de la présence de l'incertitude dans l'information. Nous illustrons cela avec trois domaines d'application: (i) la communauté intelligente, (ii) la collecte des déchets dans une ville intelligente, et (iii) les facilitateurs pour les systèmes de l'internet du futur (FIWARE - le projet européen n° 285248, qui a motivé la recherche sur nos travaux). La solution que nous proposons consiste à modéliser les composants de ces domaines comme des agents intelligents qui incluent un module de gestion de la confiance, un moteur d'inférence et un système de révision des croyances. Nous montrons que cet ensemble d'éléments peut aider les agents à gérer la confiance aux autres sources, à quantifier l'incertitude dans l'information et à l'utiliser pour aboutir à certaines conclusions de plus haut niveau. Nous évaluons finalement notre approche en utilisant des données à la fois simulées et réelles relatives aux différents domaines d'application
Trust and uncertainty are two important aspects of many distributed systems. For example, multiple sources of information can be available for the same type of information. This poses the problem to select the best source that can produce the most certain information and to resolve incoherence amongst the available information. Managing trust and uncertainty together forms a complex problem and through this thesis we develop a solution to this. Trust and uncertainty have an intrinsic relationship. Trust is primarily related to sources of information while uncertainty is a characteristic of the information itself. In the absence of trust and uncertainty measures, a system generally suffers from problems like incoherence and uncertainty. To improve on this, we hypothesize that the sources with higher trust levels will produce more certain information than those with lower trust values. We then use the trust measures of the information sources to quantify uncertainty in the information and thereby infer high level conclusions with greater certainty.A general trend in the modern distributed systems is to embed reasoning capabilities in the end devices to make them smart and autonomous. We model these end devices as agents of a Multi Agent System. Major sources of beliefs for such agents are external information sources that can possess varying trust levels. Moreover, the incoming information and beliefs are associated with a degree of uncertainty. Hence, the agents face two-fold problems of managing trust on sources and presence of uncertainty in the information. We illustrate this with three application domains: (i) The intelligent community, (ii) Smart city garbage collection, and (iii) FIWARE : a European project about the Future Internet that motivated the research on this topic. Our solution to the problem involves modelling the devices (or entities) of these domains as intelligent agents that comprise a trust management module, an inference engine and a belief revision system. We show that this set of components can help agents to manage trust on the other sources and quantify uncertainty in the information and then use this to infer more certain high level conclusions. We finally assess our approach using simulated and real data pertaining to the different application domains
49

Pujo, Pascal. "Développement d'une interface conviviale pour l'interrogation en langage naturel d'une base de données avec utilisation des concepts et des moyens de l'intelligence artificielle." Paris 11, 1989. http://www.theses.fr/1989PA112255.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de ce travail est le développement d'une interface conviviale en langage naturel pour l'interrogation d'une base de données relationnelle. Le système réalisé se différencie des approches habituelles par son architecture intégrée, la gestion du modèle relationnel étant sous le contrôle total de l'interface. La première étape du travail a consisté à élaborer les procédures de gestion des données et d'analyse des requêtes. Ceci met en jeu de façon intensive les informations sémantiques issues de la modélisation conceptuelle de l'univers interrogé. La couverture linguistique est améliorée par un affinage de l'analyse syntaxique au moyen d'une grammaire hors­ contexte. Mais il paraît nécessaire d'offrir des fonctionnalités renforçant la convivialité de l'interface. Tout d'abord, l'interprétation du langage naturel s'accompagne d'explications : cela permet de vérifier la pertinence de la réponse obtenue. A la différence de la paraphrase, le suivi de ces explications a un caractère didactique intéressant pour des utilisateurs débutants. Ensuite, la structure intégrée a l'avantage de faciliter les échanges d'informations entre l'analyseur des requêtes et la base de données : ceci permet la mise en œuvre aisée de procédures tolérant certaines erreurs susceptibles d'apparaître dans les requêtes des utilisateurs :• erreurs lexicales (fautes de frappe, d'orthographe) : leur traitement fait appel à un algorithme original qui tient compte des contraintes sémantiques de la question pour ne proposer que des corrections «intelligentes» ;• erreurs sémantiques (raccourcis de la langue naturelle, présuppositions erronées). L'architecture retenue autorise l'appel à ces fonctionnalités correctives au cours de la phase d'interprétation de la question, et non, comme bien souvent, après l'échec de celle-ci. Enfin, la maîtrise de l'organisation des données permet d'envisager l'évolution du système pour manipuler des objets complexes d'une part et pour adjoindre aux informations extensionnelles une base intensionnelle de façon à fournir un comportement déductif.
50

Randriamanantena, Herimino Paoly. "Utilisation de données satellitaires dans les modèles météorologiques." Toulouse, INPT, 1992. http://www.theses.fr/1992INPT030H.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les observations satellitaires fournissent aux modeles meteorologiques des parametres faciles a manipuler, disponibles a differentes resolutions spatio-temporelles. Les proprietes radiatives spectrales du couvert vegetal observees par satellite sont prises comme criteres pour remettre a jour la reconnaissance des differentes formes de vegetation a la surface du globe. Une amelioration des parametrisations des processus de surface, faisant intervenir la vegetation, et introduisant des parametres satellitaires, apparait faisable et necessaire

To the bibliography