Segui questo link per vedere altri tipi di pubblicazioni sul tema: Intelligence artificielle – Information.

Tesi sul tema "Intelligence artificielle – Information"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Intelligence artificielle – Information".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Vittaut, Jean-Noël. "LeJoueur : un programme de General Game Playing pour les jeux à information incomplète et-ou imparfaite". Thesis, Paris 8, 2017. http://www.theses.fr/2017PA080102.

Testo completo
Abstract (sommario):
Cette thèse est une contribution au domaine du General Game Playing (GGP), une problématique de l’Intelligence Artificielle qui s’intéresse au développement d’agents autonomes capables de jouer à une grande variété de jeux et que nous appelons les jeux généraux. Le GGP se distingue des recherches sur les algorithmes permettant de bien jouer à des jeux spécifiques et offre de ce fait la possibilité d’évaluer l’efficacité de méthodes développées en Intelligence Artificielle sans perturbation par ajout de connaissances spécifiques à un jeu fournies par des experts. Un aspect important de nos travaux de recherche porte sur l’utilisation d’une représentation implicite de l’arbre de jeu sous la forme de règles logiques, une représentation explicite étant trop volumineuse pour être stockée sur une machine. Dans ce contexte, nous avons proposé une méthode efficace d’instanciation des règles définissant les jeux permettant la génération d’un circuit logique avec lequel nous pouvons effectuer une analyse statique du jeu et simuler rapidement des parties aléatoires. Une parallélisation de l’évaluation du circuit logique nous a permis d’accélérer significativement la recherche dans l’arbre de jeu. Nous avons proposé des adaptations des méthodes de recherche Monte-Carlo dans les arbres aux contraintes du GGP ainsi qu’une méthode permettant d’utiliser une estimation RAVE (Rapid Action Value Estimation) en début de recherche lorsque peu d’estimations sont disponibles
This thesis is a contribution to the General Game Playing domain (GGP), a problematic of Artificial Intelligence (AI) aiming at developing autonomous agents that are able to play at a large variety of games called General Games. GGP is different from search algorithms allowing to play with a good level at specific games and opens the possibility to evaluate the efficiency of AI methods without prior knowledge form experts. An important aspect of our work lies on the utilization of an implicit game tree representation as a set of logic rules, an explicit representation being too large to be stored in memory. In this context, we have proposed an efficient method of rule instantiation allowing the computation of a logic circuit. A parallelization of the circuit evaluation allowed us to significantly accelerate the game tree exploration. We have proposed an adaptation of Monte-Carlo Tree Search for GGP and a method using RAVE (Rapid Action Value Estimation) in the beginning of the exploration when few estimations are available
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Renoux, Jennifer. "Contribution to multiagent planning for active information gathering". Caen, 2015. https://hal.archives-ouvertes.fr/tel-01206920.

Testo completo
Abstract (sommario):
Dans cette thèse, nous considérons le problème de l'exploration d'événements. Nous définissons l'exploration d'événements comme le processus d'explorer un environnement topologiquement connu dans le but de récolter de l'information à propos d'événements dans environnement. Les systèmes multiagents sont habituellement utilisés dans les applications de collecte d'informations, mais posent certains problèmes tels que la coordination des agents et la communication. Notre travail propose un modèle décentralisé de planification multiagents pour la collecte d'informations. Dans ce modèle les agents utilisent un état de croyance étendu qui contient leurs propres croyances sur l'environnement, mais également des approximations des croyances des autres agents du système. Cet état de croyance étendu est utilisé pour quantifier la pertinence d'une information, pour eux ou pour un autre agent. Ils peuvent ainsi décider d'explorer l'environnement ou de communiquer une information, en fonction de l'action qui apporte de plus au système dans sa globalité. L'inconvénient majeur de ce modèle est sa complexité. En effet, la taille de l'espace des états de croyances augmente exponentiellement avec le nombre d'agents et la taille de l'environnement. Nous proposons un algorithme de résolution utilisant l'hypothèse couramment adoptée de l'indépendance des variables. Enfin, nous considérons le fait que lors de l'exploration d'événements, les agents doivent réévaluer leurs croyances régulièrement. Pour résoudre ce problème, nous proposons une fonction de lissage permettant aux agents d'oublier régulièrement les informations trop vieilles et pouvant être obsolètes
In this thesis, we address the problem of performing event exploration. We define event exploration as the process of exploring a topologically known environment to gather information about dynamic events in this environment. Multiagent systems are commonly used for information gathering applications, but bring important challenges such as coordination and communication. This thesis proposes a new fully decentralized model of multiagent planning for information gathering. In this model, called MAPING, the agents use an extended belief state that contains not only their own beliefs but also approximations of other agents' beliefs. With this extended belief state they are able to quantify the relevance of a piece of information for themselves but also for others. They can then decide to explore a specific area or to communicate a specific piece of information according to the action that brings the most information to the system in its totality. The major drawback of this model is its complexity: the size of the belief states space increases exponentially with the number of agents and the size of the environment. To overcome this issue, we also suggest a solving algorithm that uses the well-known adopted assumption of variable independence. Finally we consider the fact that event exploration is usually an open-ended problem. Therefore the agents need to check again their beliefs even after they reached a good belief state. We suggest a smoothing function that enables the agents to forget gradually old observations that can be obsolete
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Ebadat, Ali Reza. "Toward robust information extraction models for multimedia documents". Rennes, INSA, 2012. http://www.theses.fr/2012ISAR0022.

Testo completo
Abstract (sommario):
L'énorme quantité de documents multimédias constamment générés incite au développement de méthodes d'analyse automatique. Dans ce cadre, notre objectif est de faciliter ce processus en extrayant des informations à partir de n'importe quel texte relatif à ces documents. En outre, nous voulons des techniques suffisamment robustes pour traiter des données bruitées et de petite taille. Pour ce faire, nous utilisons des techniques simples nécessitant peu de connaissances externes comme une garantie de robustesse. Plus précisément, nous utilisons des techniques inspirées de la recherche d'information et de l'analyse statistique. Dans cette thèse, nous montrons expérimentalement que des techniques simples, sans connaissance a priori peuvent être utiles pour extraire efficacement les informations à partir du texte. Dans notre cas, ces bons résultats ont été obtenus en choisissant une représentation adaptée pour les données au lieu d'exiger de traitements complexes
Due to the huge amounts of multimedia documents that have been generated, researchers studied approaches to manage them. Our goal is to facilitate this process by extracting information from any text related to such documents. Moreover, we want techniques robust enough to handle noisy and small data. We use simple and nowledge-light techniques as a guarantee of robustness. Indeed, we use statistical analysis of text and some techniques inspired from Information Retrieval. In this thesis, we experimentally show that simple techniques without a priori knowledge can be useful to effectively extract information from text. In our case, such results have indeed been achieved by choosing suited representation for the data instead of requiring complex processings
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Aboudib, Ala. "Neuro-inspired Architectures for the Acquisition and Processing of Visual Information". Thesis, Télécom Bretagne, 2016. http://www.theses.fr/2016TELB0419/document.

Testo completo
Abstract (sommario):
L'apprentissage automatique et la vision par ordinateur sont deux sujets de recherche d'actualité. Des contributions clés à ces domaines ont été les fruits de longues années d'études du cortex visuel et de la fonction des réseaux cérébraux. Dans cette thèse, nous nous intéressons à la conception des architectures neuro-inspirées pour le traitement de l'information sur trois niveaux différents du cortex visuel. Au niveau le plus bas, nous proposons un réseau de neurones pour l'acquisition des signaux visuels. Ce modèle est étroitement inspiré par le fonctionnement et l'architecture de la retine et les premières couches du cortex visuel chez l'humain. Il est également adapté à l'émulation des mouvements oculaires qui jouent un rôle important dans notre vision. Au niveau le plus haut, nous nous intéressons à la mémoire. Nous traitons un modèle de mémoire associative basée sur une architecture neuro-inspirée dite `Sparse Clustered Network (SCN)'. Notre contribution principale à ce niveau est de proposer une amélioration d'un algorithme utilisé pour la récupération des messages partiellement effacés du SCN. Nous suggérons également une formulation générique pour faciliter l'évaluation des algorithmes de récupération, et pour aider au développement des nouveaux algorithmes. Au niveau intermédiaire, nous étendons l'architecture du SCN pour l'adapter au problème de la mise en correspondance des caractéristiques d'images, un problème fondamental en vision par ordinateur. Nous démontrons que la performance de notre réseau atteint l'état de l'art, et offre de nombreuses perspectives sur la façon dont les architectures neuro-inspirées peuvent servir de substrat pour la mise en oeuvre de diverses tâches de vision
Computer vision and machine learning are two hot research topics that have witnessed major breakthroughs in recent years. Much of the advances in these domains have been the fruits of many years of research on the visual cortex and brain function. In this thesis, we focus on designing neuro-inspired architectures for processing information along three different stages of the visual cortex. At the lowest stage, we propose a neural model for the acquisition of visual signals. This model is adapted to emulating eye movements and is closely inspired by the function and the architecture of the retina and early layers of the ventral stream. On the highest stage, we address the memory problem. We focus on an existing neuro-inspired associative memory model called the Sparse Clustered Network. We propose a new information retrieval algorithm that offers more flexibility and a better performance over existing ones. Furthermore, we suggest a generic formulation within which all existing retrieval algorithms can fit. It can also be used to guide the design of new retrieval approaches in a modular fashion. On the intermediate stage, we propose a new way for dealing with the image feature correspondence problem using a neural network model. This model deploys the structure of Sparse Clustered Networks, and offers a gain in matching performance over state-of-the-art, and provides a useful insight on how neuro-inspired architectures can serve as a substrate for implementing various vision tasks
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Roussel, Stéphanie. "Apports de la logique mathématique pour la modélisation de l'information échangée dans des systèmes multiagents interactifs". Toulouse, ISAE, 2010. http://www.theses.fr/2010ESAE0012.

Testo completo
Abstract (sommario):
Cette thèse traite des systèmes multiagents dans lesquels les agents échangent des informations de façon à atteindre un but commun. Lors de l'échange d'informations entre agents, il est souhaitable que les agents aient un comportement coopératif, c'est-à-dire qu'ils ne se transmettent que les informations qui leur sont utiles. Nous définissons donc en logique modale quelles sont les informations utiles pour un agent étant donné un besoin en information de celui-ci. A partir de ces travaux, nous travaillons sur la notion d'agent coopératif et en proposons plusieurs définitions. Les échanges des agents sont en général réglementés par une politique d'échange d'informations. Pour qu'une telle politique soit efficace, il faut qu'elle soit cohérente et complète. Nous formalisons ces deux notions en logique déontique pour des réglementations générales. Nous proposons ensuite une méthode pour raisonner avec des réglementations incomplètes et appliquons nos résultats aux politiques d'échange d'informations. Finalement, nous analysons dans quelle mesure il est possible d'être à la fois coopératif et obéissant à une politique d'échange d'informations.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Rybnik, Mariusz. "Contribution to the modelling and the exploitation of hybrid multiple neural networks systems : application to intelligent processing of information". Paris 12, 2004. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990003948290204611&vid=upec.

Testo completo
Abstract (sommario):
Pour un grand nombre de problèmes que l'on rencontre actuellement (modélisation de processus complexes, reconnaissance de formes, aide au diagnostique médical, détection de pannes) les données sont présentes sous forme de base de données. Ces données sont ensuite traitées et transformées. Ce travail est concentré sur le développement d'une structure de traitement semi-automatique de données. L'approche proposée est construite sur des techniques basées sur la décomposition successive (itérative) du problème initial. L'idée de base puise en partie son origine dans la décomposition d'un traitement initialement complexe par la division de ce dernier pour obtenir une Simplification à la fois au niveau structurel et au niveau du moyen de traitement. Ainsi l'idée directrice du présent travail est liée aux techniques de décomposition de tâche appelées aussi "Divide To Conquer". Un point clé sur lequel s'appuie notre approche est l'intégration de techniques d'estimation de complexité
For a great number of actually encountered problems (complex processes modelization, pattern recognition, medical diagnosis support, fault detection) data is presented in form of database. The data is next transformed and processed. This work is concentrated on the development of semi-automatic data processing structures. Proposed approach is based on iterative decomposition of an initial problem. The main idea is to decompose initia!ly complex problems in order to obtain simplification simultaneously on structural level and processing level. Thus, the principal idea of present work is con nected to task decomposition techniques called "Divide to Conquer". A key point of our approach is the integration of Complexity Estimation techniques
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Rybnik, Mariusz Madani Kurosh. "Contribution to the modelling and the exploitation of hybrid multiple neural networks systems application to intelligent processing of information /". Créteil : Université de Paris-Val-de-Marne, 2007. http://doxa.scd.univ-paris12.fr:8080/theses-npd/th0394829.htm.

Testo completo
Abstract (sommario):
Thèse de doctorat : Sciences et ingénierie matériaux, modélisation, environnement : Paris 12 : 2004.
Version électronique uniquement consultable au sein de l'Université Paris 12 (Intranet). Titre provenant de l'écran-titre. Bibliogr. : 116 réf.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Yameogo, Relwende Aristide. "Risques et perspectives du big data et de l'intelligence artificielle : approche éthique et épistémologique". Thesis, Normandie, 2020. http://www.theses.fr/2020NORMLH10.

Testo completo
Abstract (sommario):
Au XXIème siècle, l’utilisation du big data et de l’IA dans le domaine de la santé s’est progressivement étendue bien qu’elle soit accompagnée par des problèmes liés à l’émergence de pratiques basées sur l’usage des traces numériques. Cette thèse a pour but d’évaluer l’utilisation du big data et de l’IA dans la pratique médicale, de découvrir les processus engendrés par les outils numériques en matière de santé et de souligner les problèmes d’éthique qu’ils posent.L'utilisation des TIC dans la pratique médicale passe essentiellement par l’utilisation des DPI, de logiciels d’aide à la prescription et d’objets connectés. Ces usages soulèvent de nombreux problèmes pour les médecins conscients du risque encouru quant à la protection des données de santé des patients. Dans ce travail, nous mettons en place une méthode de conception de SADM, l’espace vectoriel flou temporel. Cette méthode nous permet de modéliser un nouveau score diagnostique clinique de l’embolie pulmonaire. A travers le paradigme « homme-trace », notre recherche permet, non seulement de prendre la mesure de la limitation dans l’usage des TIC, mais aussi de mettre en évidence les biais interprétatifs dus à la déliaison effectuée entre l’individu pris dans sa complexité d’« homme-trace » et les data circulant à son sujet via les traces numériques. Si le big data, couplé à l’IA peut jouer un grand rôle dans la mise en place de SADM, il ne peut pas se limiter pas à ce champ. Nous étudions aussi comment mettre en place des processus de développement du big data et de IA respectant les règles déontologiques et d’éthique médicale associées à l’appropriation des TIC par les acteurs du système de santé
In the 21st century, the use of big data and AI in the field of health has gradually expanded, although it is accompanied by problems linked to the emergence of practices based on the use of digital traces. The aim of this thesis is to evaluate the use of big data and AI in medical practice, to discover the processes generated by digital tools in the field of health and to highlight the ethical problems they pose.The use of ICTs in medical practice is mainly based on the use of EHR, prescription software and connected objects. These uses raise many problems for physicians who are aware of the risk involved in protecting patients' health data. In this work, we are implementing a method for designing CDSS, the temporal fuzzy vector space. This method allows us to model a new clinical diagnostic score for pulmonary embolism. Through the "Human-trace" paradigm, our research allows us not only to measure the limitation in the use of ICT, but also to highlight the interpretative biases due to the delinking between the individual caught in his complexity as a "Human-trace" and the data circulating about him via digital traces. If big data, coupled with AI can play a major role in the implementation of CDSS, it cannot be limited to this field. We are also studying how to set up big data and AI development processes that respect the deontological and medical ethics rules associated with the appropriation of ICTs by the actors of the health system
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Amo, Sandra De. "Contraintes dynamiques et schémas transactionnels". Paris 13, 1995. http://www.theses.fr/1995PA132002.

Testo completo
Abstract (sommario):
Nous étudions le problème de spécifier opérationnellement les contraintes dynamiques d'une base de données dans le cadre du modèle relationnel. Plus exactement, étant donné un ensemble de contraintes dynamiques nous cherchons à trouver un ensemble d'opérations avec lesquelles on puisse générer toutes les suites d'états satisfaisant ces contraintes. Dans cette étude, nous nous restreignons à des classes particulières de contraintes, à savoir les dépendances dynamiques d'antériorité et les dépendances dynamiques de transition. Ce qui caractérise la première classe est le fait que leur vérification exige que des états non nécessairement consécutifs de la base soient comparés tandis que pour la deuxième classe, la vérification consiste à examiner des états consécutifs. Nous introduisons une sous-classe assez large de dépendances dynamiques d'antériorité que nous appelons les dépendances dynamiques algébriques (ddas). Ces dépendances expriment des restrictions du type: si une propriété p est vérifiée à l'état présent alors une autre propriété q doit avoir été vérifiée dans un état précédent. Dans un premier temps, nous introduisons une notion de spécification procédurale basée sur le concept de schéma transactionnel de Abiteboul & Vianu. Nous montrons que cette notion est inadéquate pour résoudre le problème proposé. Au vu de ce résultat négatif nous sommes amenés à généraliser la notion de schéma transactionnel en introduisant les schémas transactionnels généralisés qui utilisent en plus d'un ensemble de transactions t une expression régulière e ayant comme alphabet t et qui va spécifier les bonnes suites de transactions pour passer d'un état à l'autre. Avec cette notion, Nous obtenons une spécification procédurale équivalente à un ensemble de ddas. Les techniques utilisées pour montrer cette équivalence sont appliquées pour spécifier opérationnellement une sous-classe de dépendances dynamiques de transition, les dépendances fonctionnelles dynamiques.
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Bayatani, Mohsen. "De la cybernétique aux sciences de la cognition". Lyon 3, 2007. http://www.theses.fr/2007LYO31005.

Testo completo
Abstract (sommario):
Contrairement à ce qui est souvent dit, les sciences cognitives ne sont que secondairement liées à l'essor extraordinaire et récent de l'informatique. Elles trouvent leur origine dans le mouvement cybernétique, né aux Etats-Unis dans les années 1940. L'objectif initial de ce mouvement était d'édifier une science générale du cerveau et fonder une neurologie de l'esprit. En 1956, il atteint son objectif en créant les sciences cognitives qui constituent désormais les nouvelles sciences du cerveau. Dans ce travail, nous avons insisté sur le fait que dans les systèmes vivants, la « vie de relation » est associée à la « vie affective », ce qui permet aux vivants d'identifier et de reconnaître les objets réels à travers les sentiments qu'ils produisent en lui, d'où les avantages adaptatifs que la cognition consciente apporte à l'organisme. Par conséquent, contrairement à la représentation symbolique utilisée dans les machines informatiques, la représentation consciente a une dimension affective. Autrement dit, la pensée n'est pas un simple calcul et on ne peut pas réduire l'esprit à un petit nombre d'opérations logiques. Ensuite, nous avons visé à cerner les implications philosophiques de l'analyse cybernétique du système vivant. Ici, l'être vivant est considéré comme un système de communication dans ses rapports avec le milieu et les autres organismes. Dès lors, les phénomènes vitaux, tels que la pensée et l'intelligence s'expliquent en termes cybernétiques et à travers la transmission de l'information sensorielle dans les circuits neuronaux. Ainsi, une nouvelle conception du vivant et de la vie s'installe et s'oppose à celle des philosophes traditionnels
Contrary to what has often been said, cognitive sciences are only secondarily linked to the recent amazing boom of computer technology. They first appeared in the United States along with the cybernetic movement in the 40's. The main objective of this movement was to create a general science of the brain and to build a mind neurology. It finally reaches its goal in 1956 by creating the cognitive sciences, which account for the new brain sciences. In this essay we have highlighted the fact that in living systems, the “relation life” is associated with the “emotional life” which allows the living to identify and recognize real objects through the feelings they generate, hence the adaptative advantages conscient cognition brings to the organism. Therefore contrary to symbolic representation used in computers, conscient representation has a emotional dimension. That is to say that the human thought is not a simple calculation and that the mind cannot be reduced to a small number of logical operations. Then we tried to close in on the philosophical implications of the cybernetic analysis of the living system. Here the living being is considered as a system of communication in its relationship whit the environment and the other organisms. Therefore, the vital phenomenons, such as thought and intelligence are explained cyberneticaly and through the transmission of the sensory information in the neural circuits. Thereby, a new conception of the living and of life is installing and opposes itself to traditional philosophers
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Izza, Yacine. "Informatique ubiquitaire : techniques de curage d'informations perverties On the extraction of one maximal information subset that does not conflit with multiple contexts Extraction d'un sous-ensemble maximal qui soit cohérent avec des contextes mutuellement contradictoires On computing one max-inclusion consensus On admissible consensuses Boosting MCSes enumeration". Thesis, Artois, 2018. http://www.theses.fr/2018ARTO0405.

Testo completo
Abstract (sommario):
Cette thèse étudie une approche possible de l'intelligence artificielle pour la détection et le curage d'informations perverties dans les bases de connaissances des objets et composants intelligents en informatique ubiquitaire. Cette approche est traitée d'un point de vue pratique dans le cadre du formalisme SAT; il s'agit donc de mettre en œuvre des techniques de filtrage d'incohérences dans des bases contradictoires. Plusieurs contributions sont apportées dans cette thèse. Premièrement, nous avons travaillé sur l'extraction d'un ensemble maximal d'informations qui soit cohérent avec une série de contextes hypothétiques. Nous avons proposé une approche incrémentale pour le calcul d'un tel ensemble (AC-MSS). Deuxièmement, nous nous sommes intéressés à la tâche d'énumération des ensembles maximaux satisfaisables (MSS) ou leurs complémentaires les ensembles minimaux rectificatifs (MCS) d'une instance CNF insatisfaisable. Dans cette contribution, nous avons introduit une technique qui améliore les performances des meilleures approches pour l'énumération des MSS/MCS. Cette méthode implémente le paradigme de rotation de modèle qui permet de calculer des ensembles de MCS de manière heuristique et efficace. Finalement, nous avons étudié une notion de consensus permettant réconcilier des sources d'informations. Cette forme de consensus peut être caractérisée par différents critères de préférence, comme le critère de maximalité. Une approche incrémentale de calcul d'un consensus maximal par rapport à l'inclusion ensembliste a été proposée. Nous avons également introduit et étudié la concept de consensus admissible qui raffine la définition initialement proposée du concept de consensus
This thesis studies a possible approach of artificial intelligence for detecting and filtering inconsistent information in knowledge bases of intelligent objects and components in ubiquitous computing. This approach is addressed from a practical point of view in the SAT framework;it is about implementing a techniques of filtering inconsistencies in contradictory bases. Several contributions are made in this thesis. Firstly, we have worked on the extraction of one maximal information set that must be satisfiable with multiple assumptive contexts. We have proposed an incremental approach for computing such a set (AC-MSS). Secondly, we were interested about the enumeration of maximal satisfiable sets (MSS) or their complementary minimal correction sets (MCS) of an unsatisfiable CNF instance. In this contribution, a technique is introduced that boosts the currently most efficient practical approaches to enumerate MCS. It implements a model rotation paradigm that allows the set of MCS to be computed in an heuristically efficient way. Finally, we have studied a notion of consensus to reconcile several sources of information. This form of consensus can obey various preference criteria, including maximality one. We have then developed an incremental algorithm for computing one maximal consensus with respect to set-theoretical inclusion. We have also introduced and studied the concept of admissible consensus that refines the initial concept of consensus
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Dias, Gaël. "Information Digestion". Habilitation à diriger des recherches, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00669780.

Testo completo
Abstract (sommario):
The World Wide Web (WWW) is a huge information network within which searching for relevant quality contents remains an open question. The ambiguity of natural language is traditionally one of the main reasons, which prevents search engines from retrieving information according to users' needs. However, the globalized access to the WWW via Weblogs or social networks has highlighted new problems. Web documents tend to be subjective, they mainly refer to actual events to the detriment of past events and their ever growing number contributes to the well-known problem of information overload. In this thesis, we present our contributions to digest information in real-world heterogeneous text environments (i.e. the Web) thus leveraging users' efforts to encounter relevant quality information. However, most of the works related to Information Digestion deal with the English language fostered by freely available linguistic tools and resources, and as such, cannot be directly replicated for other languages. To overcome this drawback, two directions may be followed: on the one hand, building resources and tools for a given language, or on the other hand, proposing language-independent approaches. Within the context of this report, we will focus on presenting language-independent unsupervised methodologies to (1) extract implicit knowledge about the language and (2) understand the explicit information conveyed by real-world texts, thus allowing to reach Multilingual Information Digestion.
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Murphy, Killian. "Predictive maintenance of network equipment using machine learning methods". Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAS013.

Testo completo
Abstract (sommario):
Avec la montée en puissance des capacités de calcul nécessaires pour les méthodes plus développées d'Apprentissage Machine (ML), la Prédiction des Incidents Réseau (NFP:Network Fault Prediction) connait un regain d'intérêt scientifique. La capacité de prédire les incidents des équipements réseau est de plus en plus fréquemment identifiée comme un moyen efficace d'améliorer la fiabilité du réseau. Cette capacité prédictive peut être utilisée pour atténuer ou mettre en œuvre une maintenance prédictive en prévision des cas d'incidents réseau imminents. Cela pourrait contribuer à la mise en œuvre de réseaux sans défaillance et sans pertes, et permettre aux applications critiques d'être exécutées sur des réseaux de plus grandes dimensions et hétérogènes. Dans ce manuscrit, nous nous proposons de contribuer au domaine du NFP en nous focalisant sur la prédiction des alertes réseau. Dans un premier temps, nous présentons une étude de l'état de l'art complet du NFP en utilisant des méthodes d'apprentissage machine (ML) entièrement dédiée aux réseaux de télécommunications. Ensuite, nous établissons de futures directions de recherche dans le domaine. Dans un deuxième temps, nous proposons et étudions un couple de métriques (Réduction des coûts de maintenance, et mesure des gains de Qualité de Service) de performances de ML adaptées au NFP dans le cadre de la maintenance des réseaux. Dans un troisième temps, nous décrivons l'architecture complète de traitement des données, incluant l'infrastructure réseau et logicielle, et la chaîne de prétraitement des données nécessaires au ML qui ont été mis en œuvre chez SPIE ICS, société d'intégration de réseaux et de systèmes. Nous décrivons également avec précision le modèle du problème d'alarme et d'incidents. Dans un quatrième temps, nous établissons une comparaison des différentes méthodes de ML appliquées à notre jeu de données. Nous considérons des méthodes conventionnelles de ML, basés sur des arbres de décision, des perceptrons multicouches et des Séparateurs à Vastes Marges. Nous testons la généralisation des performances des modèles par rapport aux différents types d'équipements, ainsi que les généralisations en ML des modèles de ML et des paramètres proposés. Ensuite, nous étudions avec succès les architectures de ML à entrée séquentielle - Réseaux de neurones convolutifs et Long Short Term Memory - dans le cas de données SNMP séquentielles sur notre ensemble de données. Finalement, nous étudions l'impact de la définition de l'horizon de prédiction (et des variables arbitraires associées) sur la performance de prédiction des modèles ML
With the improvement of computation power necessary for advanced applications of Machine Learning (ML), Network Fault Prediction (NFP) experiences a renewed scientific interest. The ability to predict network equipment failure is increasingly identified as an effective means to improve network reliability. This predictive capability can be used, to mitigate or to enact predictive maintenance on incoming network failures. This could contribute to establishing zero-failure networks and allow safety-critical applications to run over higher dimension and heterogeneous networks.In this PhD thesis, we propose to contribute to the NFP field by focusing on network alarm prediction. First, we present a comprehensive survey on NFP using Machine Learning (ML) methods entirely dedicated to telecommunication networks, and determine new directions for research in the field. Second, we propose and study a set of Machine Learning performance metrics (maintenance cost reduction and Quality of Service improvement) adapted to NFP in the context of network maintenance. Third, we describe the complete data processing architecture, including the network and software infrastructure, and the necessary data preprocessing pipeline that was implemented at SPIE ICS, Networks and Systems Integrator. We also describe the alarm or failure prediction problem model precisely. Fourth, we establish a benchmark of the different ML solutions applied to our dataset. We consider Decision Tree-based methods, Multi-Layer Perceptron and Support Vector Machines. We test the generalization of performance prediction across equipment types as well as normal ML generalization of the proposed models and parameters.Then, we apply sequential - Convolutional Neural Networks (CNN) and Long Short Term Memory (LSTM) - ML architectures with success on our sequential SNMP dataset. Finally, we study the impact of the definition of the prediction horizon (and associated arbitrary timeframes) on the ML model prediction performance
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Budnyk, Ivan. "Contribution to the Study and Implementation of Intelligent Modular Self-organizing Systems". Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00481367.

Testo completo
Abstract (sommario):
Les problèmes de la classification ont reçu une attention considérable dans des différents champs d'ingénierie comme traitement des images biomédicales, identification a partir de la voix, reconnaissance d'empreinte digitale etc. Les techniques d'intelligence artificielles, incluant les réseaux de neurones artificiels, permettent de traiter des problèmes de ce type. En particulier, les problèmes rencontrés nécessitent la manipulation de bases de données de tailles très importantes. Des structures de traitement adaptatives et exploitant des ensembles de classificateurs sont utilisées. Dans cette thèse, nous décrivons principalement le développement et des améliorations apportées à un outil de classification désigné par le terme Tree-like Divide to Simplify ou T-DTS. Nos efforts se sont portés sur l'un des modules de cet outil, le module d'estimation de complexité. L'architecture de l'outil T-DTS est très flexible et nécessite le choix d'un nombre important de paramètres. Afin de simplifier l'exploitation de T-DTS, nous avons conçu et développé une procédure automatique d'optimisation d'un de ces plus importants paramètres, le seuil de décision associé à la mesure de complexité. La contribution principale de cette thèse concerne le développement de modules pouvant s'implanté sur une architecture de calcul matérielle parallèle. Ce ceci permet de se rapproché d'une implantation purement matérielle de l'outil T-DTS
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Bayatani, Mohsen Parrochia Daniel. "De la cybernétique aux sciences de la cognition". [S.l.] : [s.n.], 2007. http://thesesbrain.univ-lyon3.fr/sdx/theses/lyon3/2006/bayatani_m.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Ruuska, Boquist Philip. "Utveckling av artificiell intelligens med genetiska tekniker och artificiella neurala nätverk". Thesis, University of Skövde, School of Humanities and Informatics, 2009. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-3082.

Testo completo
Abstract (sommario):

 

Att använda artificiella neurala nätverk i datorspel blir ett allt mer populärt sätt att styra de datorstyrda agenterna då detta gör att agenterna får ett mer mänskligt beteende och förmågan att generalisera och möta nya situationer och klara sig igenom dessa på ett sätt som andra typer av artificiell intelligens inte alltid kan hantera. Svårigheten med denna teknik är att träna nätverket vilket ofta kräver en lång tid av inlärning och många olika träningfall. Genom att använda genetiska algoritmer för att träna upp nätverken så kan mycket av det både tid och prestandakrävande arbetet undvikas. Denna rapport kommer att undersöka möjligheten att använda genetiska tekniker för att träna artificiella neurala nätverk i en miljö anpassad till och med fokus på spel. Att använda genetiska tekniker för att träna artificiella neurala nätverk är en bra inlärningsteknik för problem där det enkelt går att skapa en passande fitnessfunktion och där andra inlärningstekniker kan vara svåra att använda. Det är dock ingen teknik som helt tar bort arbetet från utvecklare utan istället flyttar det mer åt att utveckla fitnessfunktionen och modifiera variabler.

 

Gli stili APA, Harvard, Vancouver, ISO e altri
17

Dal, col Laura. "On distributed control analysis and design for Multi-Agent systems subject to limited information". Thesis, Toulouse, INSA, 2016. http://www.theses.fr/2016ISAT0034/document.

Testo completo
Abstract (sommario):
Les systèmes multi-agents sont des systèmes dynamiques composés par plusieurs éléments qui interagissent entre eux. Ces éléments sont appelés agents. Un agent est un système dynamique caractérisé par deux propriétés. La première est que les agents sont autonomes— c’est-à-dire qu’ils ne sont pas dirigés par l’environnement extérieur et ils peuvent évoluer selon un comportement auto-organisé. La seconde est que les agents sont capables de communiquer entre eux pour accomplir des tâches complexes, telles que la coopération, la coordination et la résolution de conflits. L’un des problèmes courants concernant les systèmes multi-agents est la synchronisation. Les agents sont synchronisés lorsque leur évolution dans le temps converge vers une trajectoire commune. Plusieurs applications du monde réel peuvent être conceptualisés comme des problèmes de synchronisation des systèmes multi-agents : par exemple, l’alignement en vitesse ( flocking en anglais), et le contrôle de la formation du mouvement de groupes cohérents. La synchronisation des systèmes multi-agents peut être obtenue grâce à différentes techniques de contrôle. Dans cette thèse nous proposons des méthodes de contrôle centralisées et distribuées pour la synchronisation des systèmes multi-agents. Nous développons des conditions nécessaires et suffisantes pour la synchronisation des systèmes multi-agents, composés par des agents identiques et linéaires qui ne changent pas dans le temps, en utilisant une approche Lyapunov. Ces conditions sont utilisées pour la conception de lois de contrôles distribuées. ensuite, nous étendons les résultats aux systèmes multi-agents soumis à des perturbations externes, assurant un niveau de performance désiré grâce à une technique de contrôle de type 퐻 ∞ . enfin, nous étendons l’analyse aux systèmes multi-agents avec contraintes sur les actionneurs, en utilisant des techniques de contrôle anti-windup. Nous évaluons l’efficacité et les performances des stratégies de contrôle proposées dans plusieurs simulations, dont deux d’entre elles sont inspirées par des applications issues du monde réel. La première est le contrôle du vol en formation d’avions, et la seconde est l’analyse de la transmission de contenus vidéo comme un problème de synchronisation. Nous comparons aussi les résultats obtenus avec des techniques de contrôle alternatives
Multi-agent systems are dynamical systems composed of multiple interacting elements known as agents . Each agent is a dynamical system with two characteristics. First, it is capable of autonomous action—that is, it is able to evolve according to a self-organised behavior, which is not influenced by the external environment. Second, it is able to exchange information with other agents in order to accomplish complex tasks, such as coordination, cooperation, and conflict resolution. One commonly studied problem in multi-agent systems is synchronization. The agents are synchronized when their time evolutions converge to a common trajectory. Many real-world applications, such as flocking and formation control, can be cast as synchronization problems. Agent synchronization can be achieved using different approaches. In this thesis, we propose distributed and centralized control paradigms for the synchronization of multi-agent systems. We develop necessary and sufficient conditions for the synchronization of multi-agent systems, composed by identical linear time-invariant agents, us- ing a Lyapunov-based approach. Then we use these conditions to design distributed synchronization controllers. Then, we extend this result to multi-agent systems subject to external disturbances enforcing disturbance rejection with 퐻 ∞ control techniques. Furthermore, we extend the analysis to multi-agent systems with actuator constraints using LMI-based anti-windup techniques. We test the proposed control design strategies in simulated examples among which two are inspired by real-world applications. In the first, we study airplane formation control as a synchronization problem. In the second, we analyze the delivery of video streams as a synchronization problem and we compare the results to existing controllers
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Blet, Loïc. "Configuration automatique d’un solveur générique intégrant des techniques de décomposition arborescente pour la résolution de problèmes de satisfaction de contraintes". Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0085/document.

Testo completo
Abstract (sommario):
La programmation par contraintes intègre des algorithmes de résolution génériques dans des langages de modélisation déclaratifs basés sur les contraintes : ces langages permettent de décrire des problèmes combinatoires sous la forme d’un ensemble de variables devant prendre leurs valeurs dans des domaines en satisfaisant des contraintes. Nous introduisons dans cette thèse un algorithme de résolution générique paramétré par : — une stratégie d’exploration de l’espace de recherche, à choisir parmi, chronological backtracking, conflict directed backjumping, conflict directed backjumping with reordering, dynamic backtracking, decision repair, et backtracking with tree decomposition ; — une heuristique de choix de variables, à choisir parmi, min-domain/ddeg et min-domain/wdeg ; — une technique de propagation de contraintes, à choisir parmi, forward checking et maintaining arc consistency. Ainsi, cet algorithme générique s’instancie en vingt-quatre configurations différentes ; certaines correspondant à des algorithmes connus, d’autres étant nouvelles. Ces vingt- quatre configurations ont été comparées expérimentalement sur un benchmark de plus de mille instances, chaque configuration étant exécutée plusieurs fois sur chaque instance pour tenir compte du non déterminisme des exécutions. Des tests statistiques sont utilisés pour comparer les performances. Cette évaluation expérimentale a permis de mieux comprendre la complémentarité des différents mécanismes de résolution, avec une attention particulière portée sur la capacité à tirer parti de la structure des instances pour accélérer la résolution. Nous identifions notamment treize configurations complémentaires telles que chaque instance de notre benchmark est bien résolue par au moins une des treize configurations. Une deuxième contribution de la thèse est d’introduire un sélecteur capable de choisir automatiquement la meilleure configuration de notre algorithme générique pour chaque nouvelle instance à résoudre : nous décrivons chaque instance par un ensemble de descripteurs et nous utilisons des techniques d’apprentissage automatique pour construire un modèle de choix de configuration à partir de ces descripteurs. Sachant que l’apprentissage est généralement plus difficile quand il y a beaucoup de configurations, nous exprimons le problème du choix du sous-ensemble de configurations pouvant être sélectionnées comme un problème de couverture d’ensemble et nous comparons deux critères de choix : le premier vise à maximiser le nombre d’instances résolues par au moins une configuration et le second vise à maximiser le nombre d’instances pour lesquelles il y a une bonne configuration disponible. Nous montrons expérimentalement que la seconde stratégie obtient généralement de meilleurs résultats, et que le sélecteur obtient de meilleures performances que chacune de nos vingt-quatre configurations initiales
Constraint programming integrates generic solving algorithms within declarative languages based on constraints : these languages allow us to describe combinatorial problems as a set of variables which have to take their values in domains while satisfying constraints. Numerous real-life problems can be modelled in such a way, as for instance, planification problems, scheduling problems, . . . These problems are NP-complete in the general case of finite domains. We introduce in this work a generic solving algorithm parameterized by : — a strategy for exploring the search space, to be chosen from the following six, chronological backtracking, conflict directed backjumping, conflict directed backjumping with reordering, dynamic backtracking, decision repair, and backtracking with tree decomposition ; — a variable ordering heuristic, to be chosen from the following two, min-domain/ddeg and min-domain/wdeg ; — a constraint propagation technique, to be chosen from the following two, forward checking and maintaining arc consistency. Thus, this algorithm leads to 24 different configurations ; some corresponding to already known algorithms, others being new. These 24 configurations have been com- pared experimentally on a benchmark of more than a thousand instances, each configuration being executed several times to take into account the non-determinism of the executions, and a statistical test has been used to compare performances. This experimental evaluation allowed us to better understand the complementarity of the different solving mechanisms, with a focus on the ability to exploit the structure of the instances to speed up the solving process. We identify 13 complementary configurations such that every instance of our benchmark is well solved by at least one of the 13 configurations. A second contribution of this work is to introduce a selector able to choose automatically the best configuration of our generic solver for each new instance to be solved : we describe each instance by a set of features and we use machine learning techniques to build a model to choose a configuration based on these features. Knowing that the learning process is generally harder when there are many configurations to choose from, we state the problem of choosing a subset of configurations that can be picked as a set covering problem and we compare two criterion : the first one aims to maximize the number of instances solved by at least one configuration and the second one aims to maximize the number of instances for which there is a good configuration available. We show experimentally that the second strategy obtains generally better results and that the selector obtains better performances than each of the 24 initial configurations
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Vittaut, Jean-Noël. "LeJoueur : un programme de General Game Playing pour les jeux à information incomplète et-ou imparfaite". Electronic Thesis or Diss., Paris 8, 2017. http://www.theses.fr/2017PA080102.

Testo completo
Abstract (sommario):
Cette thèse est une contribution au domaine du General Game Playing (GGP), une problématique de l’Intelligence Artificielle qui s’intéresse au développement d’agents autonomes capables de jouer à une grande variété de jeux et que nous appelons les jeux généraux. Le GGP se distingue des recherches sur les algorithmes permettant de bien jouer à des jeux spécifiques et offre de ce fait la possibilité d’évaluer l’efficacité de méthodes développées en Intelligence Artificielle sans perturbation par ajout de connaissances spécifiques à un jeu fournies par des experts. Un aspect important de nos travaux de recherche porte sur l’utilisation d’une représentation implicite de l’arbre de jeu sous la forme de règles logiques, une représentation explicite étant trop volumineuse pour être stockée sur une machine. Dans ce contexte, nous avons proposé une méthode efficace d’instanciation des règles définissant les jeux permettant la génération d’un circuit logique avec lequel nous pouvons effectuer une analyse statique du jeu et simuler rapidement des parties aléatoires. Une parallélisation de l’évaluation du circuit logique nous a permis d’accélérer significativement la recherche dans l’arbre de jeu. Nous avons proposé des adaptations des méthodes de recherche Monte-Carlo dans les arbres aux contraintes du GGP ainsi qu’une méthode permettant d’utiliser une estimation RAVE (Rapid Action Value Estimation) en début de recherche lorsque peu d’estimations sont disponibles
This thesis is a contribution to the General Game Playing domain (GGP), a problematic of Artificial Intelligence (AI) aiming at developing autonomous agents that are able to play at a large variety of games called General Games. GGP is different from search algorithms allowing to play with a good level at specific games and opens the possibility to evaluate the efficiency of AI methods without prior knowledge form experts. An important aspect of our work lies on the utilization of an implicit game tree representation as a set of logic rules, an explicit representation being too large to be stored in memory. In this context, we have proposed an efficient method of rule instantiation allowing the computation of a logic circuit. A parallelization of the circuit evaluation allowed us to significantly accelerate the game tree exploration. We have proposed an adaptation of Monte-Carlo Tree Search for GGP and a method using RAVE (Rapid Action Value Estimation) in the beginning of the exploration when few estimations are available
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Kotevska, Olivera. "Learning based event model for knowledge extraction and prediction system in the context of Smart City". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM005/document.

Testo completo
Abstract (sommario):
Des milliards de «choses» connectées à l’internet constituent les réseaux symbiotiques de périphériques de communication (par exemple, les téléphones, les tablettes, les ordinateurs portables), les appareils intelligents, les objets (par exemple, la maison intelligente, le réfrigérateur, etc.) et des réseaux de personnes comme les réseaux sociaux. La notion de réseaux traditionnels se développe et, à l'avenir, elle ira au-delà, y compris plus d'entités et d'informations. Ces réseaux et ces dispositifs détectent, surveillent et génèrent constamment une grande uantité de données sur tous les aspects de la vie humaine. L'un des principaux défis dans ce domaine est que le réseau se compose de «choses» qui sont hétérogènes à bien des égards, les deux autres, c'est qu'ils changent au fil du temps, et il y a tellement d'entités dans le réseau qui sont essentielles pour identifier le lien entre eux.Dans cette recherche, nous abordons ces problèmes en combinant la théorie et les algorithmes du traitement des événements avec les domaines d'apprentissage par machine. Notre objectif est de proposer une solution possible pour mieux utiliser les informations générées par ces réseaux. Cela aidera à créer des systèmes qui détectent et répondent rapidement aux situations qui se produisent dans la vie urbaine afin qu'une décision intelligente puisse être prise pour les citoyens, les organisations, les entreprises et les administrations municipales. Les médias sociaux sont considérés comme une source d'information sur les situations et les faits liés aux utilisateurs et à leur environnement social. Au début, nous abordons le problème de l'identification de l'opinion publique pour une période donnée (année, mois) afin de mieux comprendre la dynamique de la ville. Pour résoudre ce problème, nous avons proposé un nouvel algorithme pour analyser des données textuelles complexes et bruyantes telles que Twitter-messages-tweets. Cet algorithme permet de catégoriser automatiquement et d'identifier la similarité entre les sujets d'événement en utilisant les techniques de regroupement. Le deuxième défi est de combiner les données du réseau avec diverses propriétés et caractéristiques en format commun qui faciliteront le partage des données entre les services. Pour le résoudre, nous avons créé un modèle d'événement commun qui réduit la complexité de la représentation tout en conservant la quantité maximale d'informations. Ce modèle comporte deux ajouts majeurs : la sémantiques et l’évolutivité. La partie sémantique signifie que notre modèle est souligné avec une ontologie de niveau supérieur qui ajoute des capacités d'interopérabilité. Bien que la partie d'évolutivité signifie que la structure du modèle proposé est flexible, ce qui ajoute des fonctionnalités d'extensibilité. Nous avons validé ce modèle en utilisant des modèles d'événements complexes et des techniques d'analyse prédictive. Pour faire face à l'environnement dynamique et aux changements inattendus, nous avons créé un modèle de réseau dynamique et résilient. Il choisit toujours le modèle optimal pour les analyses et s'adapte automatiquement aux modifications en sélectionnant le meilleur modèle. Nous avons utilisé une approche qualitative et quantitative pour une sélection évolutive de flux d'événements, qui réduit la solution pour l'analyse des liens, l’optimale et l’alternative du meilleur modèle
Billions of “things” connected to the Internet constitute the symbiotic networks of communication devices (e.g., phones, tablets, and laptops), smart appliances (e.g., fridge, coffee maker and so forth) and networks of people (e.g., social networks). So, the concept of traditional networks (e.g., computer networks) is expanding and in future will go beyond it, including more entities and information. These networks and devices are constantly sensing, monitoring and generating a vast amount of data on all aspects of human life. One of the main challenges in this area is that the network consists of “things” which are heterogeneous in many ways, the other is that their state of the interconnected objects is changing over time, and there are so many entities in the network which is crucial to identify their interdependency in order to better monitor and predict the network behavior. In this research, we address these problems by combining the theory and algorithms of event processing with machine learning domains. Our goal is to propose a possible solution to better use the information generated by these networks. It will help to create systems that detect and respond promptly to situations occurring in urban life so that smart decision can be made for citizens, organizations, companies and city administrations. Social media is treated as a source of information about situations and facts related to the users and their social environment. At first, we tackle the problem of identifying the public opinion for a given period (year, month) to get a better understanding of city dynamics. To solve this problem, we proposed a new algorithm to analyze complex and noisy textual data such as Twitter messages-tweets. This algorithm permits an automatic categorization and similarity identification between event topics by using clustering techniques. The second challenge is combing network data with various properties and characteristics in common format that will facilitate data sharing among services. To solve it we created common event model that reduces the representation complexity while keeping the maximum amount of information. This model has two major additions: semantic and scalability. The semantic part means that our model is underlined with an upper-level ontology that adds interoperability capabilities. While the scalability part means that the structure of the proposed model is flexible in adding new entries and features. We validated this model by using complex event patterns and predictive analytics techniques. To deal with the dynamic environment and unexpected changes we created dynamic, resilient network model. It always chooses the optimal model for analytics and automatically adapts to the changes by selecting the next best model. We used qualitative and quantitative approach for scalable event stream selection, that narrows down the solution for link analysis, optimal and alternative best model. It also identifies efficient relationship analysis between data streams such as correlation, causality, similarity to identify relevant data sources that can act as an alternative data source or complement the analytics process
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Ferré, Arnaud. "Représentations vectorielles et apprentissage automatique pour l’alignement d’entités textuelles et de concepts d’ontologie : application à la biologie". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS117/document.

Testo completo
Abstract (sommario):
L'augmentation considérable de la quantité des données textuelles rend aujourd’hui difficile leur analyse sans l’assistance d’outils. Or, un texte rédigé en langue naturelle est une donnée non-structurée, c’est-à-dire qu’elle n’est pas interprétable par un programme informatique spécialisé, sans lequel les informations des textes restent largement sous-exploitées. Parmi les outils d’extraction automatique d’information, nous nous intéressons aux méthodes d’interprétation automatique de texte pour la tâche de normalisation d’entité qui consiste en la mise en correspondance automatique des mentions d’entités de textes avec des concepts d’un référentiel. Pour réaliser cette tâche, nous proposons une nouvelle approche par alignement de deux types de représentations vectorielles d’entités capturant une partie de leur sens : les plongements lexicaux pour les mentions textuelles et des “plongements ontologiques” pour les concepts, conçus spécifiquement pour ce travail. L’alignement entre les deux se fait par apprentissage supervisé. Les méthodes développées ont été évaluées avec un jeu de données de référence du domaine biologique et elles représentent aujourd’hui l’état de l’art pour ce jeu de données. Ces méthodes sont intégrées dans une suite logicielle de traitement automatique des langues et les codes sont partagés librement
The impressive increase in the quantity of textual data makes it difficult today to analyze them without the assistance of tools. However, a text written in natural language is unstructured data, i.e. it cannot be interpreted by a specialized computer program, without which the information in the texts remains largely under-exploited. Among the tools for automatic extraction of information from text, we are interested in automatic text interpretation methods for the entity normalization task that consists in automatically matching text entitiy mentions to concepts in a reference terminology. To accomplish this task, we propose a new approach by aligning two types of vector representations of entities that capture part of their meanings: word embeddings for text mentions and concept embeddings for concepts, designed specifically for this work. The alignment between the two is done through supervised learning. The developed methods have been evaluated on a reference dataset from the biological domain and they now represent the state of the art for this dataset. These methods are integrated into a natural language processing software suite and the codes are freely shared
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Francis, Fanch. "De la prédiction à la détection d’évènements : L’analyse des mégadonnées au service du renseignement de sources ouvertes". Thesis, Lille 3, 2019. https://pepite-depot.univ-lille.fr/RESTREINT/EDSHS/2019/2019LIL3H046.pdf.

Testo completo
Abstract (sommario):
Comprendre les dynamiques d’un conflit pour en anticiper les évolutions est d'un intérêt majeur pour le renseignement militaire de sources ouvertes (ROSO) et le renseignement policier, notamment dans le cadre de l'Intelligence Led Policing. Si l’ambition de vouloir prédire les évènements d’un conflit n’est pas réaliste, celui de les détecter est un objectif important et réalisable. Les sciences humaines et sociales particulièrement les sciences de l’information et de la communication combinées à la science des données et des documents permettent d’exploiter les réseaux sociaux numériques de manière à faire de la détection et du suivi d’évènement un objectif et une méthode plus adaptées que le "protest event analysis" au contexte des guerres modernes et de la société connectée. Cela nécessite en même temps de rénover le cycle du renseignement.En nous basant sur les données du réseau social Twitter, recueillies pendant la crise ukrainienne, cette thèse montre la pertinence de détection et de suivi de conflit au moyen de notre méthode DETEVEN. Cette méthode permet non seulement d’ identifier les évènements pertinents dans un conflit, mais en facilite aussi leur suivi et interprétation. Elle repose sur une détection d’anomalie statistique, et une adaptation du "protest event analysis" aux médias sociaux. Notre méthode s’avère particulièrement efficace sur ce que nous définissons comme des théâtres d’opération connectés (TOC) caractéristiques des nouveaux contextes de guerre hybride et sur des opérations de désinformation ou d’influence. Ces évènements détectés ont été exploités de façon analytique au moyen d’une plateforme conçue pour un analyste, permettant une visualisation efficace des données. Dans une situation de crise, plus encore dans une "guerre de mouvement social", où chaque utilisateur devient de fait un capteur social, la maîtrise de l’information est un enjeu stratégique. Cette thèse montre alors comment cette maîtrise de l'information constitue un important enjeu à titre individuel comme collectif
Understanding the dynamics of a conflict in order to anticipate its evolution is of major interest for open source military intelligence (OSINT) and police intelligence, particularly in the context of Intelligence Led Policing. If the ambition to predict the events of a conflict is not realistic, the ambition to detect them is an important and achievable objective. The human and social sciences, particularly the information and communication sciences combined with the science of data and documents, make it possible to exploit digital social networks in such a way as to make event detection and monitoring a more appropriate objective and method than the standard "protest event analysis" in the context of modern wars and the connected society. At the same time, this requires a renewed intelligence cycle.Based on data from the social network Twitter, collected during the Ukrainian crisis, this thesis shows the relevance of conflict detection and monitoring using our DETEVEN method. This method not only identifies relevant events in a conflict, but also facilitates their monitoring and interpretation. It is based on the detection of statistical anomalies and the adaptation of protest event analysis to social media. Our method is particularly effective on what we define as connected theatres of operation (CTOs) characteristic of new hybrid warfare contexts and on operations of misinformation or influence. These detected events were analytically exploited using a platform designed for an analyst, allowing effective data visualization. In a crisis situation, especially in a "social movement war", where each user becomes a de facto social sensor, information control is a strategic issue. This thesis therefore shows how information literacy is an important issue for individuals and groups
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Mouaddib, Noureddine. "Gestion des informations nuancées : une proposition de modèle et de méthode pour l'identification nuancée d'un phénomène". Nancy 1, 1989. http://www.theses.fr/1989NAN10475.

Testo completo
Abstract (sommario):
Cette thèse présente une solution globale au problème de l'identification d'un phénomène ou d'un objet mal défini dans un domaine d'application décrit par des connaissances nuancées. Cette solution comprend trois éléments: un modèle de représentation des connaissances nuancées, une méthode de détermination des objets ressemblant au phénomène à identifier, un processus d'identification dans un système possédant une base de données multimédia. Le modèle de représentation des connaissances présente les particularités suivantes: une ou plusieurs nuances, exprimées en langue naturelle, peuvent être associés à chacune des valeurs prise par un caractère d'un objet, à chaque domaine de définition discret de caractère peut être associé un micro-thésaurus dont les liens (généricité, synonymie, opposition) peuvent être munis de coefficients exprimant certaines distances sémantiques entre les termes, des poids d'importance ou de confiance peuvent être associés à chaque caractère aussi bien dans la description des objets de référence que dans la description du phénomène à identifier. La méthode d'identification repose sur la théorie des possibilités dont nous avons assoupli l'application en diminuant le nombre de fonctions caractéristiques à fournir, par le spécialiste du domaine d'application, grâce à l'introduction d'heuristiques permettant soit de les générer à partir des micro-thérausus soit de les calculer à partir d'autres déjà définies par composition ou par transformation. Le processus d'identification permet une identification interactive et progressive au cours de laquelle alternent des phases de filtrage, d'affichage de résultats, d'observation d'images et de consultation de textes. En cas d'échec, nous proposons une stratégie de retour-arrière qui s'appuie sur les poids des caractères.
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Feutry, Clément. "Two sides of relevant information : anonymized representation through deep learning and predictor monitoring". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS479.

Testo completo
Abstract (sommario):
Le travail présenté ici est pour une première partie à l'intersection de l'apprentissage profond et anonymisation. Un cadre de travail complet est développé dans le but d'identifier et de retirer, dans une certaine mesure et de manière automatique, les caractéristiques privées d'une identité pour des données de type image. Deux méthodes différentes de traitement des données sont étudiées. Ces deux méthodes partagent une même architecture de réseau en forme de Y et cela malgré des différences concernant les types de couches de neurones utilisés conséquemment à leur objectif d'utilisation. La première méthode de traitement des données concerne la création ex nihilo de représentations anonymisées permettant un compromis entre la conservation des caractéristiques pertinentes et l'altération des caractéristiques privées. Ce cadre de travail a abouti à une nouvelle fonction de perte.Le deuxième type de traitement des données ne fait usage d'aucune information pertinente sur ces données et utilise uniquement des informations privées; ceci signifie que tout ce qui n'est pas une caractéristiques privées est supposé pertinent. Par conséquent les représentations anonymisées sont de même nature que les données initiales (une image est transformée en une image anonymisée). Cette tâche a conduit à un autre type d'architecture (toujours en forme de Y) et a fourni des résultats fortement sensibles au type des données. La seconde partie de mon travail concerne une autre sorte d'information utile : cette partie se concentre sur la surveillance du comportement des prédicteurs. Dans le cadre de l'analyse de "modèle boîte noire", on a uniquement accès aux probabilités que le prédicteur fournit (sans aucune connaissance du type de structure/architecture qui produit ces probabilités). Cette surveillance est effectuée pour détecter des comportements anormaux. L'étude de ces probabilités peut servir d'indicateur d'inadéquation potentiel entre les statistiques des données et les statistiques du modèle. Deux méthodes utilisant différents outils sont présentées. La première compare la fonction de répartition des statistiques de sortie d'un ensemble connu et d'un ensemble de données à tester. La seconde fait intervenir deux outils : un outil reposant sur l'incertitude du classifieur et un autre outil reposant sur la matrice de confusion. Ces méthodes produisent des résultats concluants
The work presented here is for a first part at the cross section of deep learning and anonymization. A full framework was developed in order to identify and remove to a certain extant, in an automated manner, the features linked to an identity in the context of image data. Two different kinds of processing data were explored. They both share the same Y-shaped network architecture despite components of this network varying according to the final purpose. The first one was about building from the ground an anonymized representation that allowed a trade-off between keeping relevant features and tampering private features. This framework has led to a new loss. The second kind of data processing specified no relevant information about the data, only private information, meaning that everything that was not related to private features is assumed relevant. Therefore the anonymized representation shares the same nature as the initial data (e.g. an image is transformed into an anonymized image). This task led to another type of architecture (still in a Y-shape) and provided results strongly dependent on the type of data. The second part of the work is relative to another kind of relevant information: it focuses on the monitoring of predictor behavior. In the context of black box analysis, we only have access to the probabilities outputted by the predictor (without any knowledge of the type of structure/architecture producing these probabilities). This monitoring is done in order to detect abnormal behavior that is an indicator of a potential mismatch between the data statistics and the model statistics. Two methods are presented using different tools. The first one is based on comparing the empirical cumulative distribution of known data and to be tested data. The second one introduces two tools: one relying on the classifier uncertainty and the other relying on the confusion matrix. These methods produce concluding results
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Déguernel, Ken. "Apprentissage de structures musicales en contexte d'improvisation". Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0011.

Testo completo
Abstract (sommario):
Les systèmes actuels d’improvisation musicales sont capables de générer des séquences musicales unidimensionnelles par recombinaison du matériel musical. Cependant, la prise en compte de plusieurs dimensions (mélodie, harmonie...) et la modélisation de plusieurs niveaux temporels sont des problèmes difficiles. Dans cette thèse, nous proposons de combiner des approches probabilistes et des méthodes issues de la théorie des langages formels afin de mieux apprécier la complexité du discours musical à la fois d’un point de vue multidimensionnel et multi-niveaux dans le cadre de l’improvisation où la quantité de données est limitée. Dans un premier temps, nous présentons un système capable de suivre la logique contextuelle d’une improvisation représentée par un oracle des facteurs tout en enrichissant son discours musical à l’aide de connaissances multidimensionnelles représentées par des modèles probabilistes interpolés. Ensuite, ces travaux sont étendus pour modéliser l’interaction entre plusieurs musiciens ou entre plusieurs dimensions par un algorithme de propagation de croyance afin de générer des improvisations multidimensionnelles. Enfin, nous proposons un système capable d’improviser sur un scénario temporel avec des informations multi-niveaux représenté par une grammaire hiérarchique. Nous proposons également une méthode d’apprentissage pour l’analyse automatique de structures temporelles hiérarchiques. Tous les systèmes sont évalués par des musiciens et improvisateurs experts lors de sessions d’écoute
Current musical improvisation systems are able to generate unidimensional musical sequences by recombining their musical contents. However, considering several dimensions (melody, harmony...) and several temporal levels are difficult issues. In this thesis, we propose to combine probabilistic approaches with formal language theory in order to better assess the complexity of a musical discourse, both from a multidimensional and multi-level point of view in the context of improvisation where the amount of data is limited. First, we present a system able to follow the contextual logic of an improvisation modelled by a factor oracle whilst enriching its musical discourse with multidimensional knowledge represented by interpolated probabilistic models. Then, this work is extended to create another system using a belief propagation algorithm representing the interaction between several musicians, or between several dimensions, in order to generate multidimensional improvisations. Finally, we propose a system able to improvise on a temporal scenario with multi-level information modelled with a hierarchical grammar. We also propose a learning method for the automatic analysis of hierarchical temporal structures. Every system is evaluated by professional musicians and improvisers during listening sessions
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Moreau, Alain. "Contribution au traitement des informations subjectives dans les systemes experts". Valenciennes, 1987. https://ged.uphf.fr/nuxeo/site/esupversions/78bf2889-467a-43cb-81db-54626699a4c5.

Testo completo
Abstract (sommario):
Etude des problèmes de représentation et de traitement des connaissances subjectives, en particulier imprécises et incertaines, principalement dans le but d'applications aux systèmes experts. A partir des méthodes de prise en compte de données purement imprécises basées sur la théorie des sous-ensembles flous et des méthodes de représentation de données purement incertaines à l'aide de la théorie des possibilités ou des logiques multivalentes, il est défini des modes d'utilisation de connaissances simultanément imprécises et incertaines dont les avantages et limites sont comparés et discutés.
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Ravi, Mondi. "Confiance et incertitude dans les environnements distribués : application à la gestion des donnéeset de la qualité des sources de données dans les systèmes M2M (Machine to Machine)". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM090/document.

Testo completo
Abstract (sommario):
La confiance et l'incertitude sont deux aspects importants des systèmes distribués. Par exemple, de multiples sources d'information peuvent fournir le même type d'information. Cela pose le problème de sélectionner la source la plus fiable et de résoudre l'incohérence dans l'information disponible. Gérer de front la confiance et l'incertitude constitue un problème complexe et nous développons à travers cette thèse, une solution pour y répondre. La confiance et l'incertitude sont intrinsèquement liés. La confiance concerne principalement les sources d'information alors que l'incertitude est une caractéristique de l'information elle-même. En l'absence de mesures de confiance et d'incertitude, un système doit généralement faire face à des problèmes tels que l'incohérence et l'incertitude. Pour aborder ce point, nous émettons l'hypothèse que les sources dont les niveaux de confiance sont élevés produiront de l'information plus fiable que les sources dont les niveaux de confiance sont inférieurs. Nous utilisons ensuite les mesures de confiance des sources pour quantifier l'incertitude dans l'information et ainsi obtenir des conclusions de plus haut niveau avec plus de certitude.Une tendance générale dans les systèmes distribués modernes consiste à intégrer des capacités de raisonnement dans les composants pour les rendre intelligents et autonomes. Nous modélisons ces composants comme des agents d'un système multi-agents. Les principales sources d'information de ces agents sont les autres agents, et ces derniers peuvent posséder des niveaux de confiance différents. De plus, l'information entrante et les croyances qui en découlent sont associées à un degré d'incertitude. Par conséquent, les agents sont confrontés à un double problème: celui de la gestion de la confiance sur les sources et celui de la présence de l'incertitude dans l'information. Nous illustrons cela avec trois domaines d'application: (i) la communauté intelligente, (ii) la collecte des déchets dans une ville intelligente, et (iii) les facilitateurs pour les systèmes de l'internet du futur (FIWARE - le projet européen n° 285248, qui a motivé la recherche sur nos travaux). La solution que nous proposons consiste à modéliser les composants de ces domaines comme des agents intelligents qui incluent un module de gestion de la confiance, un moteur d'inférence et un système de révision des croyances. Nous montrons que cet ensemble d'éléments peut aider les agents à gérer la confiance aux autres sources, à quantifier l'incertitude dans l'information et à l'utiliser pour aboutir à certaines conclusions de plus haut niveau. Nous évaluons finalement notre approche en utilisant des données à la fois simulées et réelles relatives aux différents domaines d'application
Trust and uncertainty are two important aspects of many distributed systems. For example, multiple sources of information can be available for the same type of information. This poses the problem to select the best source that can produce the most certain information and to resolve incoherence amongst the available information. Managing trust and uncertainty together forms a complex problem and through this thesis we develop a solution to this. Trust and uncertainty have an intrinsic relationship. Trust is primarily related to sources of information while uncertainty is a characteristic of the information itself. In the absence of trust and uncertainty measures, a system generally suffers from problems like incoherence and uncertainty. To improve on this, we hypothesize that the sources with higher trust levels will produce more certain information than those with lower trust values. We then use the trust measures of the information sources to quantify uncertainty in the information and thereby infer high level conclusions with greater certainty.A general trend in the modern distributed systems is to embed reasoning capabilities in the end devices to make them smart and autonomous. We model these end devices as agents of a Multi Agent System. Major sources of beliefs for such agents are external information sources that can possess varying trust levels. Moreover, the incoming information and beliefs are associated with a degree of uncertainty. Hence, the agents face two-fold problems of managing trust on sources and presence of uncertainty in the information. We illustrate this with three application domains: (i) The intelligent community, (ii) Smart city garbage collection, and (iii) FIWARE : a European project about the Future Internet that motivated the research on this topic. Our solution to the problem involves modelling the devices (or entities) of these domains as intelligent agents that comprise a trust management module, an inference engine and a belief revision system. We show that this set of components can help agents to manage trust on the other sources and quantify uncertainty in the information and then use this to infer more certain high level conclusions. We finally assess our approach using simulated and real data pertaining to the different application domains
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Li, Junkang. "Games with incomplete information : complexity, algorithmics, reasoning". Electronic Thesis or Diss., Normandie, 2023. http://www.theses.fr/2023NORMC270.

Testo completo
Abstract (sommario):
Dans cette thèse, on étudie les jeux à information incomplète. On commence par établir un paysage complet de la complexité du calcul des stratégies pures optimales pour différentes sous-catégories de jeux, lorsque les jeux sont explicitement donnés en entrée. On étudie ensuite la complexité lorsque les jeux sont représentés de façon compacte (par leurs règles de jeu, par exemple). Pour ce faire, on conçoit deux formalismes pour ces représentations compactes. Dans la suite, on se consacre aux jeux à information incomplète, en proposant d'abord un nouveau formalisme, nommé jeu combinatoire à information incomplète, qui regroupe les jeux sans hasard (sauf un tirage aléatoire initial) et avec uniquement des actions publiques. Pour de tels jeux, ce nouveau formalisme capture la notion de l'information et de la connaissance des joueurs mieux que la forme extensive. Puis, on étudie des algorithmes et leurs optimisations pour résoudre les jeux combinatoires à information incomplète ; certains algorithmes que l'on propose sont applicables au-delà de ces jeux. Dans la dernière partie, on présente un travail en cours, qui consiste à modéliser les raisonnements récursifs et différents types de connaissances sur le comportement des adversaires dans les jeux à information incomplète
In this dissertation, we study games with incomplete information. We begin by establishing a complete landscape of the complexity of computing optimal pure strategies for different subclasses of games, when games are given explicitly as input. We then study the complexity when games are represented compactly (e.g.\ by their game rules). For this, we design two formalisms for such compact representations. Then we concentrate on games with incomplete information, by first proposing a new formalism called combinatorial game with incomplete information, which encompasses games of no chance (apart from a random initial drawing) and with only public actions. For such games, this new formalism captures the notion of information and knowledge of the players in a game better than extensive form. Next, we study algorithms and their optimisations for solving combinatorial games with incomplete information; some of these algorithms are applicable beyond these games. In the last part, we present a work in progress that concerns the modelling of recursive reasoning and different types of knowledge about the behaviour of the opponents in games with incomplete information
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Hörnsten, Jessica, Niclas Lindgren e Simon Skidmore. "Utopi eller dystopi? : Föreställningar kring artificiell intelligens". Thesis, Umeå universitet, Institutionen för informatik, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-159462.

Testo completo
Abstract (sommario):
This report is an investigation of the technological frames of Twitter users, regarding the phenomenon Artificial Intelligence. Tweets were collected as data and emotions were extracted through sentiment analysis. These emotions regarding AI were categorized using genre theory, more specifically Rob Klings (1994) genre conventions. This showed that the majority of Twitter users expressed positive feelings regarding AI, with trust, anticipation and joy as the most prominently displayed feelings. This is the leading technological frame of the users. Since our understanding of technology is created through socio-cognitive processes, this could have implications for AI. There is a risk of incongruencies between research into the phenomenon and the discussions on social media. Furthermore, light is shed on why this might be the case.
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Fuchs, Béatrice. "Représentation des connaissances pour le raisonnement à partir de cas : le système ROCADE". Saint-Etienne, 1997. http://www.theses.fr/1997STET4017.

Testo completo
Abstract (sommario):
PADIM a pour objectifs l'aide à la conception de systèmes de supervision et l'aide à l'opérateur dans sa tâche de supervision d'un système industriel complexe. Le système de supervision est un environnement informatique qui collecte les données et les rassemble pour illustrer la situation courante sur les écrans d'interface. L'opérateur doit choisir les tableaux de bord convenant le mieux pour gérer la situation en cours, et les faire évoluer en fonction de la situation. L'aide à la décision s'appuie sur le RAPC pour capitaliser et réutiliser l'expérience des opérateurs. La mise en oeuvre d'un système de RAPC dans le domaine de la supervision industrielle repose sur l'acquisition et la représentation de connaissances de différents types. Dans le but d'apporter un cadre précis pour le développement de systèmes d'intelligence artificielle s'appuyant sur le RAPC. La contribution de cette recherche est de deux ordres : - au niveau « connaissance » une modélisation du RAPC a été réalisée pour décrire précisément les fonctionnalités des systèmes de RAPC en terme de tâches. Il met en évidence les connaissances nécessaires aux taches de raisonnement, les connaissances produites, les modèles de connaissances utilisés, et les mécanismes d'inférence mis en oeuvre. Ce modèle sert de guide pour faciliter l'acquisition et la modélisation des connaissances, et est conçu pour être applicable dans de nombreux domaines d'application et pour des tâches cognitives variées. Le modèle permet de capturer aussi bien les fonctionnalités invariantes que spécifiques des systèmes de RAPC. Plusieurs exemples de systèmes de RAPC sont étudiés en utilisant le modèle de tâches et afin d'illustrer ses capacités. - au niveau « symbole », un environnement pour le développement de systèmes de RAPC a été réalisé. Le système ROCADE est un système de représentation de connaissances par objets écrit en objective C dans l'environnement Nextstep. ROCADE possède des capacités de raisonnement telles que l'héritage, l'appariement et la classification. Il permet de faciliter l'élaboration de connaissances en collectant des informations dans le système d'information environnant en particulier le système de supervision dans le cadre de l'application PADIM. L'objectif de ce travail reste l'intégration des deux aspects - aide à l'acquisition et à la modélisation et implantation dans un environnement de développement de systèmes de RAPC - afin de constituer un support pour le développement de systèmes d'intelligence artificielle utilisant le raisonnement à partir de cas. Une application complète d'aide à la conception en supervision industrielle avec le système designer a d'ores et déjà été réalisée
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Jiu, Mingyuan. "Spatial information and end-to-end learning for visual recognition". Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0038/document.

Testo completo
Abstract (sommario):
Dans cette thèse nous étudions les algorithmes d'apprentissage automatique pour la reconnaissance visuelle. Un accent particulier est mis sur l'apprentissage automatique de représentations, c.à.d. l'apprentissage automatique d'extracteurs de caractéristiques; nous insistons également sur l'apprentissage conjoint de ces dernières avec le modèle de prédiction des problèmes traités, tels que la reconnaissance d'objets, la reconnaissance d'activités humaines, ou la segmentation d'objets. Dans ce contexte, nous proposons plusieurs contributions : Une première contribution concerne les modèles de type bags of words (BoW), où le dictionnaire est classiquement appris de manière non supervisée et de manière autonome. Nous proposons d'apprendre le dictionnaire de manière supervisée, c.à.d. en intégrant les étiquettes de classes issues de la base d'apprentissage. Pour cela, l'extraction de caractéristiques et la prédiction de la classe sont formulées en un seul modèle global de type réseau de neurones (end-to-end training). Deux algorithmes d'apprentissage différents sont proposés pour ce modèle : le premier est basé sur la retro-propagation du gradient de l'erreur, et le second procède par des mises à jour dans le diagramme de Voronoi calculé dans l'espace des caractéristiques. Une deuxième contribution concerne l'intégration d'informations géométriques dans l'apprentissage supervisé et non-supervisé. Elle se place dans le cadre d'applications nécessitant une segmentation d'un objet en un ensemble de régions avec des relations de voisinage définies a priori. Un exemple est la segmentation du corps humain en parties ou la segmentation d'objets spécifiques. Nous proposons une nouvelle approche intégrant les relations spatiales dans l'algorithme d'apprentissage du modèle de prédication. Contrairement aux méthodes existantes, les relations spatiales sont uniquement utilisées lors de la phase d'apprentissage. Les algorithmes de classification restent inchangés, ce qui permet d'obtenir une amélioration du taux de classification sans augmentation de la complexité de calcul lors de la phase de test. Nous proposons trois algorithmes différents intégrant ce principe dans trois modèles : - l'apprentissage du modèle de prédiction des forêts aléatoires, - l'apprentissage du modèle de prédiction des réseaux de neurones (et de la régression logistique), - l'apprentissage faiblement supervisé de caractéristiques visuelles à l'aide de réseaux de neurones convolutionnels
In this thesis, we present our research on visual recognition and machine learning. Two types of visual recognition problems are investigated: action recognition and human body part segmentation problem. Our objective is to combine spatial information such as label configuration in feature space, or spatial layout of labels into an end-to-end framework to improve recognition performance. For human action recognition, we apply the bag-of-words model and reformulate it as a neural network for end-to-end learning. We propose two algorithms to make use of label configuration in feature space to optimize the codebook. One is based on classical error backpropagation. The codewords are adjusted by using gradient descent algorithm. The other is based on cluster reassignments, where the cluster labels are reassigned for all the feature vectors in a Voronoi diagram. As a result, the codebook is learned in a supervised way. We demonstrate the effectiveness of the proposed algorithms on the standard KTH human action dataset. For human body part segmentation, we treat the segmentation problem as classification problem, where a classifier acts on each pixel. Two machine learning frameworks are adopted: randomized decision forests and convolutional neural networks. We integrate a priori information on the spatial part layout in terms of pairs of labels or pairs of pixels into both frameworks in the training procedure to make the classifier more discriminative, but pixelwise classification is still performed in the testing stage. Three algorithms are proposed: (i) Spatial part layout is integrated into randomized decision forest training procedure; (ii) Spatial pre-training is proposed for the feature learning in the ConvNets; (iii) Spatial learning is proposed in the logistical regression (LR) or multilayer perceptron (MLP) for classification
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Guastella, Davide Andrea. "Dynamic learning of the environment for eco-citizen behavior". Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30160.

Testo completo
Abstract (sommario):
Le développement de villes intelligentes et durables nécessite le déploiement des technologies de l'information et de la communication (ITC) pour garantir de meilleurs services et informations disponibles à tout moment et partout. Comme les dispositifs IoT devenant plus puissants et moins coûteux, la mise en place d'un réseau de capteurs dans un contexte urbain peut être coûteuse. Cette thèse propose une technique pour estimer les informations environnementales manquantes dans des environnements à large échelle. Notre technique permet de fournir des informations alors que les dispositifs ne sont pas disponibles dans une zone de l'environnement non couverte par des capteurs. La contribution de notre proposition est résumée dans les points suivants : - limiter le nombre de dispositifs de détection à déployer dans un environnement urbain ; - l'exploitation de données hétérogènes acquises par des dispositifs intermittents ; - le traitement en temps réel des informations ; - l'auto-calibration du système. Notre proposition utilise l'approche AMAS (Adaptive Multi-Agent System) pour résoudre le problème de l'indisponibilité des informations. Dans cette approche, une exception est considérée comme une situation non coopérative (NCS) qui doit être résolue localement et de manière coopérative. HybridIoT exploite à la fois des informations homogènes (informations du même type) et hétérogènes (informations de différents types ou unités) acquises à partir d'un capteur disponible pour fournir des estimations précises au point de l'environnement où un capteur n'est pas disponible. La technique proposée permet d'estimer des informations environnementales précises dans des conditions de variabilité résultant du contexte d'application urbaine dans lequel le projet est situé, et qui n'ont pas été explorées par les solutions de l'état de l'art : - ouverture : les capteurs peuvent entrer ou sortir du système à tout moment sans qu'aucune configuration particulière soit nécessaire ; - large échelle : le système peut être déployé dans un contexte urbain à large échelle et assurer un fonctionnement correct avec un nombre significatif de dispositifs ; - hétérogénéité : le système traite différents types d'informations sans aucune configuration a priori. Notre proposition ne nécessite aucun paramètre d'entrée ni aucune reconfiguration. Le système peut fonctionner dans des environnements ouverts et dynamiques tels que les villes, où un grand nombre de capteurs peuvent apparaître ou disparaître à tout moment et sans aucun préavis. Nous avons fait différentes expérimentations pour comparer les résultats obtenus à plusieurs techniques standard afin d'évaluer la validité de notre proposition. Nous avons également développé un ensemble de techniques standard pour produire des résultats de base qui seront comparés à ceux obtenus par notre proposition multi-agents
The development of sustainable smart cities requires the deployment of Information and Communication Technology (ICT) to ensure better services and available information at any time and everywhere. As IoT devices become more powerful and low-cost, the implementation of an extensive sensor network for an urban context can be expensive. This thesis proposes a technique for estimating missing environmental information in large scale environments. Our technique enables providing information whereas devices are not available for an area of the environment not covered by sensing devices. The contribution of our proposal is summarized in the following points: * limiting the number of sensing devices to be deployed in an urban environment; * the exploitation of heterogeneous data acquired from intermittent devices; * real-time processing of information; * self-calibration of the system. Our proposal uses the Adaptive Multi-Agent System (AMAS) approach to solve the problem of information unavailability. In this approach, an exception is considered as a Non-Cooperative Situation (NCS) that has to be solved locally and cooperatively. HybridIoT exploits both homogeneous (information of the same type) and heterogeneous information (information of different types or units) acquired from some available sensing device to provide accurate estimates in the point of the environment where a sensing device is not available. The proposed technique enables estimating accurate environmental information under conditions of uncertainty arising from the urban application context in which the project is situated, and which have not been explored by the state-of-the-art solutions: * openness: sensors can enter or leave the system at any time without the need for any reconfiguration; * large scale: the system can be deployed in a large, urban context and ensure correct operation with a significative number of devices; * heterogeneity: the system handles different types of information without any a priori configuration. Our proposal does not require any input parameters or reconfiguration. The system can operate in open, dynamic environments such as cities, where a large number of sensing devices can appear or disappear at any time and without any prior notification. We carried out different experiments to compare the obtained results to various standard techniques to assess the validity of our proposal. We also developed a pipeline of standard techniques to produce baseline results that will be compared to those obtained by our multi-agent proposal
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Marroquín, Cortez Roberto Enrique. "Context-aware intelligent video analysis for the management of smart buildings". Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCK040/document.

Testo completo
Abstract (sommario):
Les systèmes de vision artificielle sont aujourd'hui limités à l'extraction de données issues de ce que les caméras « voient ». Cependant, la compréhension de ce qu'elles voient peut être enrichie en associant la connaissance du contexte et la connaissance d'interprétation d'un humain.Dans ces travaux de thèse, nous proposons une approche associant des algorithmes de vision atificielle à une modélisation sémantique du contexte d'acquisition.Cette approche permet de réaliser un raisonnement sur la connaissance extraite des images par les caméras en temps réel. Ce raisonnement offre une réponse aux problèmes d'occlusion et d'erreurs de détections inhérents aux algorithmes de vision artificielle. Le système complet permet d'offrir un ensemble de services intelligents (guidage, comptage...) tout en respectant la vie privée des personnes observées. Ces travaux forment la première étape du développement d'un bâtiment intelligent qui peut automatiquement réagir et évoluer en observant l'activité de ces usagers, i.e., un bâtiment intelligent qui prend en compte les informations contextuelles.Le résultat, nommé WiseNET, est une intelligence artificielle en charge des décisions au niveau du bâtiment (qui pourrait être étendu à un groupe de bâtiments ou même a l'échelle d'un ville intelligente). Elle est aussi capable de dialoguer avec l'utilisateur ou l'administrateur humain de manière explicite
To date, computer vision systems are limited to extract digital data of what the cameras "see". However, the meaning of what they observe could be greatly enhanced by environment and human-skills knowledge.In this work, we propose a new approach to cross-fertilize computer vision with contextual information, based on semantic modelization defined by an expert.This approach extracts the knowledge from images and uses it to perform real-time reasoning according to the contextual information, events of interest and logic rules. The reasoning with image knowledge allows to overcome some problems of computer vision such as occlusion and missed detections and to offer services such as people guidance and people counting. The proposed approach is the first step to develop an "all-seeing" smart building that can automatically react according to its evolving information, i.e., a context-aware smart building.The proposed framework, named WiseNET, is an artificial intelligence (AI) that is in charge of taking decisions in a smart building (which can be extended to a group of buildings or even a smart city). This AI enables the communication between the building itself and its users to be achieved by using a language understandable by humans
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Bannour, Sondes. "Apprentissage interactif de règles d'extraction d'information textuelle". Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD113/document.

Testo completo
Abstract (sommario):
L’Extraction d’Information est une discipline qui a émergé du Traitement Automatique des Langues afin de proposer des analyses fines d’un texte écrit en langage naturel et d’améliorer la recherche d’informations spécifiques. Les techniques d’extraction d’information ont énormément évolué durant les deux dernières décennies.Les premiers systèmes d’extraction d’information étaient des systèmes à base de règles écrites manuellement. L’écriture manuelle des règles étant devenue une tâche fastidieuse, des algorithmes d’apprentissage automatique de règles ont été développés.Ces algorithmes nécessitent cependant la rédaction d’un guide d’annotation détaillé, puis l’annotation manuelle d’une grande quantité d’exemples d’entraînement. Pour minimiser l’effort humain requis dans les deux familles d’approches de mise au point de règles, nous avons proposé, dans ce travail de thèse, une approche hybride qui combine les deux en un seul système interactif qui procède en plusieurs itérations.Ce système que nous avons nommé IRIES permet à l’utilisateur de travailler de manière duale sur les règles d’extraction d’information et les exemples d’apprentissage.Pour mettre en place l’approche proposée, nous avons proposé une chaîne d’annotation linguistique du texte et l’utilisation d’un langage de règles expressif pour la compréhensibilité et la généricité des règles écrites ou inférées, une stratégie d’apprentissage sur un corpus réduit pour ne pas discriminer les exemples positifs non encore annotés à une itération donnée, la mise en place d’un concordancier pour l’écriture de règles prospectives et la mise en place d’un module d’apprentissage actif(IAL4Sets) pour une sélection intelligente d’exemples.Ces propositions ont été mises en place et évaluées sur deux corpus : le corpus de BioNLP-ST 2013 et le corpus SyntSem. Une étude de différentes combinaisons de traits linguistiques utilisés dans les expressions des règles a permis de voir l’impactde ces traits sur les performances des règles. L’apprentissage sur un corpus réduit a permis un gain considérable en temps d’apprentissage sans dégradationde performances. Enfin, le module d’apprentissage actif proposé (IAL4Sets) a permis d’améliorer les performances de l’apprentissage actif de base de l’algorithme WHISK grâce à l’introduction de la notion de distance ou de similarité distributionnelle qui permet de proposer à l’utilisateur des exemples sémantiquement proches des exemples positifs déjà couverts
Non communiqué
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Al-Hakawati, al-Dakkak Oumayma. "Extraction automatique de paramètres formantiques guidée par le contexte et élaboration de règles de synthèse". Grenoble INPG, 1988. http://www.theses.fr/1988INPG0056.

Testo completo
Abstract (sommario):
Formation des connaissances permettant la generation automatique des trajectoires de parametres d'un synthetiseur a formants. Ce travail a ete applique a: l'analyse automatique a formants par des connaissances a priori sur le contexte et a l'elaboration de regles permettant une synthese par regles a partir du texte
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Sassatelli, Lucile. "Codes LDPC multi-binaires hybrides et méthodes de décodage itératif". Phd thesis, Université de Cergy Pontoise, 2008. http://tel.archives-ouvertes.fr/tel-00819413.

Testo completo
Abstract (sommario):
Cette thèse porte sur l'analyse et le design de codes de canal définis par des graphes creux. Le but est de construire des codes ayant de très bonnes performances sur de larges plages de rapports signal à bruit lorsqu'ils sont décodés itérativement. Dans la première partie est introduite une nouvelle classe de codes LDPC, nommés code LDPC hybrides. L'analyse de cette classe pour des canaux symétriques sans mé- moire est réalisée, conduisant à l'optimisation des paramètres, pour le canal gaussien à entrée binaire. Les codes LDPC hybrides résultants ont non seulement de bonnes proprié- tés de convergence, mais également un plancher d'erreur très bas pour des longueurs de mot de code inférieures à trois mille bits, concurrençant ainsi les codes LDPC multi-edge. Les codes LDPC hybrides permettent donc de réaliser un compromis intéressant entre ré- gion de convergence et plancher d'erreur avec des techniques de codage non-binaires. La seconde partie de la thèse a été consacrée à étudier quel pourrait être l'apport de méthodes d'apprentissage artificiel pour le design de bons codes et de bons décodeurs itératifs, pour des petites tailles de mot de code. Nous avons d'abord cherché comment construire un code en enlevant des branches du graphe de Tanner d'un code mère, selon un algorithme d'apprentissage, dans le but d'optimiser la distance minimale. Nous nous sommes ensuite penchés sur le design d'un décodeur itératif par apprentissage artificiel, dans l'optique d'avoir de meilleurs résultats qu'avec le décodeur BP, qui devient sous- optimal dès qu'il y a des cycles dans le graphe du code. Dans la troisième partie de la thèse, nous nous sommes intéressés au décodage quan- tifié dans le même but que précédemment : trouver des règles de décodage capables de décoder des configurations d'erreur difficiles. Nous avons proposé une classe de déco- deurs utilisant deux bits de quantification pour les messages du décodeur. Nous avons prouvé des conditions suffisantes pour qu'un code LDPC, avec un poids de colonnes égal à quatre, et dont le plus petit cycle du graphe est de taille au moins six, corrige n'importe quel triplet d'erreurs. Ces conditions montrent que décoder avec cette règle à deux bits permet d'assurer une capacité de correction de trois erreurs pour des codes de rendements plus élevés qu'avec une règle de décodage à un bit.
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Chafik, Sanaa. "Machine learning techniques for content-based information retrieval". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL008.

Testo completo
Abstract (sommario):
Avec l’évolution des technologies numériques et la prolifération d'internet, la quantité d’information numérique a considérablement évolué. La recherche par similarité (ou recherche des plus proches voisins) est une problématique que plusieurs communautés de recherche ont tenté de résoudre. Les systèmes de recherche par le contenu de l’information constituent l’une des solutions prometteuses à ce problème. Ces systèmes sont composés essentiellement de trois unités fondamentales, une unité de représentation des données pour l’extraction des primitives, une unité d’indexation multidimensionnelle pour la structuration de l’espace des primitives, et une unité de recherche des plus proches voisins pour la recherche des informations similaires. L’information (image, texte, audio, vidéo) peut être représentée par un vecteur multidimensionnel décrivant le contenu global des données d’entrée. La deuxième unité consiste à structurer l’espace des primitives dans une structure d’index, où la troisième unité -la recherche par similarité- est effective.Dans nos travaux de recherche, nous proposons trois systèmes de recherche par le contenu de plus proches voisins. Les trois approches sont non supervisées, et donc adaptées aux données étiquetées et non étiquetées. Elles sont basées sur le concept du hachage pour une recherche efficace multidimensionnelle des plus proches voisins. Contrairement aux approches de hachage existantes, qui sont binaires, les approches proposées fournissent des structures d’index avec un hachage réel. Bien que les approches de hachage binaires fournissent un bon compromis qualité-temps de calcul, leurs performances en termes de qualité (précision) se dégradent en raison de la perte d’information lors du processus de binarisation. À l'opposé, les approches de hachage réel fournissent une bonne qualité de recherche avec une meilleure approximation de l’espace d’origine, mais induisent en général un surcoût en temps de calcul.Ce dernier problème est abordé dans la troisième contribution. Les approches proposées sont classifiées en deux catégories, superficielle et profonde. Dans la première catégorie, on propose deux techniques de hachage superficiel, intitulées Symmetries of the Cube Locality sensitive hashing (SC-LSH) et Cluster-Based Data Oriented Hashing (CDOH), fondées respectivement sur le hachage aléatoire et l’apprentissage statistique superficiel. SCLSH propose une solution au problème de l’espace mémoire rencontré par la plupart des approches de hachage aléatoire, en considérant un hachage semi-aléatoire réduisant partiellement l’effet aléatoire, et donc l’espace mémoire, de ces dernières, tout en préservant leur efficacité pour la structuration des espaces hétérogènes. La seconde technique, CDOH, propose d’éliminer l’effet aléatoire en combinant des techniques d’apprentissage non-supervisé avec le concept de hachage. CDOH fournit de meilleures performances en temps de calcul, en espace mémoire et en qualité de recherche.La troisième contribution est une approche de hachage basée sur les réseaux de neurones profonds appelée "Unsupervised Deep Neuron-per-Neuron Hashing" (UDN2H). UDN2H propose une indexation individuelle de la sortie de chaque neurone de la couche centrale d’un modèle non supervisé. Ce dernier est un auto-encodeur profond capturant une structure individuelle de haut niveau de chaque neurone de sortie.Nos trois approches, SC-LSH, CDOH et UDN2H, ont été proposées séquentiellement durant cette thèse, avec un niveau croissant, en termes de la complexité des modèles développés, et en termes de la qualité de recherche obtenue sur de grandes bases de données d'information
The amount of media data is growing at high speed with the fast growth of Internet and media resources. Performing an efficient similarity (nearest neighbor) search in such a large collection of data is a very challenging problem that the scientific community has been attempting to tackle. One of the most promising solutions to this fundamental problem is Content-Based Media Retrieval (CBMR) systems. The latter are search systems that perform the retrieval task in large media databases based on the content of the data. CBMR systems consist essentially of three major units, a Data Representation unit for feature representation learning, a Multidimensional Indexing unit for structuring the resulting feature space, and a Nearest Neighbor Search unit to perform efficient search. Media data (i.e. image, text, audio, video, etc.) can be represented by meaningful numeric information (i.e. multidimensional vector), called Feature Description, describing the overall content of the input data. The task of the second unit is to structure the resulting feature descriptor space into an index structure, where the third unit, effective nearest neighbor search, is performed.In this work, we address the problem of nearest neighbor search by proposing three Content-Based Media Retrieval approaches. Our three approaches are unsupervised, and thus can adapt to both labeled and unlabeled real-world datasets. They are based on a hashing indexing scheme to perform effective high dimensional nearest neighbor search. Unlike most recent existing hashing approaches, which favor indexing in Hamming space, our proposed methods provide index structures adapted to a real-space mapping. Although Hamming-based hashing methods achieve good accuracy-speed tradeoff, their accuracy drops owing to information loss during the binarization process. By contrast, real-space hashing approaches provide a more accurate approximation in the mapped real-space as they avoid the hard binary approximations.Our proposed approaches can be classified into shallow and deep approaches. In the former category, we propose two shallow hashing-based approaches namely, "Symmetries of the Cube Locality Sensitive Hashing" (SC-LSH) and "Cluster-based Data Oriented Hashing" (CDOH), based respectively on randomized-hashing and shallow learning-to-hash schemes. The SC-LSH method provides a solution to the space storage problem faced by most randomized-based hashing approaches. It consists of a semi-random scheme reducing partially the randomness effect of randomized hashing approaches, and thus the memory storage problem, while maintaining their efficiency in structuring heterogeneous spaces. The CDOH approach proposes to eliminate the randomness effect by combining machine learning techniques with the hashing concept. The CDOH outperforms the randomized hashing approaches in terms of computation time, memory space and search accuracy.The third approach is a deep learning-based hashing scheme, named "Unsupervised Deep Neuron-per-Neuron Hashing" (UDN2H). The UDN2H approach proposes to index individually the output of each neuron of the top layer of a deep unsupervised model, namely a Deep Autoencoder, with the aim of capturing the high level individual structure of each neuron output.Our three approaches, SC-LSH, CDOH and UDN2H, were proposed sequentially as the thesis was progressing, with an increasing level of complexity in terms of the developed models, and in terms of the effectiveness and the performances obtained on large real-world datasets
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Agarwal, Rachit. "Towards enhancing information dissemination in wireless networks". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2013. http://www.theses.fr/2013TELE0020.

Testo completo
Abstract (sommario):
Dans les systèmes d'alertes publiques, l’étude de la diffusion des informations dans le réseau est essentielle. Les systèmes de diffusion des messages d'alertes doivent atteindre beaucoup de nœuds en peu de temps. Dans les réseaux de communication basés sur les interactions “device to device”, on s'est récemment beaucoup intéressé à la diffusion des informations et le besoin d'auto-organisation a été mis en évidence. L'auto-organisation conduit à des comportements locaux et des interactions qui ont un effet sur le réseau global et présentent un avantage de scalabilité. Ces réseaux auto-organisés peuvent être autonomes et utiliser peu d'espace mémoire. On peut développer des caractères auto-organisés dans les réseaux de communication en utilisant des idées venant de phénomènes naturels. Il semble intéressant de chercher à obtenir les propriétés des “small world” pour améliorer la diffusion des informations dans le réseau. Dans les modèles de “small world” on réalise un recâblage des liens dans le réseau en changeant la taille et la direction des liens existants. Dans un environnement sans-fils autonome une organisation de ce type peut être créée en utilisant le flocking, l'inhibition latérale et le “beamforming”. Dans ce but, l'auteur utilise d'abord l'analogie avec l'inhibition latérale, le flocking et le “beamforming” pour montrer comment la diffusion des informations peut être améliorée. L'analogue de l'inhibition latérale est utilisé pour créer des régions virtuelles dans le réseau. Puis en utilisant l'analogie avec les règles du flocking, on caractérise les propriétés des faisceaux permettant aux nœuds de communiquer dans les régions. Nous prouvons que les propriétés des “small world” sont vérifiées en utilisant la mesure des moyennes des longueurs des chemins. Cependant l'algorithme proposé est valable pour les réseaux statiques alors que dans les cas introduisant de la mobilité, les concepts d'inhibition latérale et de flocking nécessiteraient beaucoup plus de temps. Dans le cas d'un réseau mobile la structure du réseau change fréquemment. Certaines connexions intermittentes impactent fortement la diffusion des informations. L'auteur utilise le concept de stabilité avec le “beamforming” pour montrer comment on peut améliorer la diffusion des informations. Dans son algorithme il prévoit d'abord la stabilité du nœud en utilisant des informations locales et il utilise ce résultat pour identifier les nœuds qui réaliseront du beamforming. Dans l'algorithme, les nœuds de stabilité faible sont autorisés à faire du beamforming vers les nœuds de forte stabilité. La frontière entre forte et faible stabilité est fixée par un seuil. Cet algorithme ne nécessite pas une connaissance globale du réseau, mais utilise des données locales. Les résultats sont validés en étudiant le temps au bout duquel plus de nœuds reçoivent l'information et en comparant avec d'autres algorithmes de la littérature. Cependant, dans les réseaux réels, les changements de structure ne sont pas dus qu'à la mobilité, mais également à des changements de la densité des nœuds à un moment donné. Pour tenir compte de l'influence de tels événements sur la diffusion des informations concernant la sécurité publique, l'auteur utilise les concepts de modèle de métapopulation, épidémiologiques, “beamforming” et mobilité géographique obtenu à partir de données D4D. L'auteur propose la création de trois états latents qu'il ajoute au modèle épidémiologique connu: SIR. L'auteur étudie les états transitoires en analysant l'évolution du nombre de postes ayant reçu les informations et compare les résultats concernant ce nombre dans les différents cas. L'auteur démontre ainsi que le scenario qu'il propose permet d'améliorer le processus de diffusion des informations. Il montre aussi les effets de différents paramètres comme le nombre de sources, le nombre de paquets, les paramètres de mobilité et ceux qui caractérisent les antennes sur la diffusion des informations
In public warning message systems, information dissemination across the network is a critical aspect that has to be addressed. Dissemination of warning messages should be such that it reaches as many nodes in the network in a short time. In communication networks those based on device to device interactions, dissemination of the information has lately picked up lot of interest and the need for self organization of the network has been brought up. Self organization leads to local behaviors and interactions that have global effects and helps in addressing scaling issues. The use of self organized features allows autonomous behavior with low memory usage. Some examples of self organization phenomenon that are observed in nature are Lateral Inhibition and Flocking. In order to provide self organized features to communication networks, insights from such naturally occurring phenomenon is used. Achieving small world properties is an attractive way to enhance information dissemination across the network. In small world model rewiring of links in the network is performed by altering the length and the direction of the existing links. In an autonomous wireless environment such organization can be achieved using self organized phenomenon like Lateral inhibition and Flocking and beamforming (a concept in communication). Towards this, we first use Lateral Inhibition, analogy to Flocking behavior and beamforming to show how dissemination of information can be enhanced. Lateral Inhibition is used to create virtual regions in the network. Then using the analogy of Flocking rules, beam properties of the nodes in the regions are set. We then prove that small world properties are achieved using average path length metric. However, the proposed algorithm is applicable to static networks and Flocking and Lateral Inhibition concepts, if used in a mobile scenario, will be highly complex in terms of computation and memory. In a mobile scenario such as human mobility aided networks, the network structure changes frequently. In such conditions dissemination of information is highly impacted as new connections are made and old ones are broken. We thus use stability concept in mobile networks with beamforming to show how information dissemination process can be enhanced. In the algorithm, we first predict the stability of a node in the mobile network using locally available information and then uses it to identify beamforming nodes. In the algorithm, the low stability nodes are allowed to beamform towards the nodes with high stability. The difference between high and low stability nodes is based on threshold value. The algorithm is developed such that it does not require any global knowledge about the network and works using only local information. The results are validated using how quickly more number of nodes receive the information and different state of the art algorithms. We also show the effect of various parameters such as number of sources, number of packets, mobility parameters and antenna parameters etc. on the information dissemination process in the network. In realistic scenarios however, the dynamicity in the network is not only related to mobility. Dynamic conditions also arise due to change in density of nodes at a given time. To address effect of such scenario on the dissemination of information related to public safety in a metapopulation, we use the concepts of epidemic model, beamforming and the countrywide mobility pattern extracted from the D4D dataset. Here, we also propose the addition of three latent states to the existing epidemic model (SIR model). We study the transient states towards the evolution of the number of devices having the information and the difference in the number of devices having the information when compared with different cases to evaluate the results. Through the results we show that enhancements in the dissemination process can be achieved in the addressed scenario
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Almer, Jasmine, e Julia Ivert. "Artificiell Intelligens framtidsutsikter inom sjukvården : En studie om studerande sjuksköterskors attityder gällande Artificiell Intelligens inom sjukvården". Thesis, Uppsala universitet, Institutionen för informatik och media, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-413725.

Testo completo
Abstract (sommario):
Artificial Intelligence is an area that has developed radically in recent years and is constantly evolving in several industries. In this thesis, a qualitative case study is conducted which addresses student nurses' attitudes regarding Artificial Intelligence in Swedish healthcare and its use in the future. Through interviews conducted with Uppsala University student nurses, the empirical material is analyzed using the Technology Acceptance Model (TAM) theory to finally produce a result regarding the future use of Artificial Intelligence in healthcare. The analysis resulted in two evident areas regarding AI usage: decision-making AI and non-decision-making AI where the participants’ attitudes differed between the two divisions. The attitudes towards decision-making AI were rather negative partly because of the lack of responsibility and accountability together with the reduced patient contact it would entail. The attitudes towards non-decision-making AI were, in contrast, considered positive, partly because of the efficiency it would imply using AI technology as an appliance and the areas of improvement it would entail in the profession. For example by creating time for more care and attention, something that nursing students imply is the main focus in health and social care. Finally, the results of the analysis are discussed based on various aspects such as ethics and morals, the profession itself and further research.
Artificiell Intelligens är ett område vilket utvecklats radikalt senaste åren och som konstant fortsätter att utvecklas inom flera branscher. I denna uppsats utförs en kvalitativ fallstudie, vilken behandlar studerande sjuksköterskors attityder gällande Artificiell Intelligens inom sjukvården och dess användning i framtiden. Genom utförda intervjuer av Uppsala Universitets studerande sjuksköterskor, analyseras det empiriska materialet med hjälp av teorin Technology Acceptance Model (TAM), för att slutligen ta fram ett resultat vad det gäller ett framtida användandet av Artificiell Intelligens inom sjukvården. Analysen resulterade i två tydliga områden gällande användningen av AI inom sjukvården: beslutsfattande AI respektive icke-beslutsfattande AI, där intervjudeltagarnas attityder urskiljdes mellan de två indelningarna. De studerande sjuksköterskornas attityder gentemot beslutsfattande AI var tämligen negativ, dels på grund av de bristande faktorer som identifierades gällande ett ansvarsutkrävande, samt den minskade patientkontakten systemet kan komma att medföra. Attityderna gentemot icke-beslutsfattande AI ansågs i kontrast mycket positiva. Dels på grund av den effektivisering systemet möjligtvis kan medföra genom att använda AI-teknik som ett hjälpmedel eller komplement samt de förbättringsområden som inträder relaterat till arbetsrollen. Ett exempel på förbättringsområde som framkom var att skapa mer tid för vård och omsorg, något som sjuksköterskestudenterna menar på att yrket faktiskt är till för. Avslutningsvis diskuteras resultatet från analysen vilket intressanta resonemang om etik och moral, arbetsrollen i fråga samt vidare forskning förs på tal.
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Sjöblom, Sebastian, e Martin Eriksson. "Läkarstudenters attityder till artificiell intelligens inom sjukvården". Thesis, Uppsala universitet, Institutionen för informatik och media, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-413812.

Testo completo
Abstract (sommario):
Artificiell intelligens (AI) är idag en mycket omdiskuterad teknik med många postulerade användningsområden inom en bred rad vetenskapliga principer. Inom medicin har datorer länge hjälpt till med att analysera data och hjälpa medicinska utövare. Idag är frågan mer relevant än någonsin då medicinsk AI håller på att lanseras i kliniska miljöer och många utövare tror att tekniken kommer att få ett stort genomslag i framtiden. Utifrån denna bakgrund har vi velat undersöka Sveriges läkarstudenters inställning till AI som ett hjälpmedel inom sjukvården. Detta har gjorts genom en kvantitativ enkätbaserad undersökning som bygger på en modifiering av modellen Technology acceptance model 2 (TAM2) för att mäta attityderna till tekniken. Resultaten från enkäten har analyserats med hjälp av t-tester och regressionsanalys för att besvara våra forskningsfrågor. Analysen av resultaten visar bland annat att Sveriges läkarstudenters inställning till AI inom sjukvård är positiv och att de vill använda sig av tekniken.
Artificial intelligence (AI) is today a much debated technology with many postulated uses in a wide range of scientific principles. In medicine, computers have for a long time helped to analyze data and helped medical practitioners. Today, the issue is more relevant than ever as medical AI is being launched in clinical settings and many practitioners believe that the technology will have a major impact in the future. Based on this background, we have wanted to investigate Sweden's medical students' attitude to AI as a tool in healthcare. This has been done through a quantitative survey based on a modification of the model Technology Acceptance Model 2 (TAM2) to measure attitudes to this technology. The results from the survey have been analyzed using t-tests and regression analysis to answer our research questions. The analysis of the results shows, among other things, that Sweden's medical students' attitude to AI in healthcare is positive and that they want to use the technology.
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Pesquerel, Fabien. "Information per unit of interaction in stochastic sequential decision making". Electronic Thesis or Diss., Université de Lille (2022-....), 2023. https://pepite-depot.univ-lille.fr/LIBRE/EDMADIS/2023/2023ULILB048.pdf.

Testo completo
Abstract (sommario):
Dans cette thèse, nous nous interrogeons sur la vitesse à laquelle on peut résoudre un problème stochastique inconnu.À cette fin, nous introduisons deux domaines de recherche connus sous le nom de Bandit et d'Apprentissage par Renforcement.Dans ces deux champs d'étude, un agent doit séquentiellement prendre des décisions qui affecteront un signal de récompense qu'il reçoit.L'agent ne connaît pas l'environnement avec lequel il interagit, mais pourtant souhaite maximiser sa récompense moyenne à long terme.Plus précisément, on étudie des problèmes de décision stochastique dans lesquels l'agent cherche à maximiser sa récompense moyenne.Dans ces problèmes dit d'apprentissage stochastique, l'agent interagit séquentiellement avec un système dynamique, sans aucune réinitialisation, dans une suite unique, infinie et ininterrompue d'observations, d'actions et de récompenses tout en essayant de maximiser ses récompenses totales accumulées au fil du temps.Nous commençons par présenter le problème de Bandit, dans lequel l'ensemble des décisions est constant, et définissons ce que l'on entend par résoudre le problème.Parmi ces agents, certains sont meilleurs que tous les autres et sont dits optimaux.Nous nous concentrons d'abord sur la manière de tirer le maximum d'information de chaque interaction avec le système en revisitant un algorithme optimal et en réduisant sa complexité numérique.Tout en conservant l'optimalité de la méthode initiale, la méthode proposée réduit la complexité numérique et permet donc d'extraire d'avantage d'information d'un échantillon par unité de temps de calcul.Nous étudions ensuite un problème structuré intéressant dans lequel il est possible d'exploiter la structure sans l'estimer.Ensuite nous nous consacrons à l'Apprentissage par Renforcement, dans lequel les décisions qu'un agent peut prendre dépendent d'une notion d'état.Chaque fois qu'un agent prend une décision, il reçoit une récompense et l'état change selon une loi de transition sur les états.Sous une certaine hypothèse, dite ergodique, un taux optimal de résolution par unité d'interaction est connu et nous introduisons un algorithme dont nous pouvons prouver qu'il est optimal et nous montrons qu'il est numériquement efficace.Dans un dernier chapitre, nous tentons de mieux comprendre ce qu'implique la supression de l'hypothèse d'ergodicité.Nous considérons le problème a priori plus simple où les transitions sont connues.Cependant, même sous cette hypothèse, il n'est pas évident de comprendre correctement la vitesse à laquelle des informations peuvent être acquises sur une solution optimale
In this thesis, we wonder about the rate at which one can solve an unknown stochastic problem.To this purpose we introduce two research fields known as Bandit and Reinforcement Learning.In these two settings, a learner must sequentially makes decision that will affect a reward signal that the learner receive.The learner does not know the environment with which it is interaction, yet wish to maximize its average reward in the long run.More specifically, we are interested in studying some form of stochastic decision problem under the average-reward criterion in which a learning algorithm interacts sequentially with a dynamical system, without any reset, in a single and infinite sequence of observations, actions, and rewards while trying to maximize its total accumulated rewards over time.We first introduce Bandit, in which the set of decision is constant and introduce what is meant by solving the problem.Amongst those learners, some are better than all the others, and called optimal.We first focus on how to make the most out of each interaction with the system by revisiting an optimal algorithm, and reduce its numerical complexity.Therefore, the information extracted from each sample, per-time-step, is larger since the optimality remains.Then we study an interesting structured problem in which one can exploit the structure without estimating it.Afterward we introduce Reinforcement Learning, in which the decision a learner can make depend on a notion of state.Each time a learner makes a decision, it receives a reward and the state change according to transition law on the set of states.In some setting, known as ergodic, an optimal rate of solving is known and we introduce a knew algorithm that we can prove to be optimal and show to be numerically efficient.In a final chapter, we make a step in the direction of removing the ergodic assumption by considering the a priori simpler problem where the transitions are known.Yet, correctly understanding the rate at which information can be acquired about an optimal solution is already not easy
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Neunreuther, Éric. "Contribution à la modélisation des systèmes intégrés de production à intelligence distribuée : application à la distribution du contrôle et de la gestion technique sur les équipements de terrain". Nancy 1, 1998. http://www.theses.fr/1998NAN10183.

Testo completo
Abstract (sommario):
Pour réduire les couts de développement, augmenter la qualité, et capitaliser les connaissances des systèmes de production, une solution est de pérenniser leur processus d'ingénierie. L’objectif de nos travaux est donc de contribuer à la modélisation des systèmes intégrés de production (S. I. P. ) de niveau terrain par la proposition de modèles de référence. Les systèmes décrits par ces modèles mettent en œuvre des architectures reparties qui assurent la distribution de l'intelligence dans différents équipements. En conséquence, la première partie de ce mémoire présente l'approche de modélisation systémique de ces systèmes que nous dénommons S. I. P. I. D. (systèmes intégrés de production a intelligence distribuée). Cette approche est caractérisée par la description fonctionnelle, organisationnelle et opérationnelle de leur contrôle distribué, et par l'ouverture de ce contrôle vers un système d'information technique pour son intégration avec la maintenance et la gestion technique. Une deuxième partie expose la formalisation de cette approche de modélisation par des modèles de référence. Afin d'être valides, ces modèles sont appliques par dérivation à un S. I. P. I. D. Particulier de régulation de niveau. Une troisième partie propose, sur la base de ces apports, la spécification par des modèles d'un prototype d'outil méthode, dont le rôle est d'automatiser partiellement l'approche de modélisation de tout S. I. P. I. D.
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Abiza, Yamina. "Personnalisation de la distribution et de la présentation des informations des bases de vidéo interactive diffusées". Nancy 1, 1997. http://www.theses.fr/1997NAN10249.

Testo completo
Abstract (sommario):
Notre thèse traite des problèmes de la conception et de la personnalisation des applications de bases de documents de vidéo interactive dans les services d'information multimédia résidentiels émergents (télévision interactive et télématique de deuxième génération). Plus précisément nous nous intéressons aux services d'information dits "server push" où les sources d'information sont dynamiques, distribuées, et destinées à être diffusées dans des environnements hétérogènes, à ressources partagées, et à utilisateurs ayant des besoins d'information individuel différents. Dans ce contexte, il y a plusieurs aspects à personnaliser. Nous nous centrons ici sur deux problèmes particuliers : le filtrage d'information basé sur les critères de structure des documents et l'adaptation des modalités de présentation des contenus. Ces deux problèmes sont liés à la conception de la base d'information. Notre approche de la personnalisation est basée sur la définition d'un modèle conceptuel de données, HB_Model, qui comporte un modèle de données de base pour la représentation des structures des documents de vidéo interactive, un modèle HB_Views et un modèle HB_Views et un modèle HB_Versions. HB_Yiews offre un mécanisme de vues pour le filtrage automatique basé sur la structure hypermédia et la sémantique associée dans les applications étudiées. HB_Versions est un modèle de représentation et de structuration d'objets simples multiversions du modèle de base, adapté aux besoins spécifiques de la personnalisatons des modalités de présentation des contenus des documents. Ce modèle permet la spécification en intention des configurations, cohérentes et adaptatives, des modalités de présentation des contenus suivant les contraintes dynamiques du contexte d'interaction et de présentation - sous la forme d'un CSP (Constraints Satisfaction Problem). Pour terminer, nous montrons comment nos propositions s'articulent et s'insèrent dans l'architecture fonctionnelle et opérationnelle d'un service d'information de vidéo interactive diffusé et personnalisé
In this thesis we deal with the issues of the design and personalization of data-oriented interactive video applications (i. E. Multimedia/hypermedia documents applications with predominance of audio and video data) in the emerging residential multimedia informatoin services (i. E. Interactive television and second generation telematics) More specifically, we are concerned with the server-push information services (i. E. Distributed dynamic and broadcast information sources) to be deployed in heteroyenous environments with shared ressources and destinated to users having different information needs and preferences. In this context, they are a lot of possible aspects to personalize. Here we focus on two particular related aspects : structure-based information filtering and personalization of contents presentation modalities. The techniques to achieve these personalization aspects are tightly related to the design of a given information source. Our approach to personalization is based on the definition of a conceptual data model, HB_Model, composed of : 1) a base model to represent documents organization and internal structure in video interactive sources, 2) a versionning model, HB_Versions, to represents documents contents with multiple alternative representation forms or modalities, and 3) a model for wiews definition, HB_Views, to represent relatively stable users information needs. Personalized information delivery from a given server - based on structure criteria - is archived by the materialization of individual users' views specifications using newly available information on this server. Personalization of contents representation modalitics is archived by the intentional specification of documents contents configuration in the form of a CSP (Constraint Satisfaction Problem) which reflects the constraints of the interaction and presentation contexts caracteristics on the choice of the presentation modality for each content and garantees the coherence of presentation modalities combinations. Finally, we show how our propositions articulate and fit into the architecture of a personalized, server-push interactive video information service
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Despres, Sylvie. "Un apport a la conception de systemes a base de connaissances : les operations de deduction floues". Paris 6, 1988. http://www.theses.fr/1988PA066197.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Hindawi, Mohammed. "Sélection de variables pour l’analyse des données semi-supervisées dans les systèmes d’Information décisionnels". Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0015/document.

Testo completo
Abstract (sommario):
La sélection de variables est une tâche primordiale en fouille de données et apprentissage automatique. Il s’agit d’une problématique très bien connue par les deux communautés dans les contextes, supervisé et non-supervisé. Le contexte semi-supervisé est relativement récent et les travaux sont embryonnaires. Récemment, l’apprentissage automatique a bien été développé à partir des données partiellement labélisées. La sélection de variables est donc devenue plus importante dans le contexte semi-supervisé et plus adaptée aux applications réelles, où l’étiquetage des données est devenu plus couteux et difficile à obtenir. Dans cette thèse, nous présentons une étude centrée sur l’état de l’art du domaine de la sélection de variable en s’appuyant sur les méthodes qui opèrent en mode semi-supervisé par rapport à celles des deux contextes, supervisé et non-supervisé. Il s’agit de montrer le bon compromis entre la structure géométrique de la partie non labélisée des données et l’information supervisée de leur partie labélisée. Nous nous sommes particulièrement intéressés au «small labeled-sample problem» où l’écart est très important entre les deux parties qui constituent les données. Pour la sélection de variables dans ce contexte semi-supervisé, nous proposons deux familles d’approches en deux grandes parties. La première famille est de type «Filtre» avec une série d’algorithmes qui évaluent la pertinence d’une variable par une fonction de score. Dans notre cas, cette fonction est basée sur la théorie spectrale de graphe et l’intégration de contraintes qui peuvent être extraites à partir des données en question. La deuxième famille d’approches est de type «Embedded» où la sélection de variable est intrinsèquement liée à un modèle d’apprentissage. Pour ce faire, nous proposons des algorithmes à base de pondération de variables dans un paradigme de classification automatique sous contraintes. Deux visions sont développées à cet effet, (1) une vision globale en se basant sur la satisfaction relaxée des contraintes intégrées directement dans la fonction objective du modèle proposé ; et (2) une deuxième vision, qui est locale et basée sur le contrôle stricte de violation de ces dites contraintes. Les deux approches évaluent la pertinence des variables par des poids appris en cours de la construction du modèle de classification. En outre de cette tâche principale de sélection de variables, nous nous intéressons au traitement de la redondance. Pour traiter ce problème, nous proposons une méthode originale combinant l’information mutuelle et un algorithme de recherche d’arbre couvrant construit à partir de variables pertinentes en vue de l’optimisation de leur nombre au final. Finalement, toutes les approches développées dans le cadre de cette thèse sont étudiées en termes de leur complexité algorithmique d’une part et sont validés sur des données de très grande dimension face et des méthodes connues dans la littérature d’autre part
Feature selection is an important task in data mining and machine learning processes. This task is well known in both supervised and unsupervised contexts. The semi-supervised feature selection is still under development and far from being mature. In general, machine learning has been well developed in order to deal with partially-labeled data. Thus, feature selection has obtained special importance in the semi-supervised context. It became more adapted with the real world applications where labeling process is costly to obtain. In this thesis, we present a literature review on semi-supervised feature selection, with regard to supervised and unsupervised contexts. The goal is to show the importance of compromising between the structure from unlabeled part of data, and the background information from their labeled part. In particular, we are interested in the so-called «small labeled-sample problem» where the difference between both data parts is very important. In order to deal with the problem of semi-supervised feature selection, we propose two groups of approaches. The first group is of «Filter» type, in which, we propose some algorithms which evaluate the relevance of features by a scoring function. In our case, this function is based on spectral-graph theory and the integration of pairwise constraints which can be extracted from the data in hand. The second group of methods is of «Embedded» type, where feature selection becomes an internal function integrated in the learning process. In order to realize embedded feature selection, we propose algorithms based on feature weighting. The proposed methods rely on constrained clustering. In this sense, we propose two visions, (1) a global vision, based on relaxed satisfaction of pairwise constraints. This is done by integrating the constraints in the objective function of the proposed clustering model; and (2) a second vision, which is local and based on strict control of constraint violation. Both approaches evaluate the relevance of features by weights which are learned during the construction of the clustering model. In addition to the main task which is feature selection, we are interested in redundancy elimination. In order to tackle this problem, we propose a novel algorithm based on combining the mutual information with maximum spanning tree-based algorithm. We construct this tree from the relevant features in order to optimize the number of these selected features at the end. Finally, all proposed methods in this thesis are analyzed and their complexities are studied. Furthermore, they are validated on high-dimensional data versus other representative methods in the literature
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Neverova, Natalia. "Deep learning for human motion analysis". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI029/document.

Testo completo
Abstract (sommario):
L'objectif de ce travail est de développer des méthodes avancées d'apprentissage pour l’analyse et l'interprétation automatique du mouvement humain à partir de sources d'information diverses, telles que les images, les vidéos, les cartes de profondeur, les données de type “MoCap” (capture de mouvement), les signaux audio et les données issues de capteurs inertiels. A cet effet, nous proposons plusieurs modèles neuronaux et des algorithmes d’entrainement associés pour l’apprentissage supervisé et semi-supervisé de caractéristiques. Nous proposons des approches de modélisation des dépendances temporelles, et nous montrons leur efficacité sur un ensemble de tâches fondamentales, comprenant la détection, la classification, l’estimation de paramètres et la vérification des utilisateurs (la biométrie). En explorant différentes stratégies de fusion, nous montrons que la fusion des modalités à plusieurs échelles spatiales et temporelles conduit à une augmentation significative des taux de reconnaissance, ce qui permet au modèle de compenser les erreurs des classifieurs individuels et le bruit dans les différents canaux. En outre, la technique proposée assure la robustesse du classifieur face à la perte éventuelle d’un ou de plusieurs canaux. Dans un deuxième temps nous abordons le problème de l’estimation de la posture de la main en présentant une nouvelle méthode de régression à partir d’images de profondeur. Dernièrement, dans le cadre d’un projet séparé (mais lié thématiquement), nous explorons des modèles temporels pour l'authentification automatique des utilisateurs de smartphones à partir de leurs habitudes de tenir, de bouger et de déplacer leurs téléphones. Dans ce contexte, les données sont acquises par des capteurs inertiels embraqués dans les appareils mobiles
The research goal of this work is to develop learning methods advancing automatic analysis and interpreting of human motion from different perspectives and based on various sources of information, such as images, video, depth, mocap data, audio and inertial sensors. For this purpose, we propose a several deep neural models and associated training algorithms for supervised classification and semi-supervised feature learning, as well as modelling of temporal dependencies, and show their efficiency on a set of fundamental tasks, including detection, classification, parameter estimation and user verification. First, we present a method for human action and gesture spotting and classification based on multi-scale and multi-modal deep learning from visual signals (such as video, depth and mocap data). Key to our technique is a training strategy which exploits, first, careful initialization of individual modalities and, second, gradual fusion involving random dropping of separate channels (dubbed ModDrop) for learning cross-modality correlations while preserving uniqueness of each modality-specific representation. Moving forward, from 1 to N mapping to continuous evaluation of gesture parameters, we address the problem of hand pose estimation and present a new method for regression on depth images, based on semi-supervised learning using convolutional deep neural networks, where raw depth data is fused with an intermediate representation in the form of a segmentation of the hand into parts. In separate but related work, we explore convolutional temporal models for human authentication based on their motion patterns. In this project, the data is captured by inertial sensors (such as accelerometers and gyroscopes) built in mobile devices. We propose an optimized shift-invariant dense convolutional mechanism and incorporate the discriminatively-trained dynamic features in a probabilistic generative framework taking into account temporal characteristics. Our results demonstrate, that human kinematics convey important information about user identity and can serve as a valuable component of multi-modal authentication systems
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Boucher, Alain. "Une approche décentralisée et adaptative de la gestion d'informations en vision ; application à l'interprétation d'images de cellules en mouvement". Phd thesis, Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004805.

Testo completo
Abstract (sommario):
Cette thèse propose une nouvelle approche de la vision par ordinateur, insistant sur le rôle joué par les différentes informations et connaissances présentes dans un système intégré de vision. Ces connaissances peuvent être vues comme un but à atteindre dans la chaine de traitement ou comme un instrument pour guider ces différents traitement. Ce double rôle est mis en évidence en insistant sur la gestion des informations disponibles à tout moment pour effectuer la tâche de reconnaissance. Une approche distribuée est proposée, sous la forme d'un système multi-agents, où chaque agent est spécialisé pour la reconnaissance d'un concept de l'image. Le modèle générique d'agent est composé de quatre comportements de base : perception (croissance de région, suivi de contour), interaction (fusion de primitives), différenciation (interprétation de primitive) et reproduction (stratégie de focalisation des agents). Ces comportements prennent des décisions à l'aide d'évaluations multi-critères, faisant référence à plusieurs critères spécialisés. Des capacités d'adaptation et de coopération sont nécessaires aux agents pour mener à bien leurs tâches, et ce tant au niveau local qu'au niveau des groupes d'agents (travaillant sur un même groupement perceptuel). Ce système est appliqué pour la reconnaissance des cellules en mouvement. Chaque cellule est divisée en plusieurs composantes (noyau, pseudopode, cytoplasme, ...) qui servent de concepts de base pour la spécialisation des agents.
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Aimé, Xavier. "Gradients de prototypicalité, mesures de similarité et de proximité sémantique : une contribution à l'Ingénierie des Ontologies". Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00660916.

Testo completo
Abstract (sommario):
En psychologie cognitive, la notion de prototype apparaît de manière centrale dans les représentations conceptuelles. Dans le cadre de nos travaux, nous proposons d'introduire cette notion au sein des activités relevant de l'Ingénierie des Ontologies et de ses modèles de représentation. L'approche sémiotique que nous avons développée est fondée sur les trois dimensions d'une conceptualisation que sont l'intension (les propriétés), l'expression (les termes), et l'extension (les instances). Elle intègre, en sus de l'ontologie, des connaissances supplémentaires propres à l'utilisateur (pondération des propriétés, corpus, instances). Pratiquement, il s'agit de pondérer les liens "is-a", les termes et les instances d'une hiérarchie de concepts, au moyen de gradients de prototypicalité respectivement conceptuelle, lexicale et extensionnelle. Notre approche a été mise en oeuvre dans un système industriel de gestion documentaire et de recherche d'information pour la société Tennaxia - société de veille juridique dans le domaine de l'Environnement. Elle a conduit au développement d'une ontologie du domaine Hygiène-Sécurité-Environnement, et de deux applications logicielles : l'application TooPrag dédiée au calcul des différents gradients de prototypicalité, et le moteur de Recherche d'Information sémantique Theseus qui exploite les gradients de prototypicalité. Nous avons enfin étendu notre approche à la définition de deux nouvelles mesures sémantiques, en nous inspirant des lois de similarité et de proximité de la théorie de la perception : Semiosem, une mesure de similarité, et Proxem, une mesure de proximité.
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Olsson, Per, e Andreas Backman. "Etik & artificiell intelligens inom svenskbanksektor : En kvalitativ granskning av storbankernas etik". Thesis, Uppsala universitet, Institutionen för informatik och media, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-357786.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Åström, Emil. "AI-motor : Artificiell intelligens för spel". Thesis, Mittuniversitetet, Avdelningen för informations- och kommunikationssystem, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:miun:diva-22234.

Testo completo
Abstract (sommario):
Artificiell intelligens (AI) är en stor del i dagens datorspel. För att få inblick i komplexiteten runt AI i spelutveckling och för att förstå delar som AI består av har detta projekt genomförts. Målet var att skapa en AI-motor från grunden med bra grundplattform som är enkel att bygga vidare på. Innan projektet startade utfördes en förundersökning där olika alternativ för kartrepresentationer och grafsökningsalgoritmer togs fram. Utvecklingen av AI-motorn har haft ett starkt beroende till projektet där en spelmotor utvecklats av Niklas Ekman och Christian Mesch. Detta projekt har utförts enligt den agila systemutvecklingsmetoden Scrum. Ett versionshanteringssystem har använts för att enkelt kunna dela källkod mellan projekten. AI-motorn har utvecklats i C++ och för operativsystemen Ubuntu och OSX. AI-motorn består av fyra huvuddelar; logik, navigering, kommunikation och AI-objekt. Logiken är hjärnan i AI-motorn, navigeringen använder sig av navmesh som kartrepresentation och A*-algoritmen är den grafsökningsalgoritm som har valts. Kommunikation sker mellan AI-motorn och spelmotorn för att kunna dela på funktionalitet. AI-objekten är främst informationsklasser som t.ex. håller reda på antalet registrerade datorstyrda spelare. Valet av metod för kartrepresentation avgjordes av att navmesh enkelt kunde genereras automatiskt med hjälp av verktyg vilket var svårare för de andra alternativen. A* valdes som grafsökningsalgoritm eftersom den gav en korrekt väg med minst antal beräkningar. AI-motorn uppfyller de krav som ställdes innan utvecklingen påbörjades och är en bra grund för att lätt kunna utöka motorn med mer avancerad funktionalitet, men det finns så klart förbättringar som kan göras.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia