Dissertations / Theses on the topic 'Document Intelligence'

To see the other types of publications on this topic, follow the link: Document Intelligence.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Document Intelligence.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Šprta, Vlastimil. "Inteligentní dokument." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2012. http://www.nusl.cz/ntk/nusl-219662.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This diploma thesis, interested in intelligent documents, covers, in its introductory chapters, the basic problematics of inteligent documents. The major part of major part of these theorethical chapters is devoted to the analysis of possible practical applications of certain parts of knowledge management. The second part of the thesis, focused more on a practical usage of intelligent documents, includes the proposition of the actual structure and the realization of the specific intelligent document. This part also includes the evaluation and the examples of the differences between an ordinary electronic document and an intelligent document. The conclusion of the practical part of the thesis is the summary of all the findings concerning the practical implementation of an intelligent document and the evaluation of possible applications, extension possibilities and changes of such intelligent document.
2

Chen, Hsinchun, K. J. Lynch, K. Basu, and Tobun Dorbin Ng. "Generating, Integrating, and Activating Thesauri for Concept-based Document Retrieval." IEEE, 1993. http://hdl.handle.net/10150/105378.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Artificial Intelligence Lab, Department of MIS, University of Arizona
This Blackboard-based design uses a neural-net spreading-activation algorithm to traverse multiple thesauri. Guided by heuristics, the algorithm activates related terms in the thesauri and converges on the most pertinent concepts.
3

Chen, Hsinchun, and K. J. Lynch. "Automatic Construction of Networks of Concepts Characterizing Document Databases." IEEE, 1992. http://hdl.handle.net/10150/105175.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Artificial Intelligence Lab, Department of MIS, University of Arizona
The results of a study that involved the creation of knowledge bases of concepts from large, operational textual databases are reported. Two East-bloc computing knowledge bases, both based on a semantic network structure, were created automatically using two statistical algorithms. With the help of four East-bloc computing experts, we evaluated the two knowledge bases in detail in a concept-association experiment based on recall and recognition tests. In the experiment, one of the knowledge bases that exhibited the asymmetric link property out-performed all four experts in recalling relevant concepts in East-bloc computing. The knowledge base, which contained about 20,O00 concepts (nodes) and 280,O00 weighted relationships (links), was incorporated as a thesaurus-like component into an intelligent retrieval system. The system allowed users to perform semantics-based information management and information retrieval via interactive, conceptual relevance feedback.
4

Sangupamba, Mwilu Odette. "De la business intelligence interne vers la business intelligence dans le cloud : modèles et apports méthodologiques." Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1168/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La BI et le cloud computing sont deux grands sujets de recherche en informatique et en système d’information en particulier. Une recherche combinant ces deux concepts est d'un intérêt double : D’une part, dans les entreprises, la BI devient de plus en plus une partie importante du système d'information qui nécessite des investissements en termes de performances de calcul et des volumes de données. D’autre part, le cloud computing offre de nouvelles opportunités pour gérer les données à des fins d’analyse.Etant donné les possibilités de cloud, la question de la migration de l'ensemble du système d’information y compris la BI est d'un grand intérêt. En particulier, les chercheurs doivent fournir aux professionnels des modèles et des méthodes qui puissent les aider à migrer vers le cloud.Que faire pour que la BI puisse fournir aux managers un service de mise à disposition de données d’analyse au travers du cloud ? La question de recherche est : Comment aider les organisations à migrer leur BI vers le cloud ?Dans cette thèse, nous répondons à cette question en utilisant l'approche science de conception (design science). Nous mettons en place une aide à la décision de la migration de la BI vers le cloud qui s'appuie sur les taxonomies. Nous proposons un modèle de guidage opérationnel qui est instancié par une taxonomie de la BI dans le cloud et dont découlent les règles pour la migration de la BI vers le cloud
BI and cloud computing are two major areas of computer science research and in particular in information system. A research combining these two concepts has a double interest : On the one hand, in business, the BI becomes increasingly an important part of the information system which requires investment in terms of computing performance and data volumes. On the other hand, cloud computing offers new opportunities to manage data for analysis.Given the possibilities of cloud, migration question of the information system including BI is of great interest. In particular, researchers must provide models and methods to help professional in BI migration to the cloud.The research question is : how to migrate BI to the cloud?In this thesis, we address this issue using design science research approach. We implement a decision-making help for BI migration to the cloud based on taxonomies. We provide an operational guidance model that is instantiated by a BI taxonomy in the cloud and from that rules for BI migration to the cloud are arised
5

Donolo, Rosa Marina. "Contributions to geovisualization for territorial intelligence." Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0075/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse de doctorat est placé dans le domaine de la Géovisualisation utilisé pour mettre en œuvre des systèmes de aide à la décision territoriale. Ce travail de recherche est né grâce à l'établissement d’un accord entre l’Université Tor Vergata de Rome, et l’INSA (Institut National des Sciences Appliquées), de Lyon. La co-tutelle de cette thèse est née pour la nécessité d’une approche multidisciplinaire à le sujet de recherche, en profitant des compétences en matière d'urbanisme, de l’environnement et de la modélisation de territoire à l'école doctorale ‘Geoinformazione’ de l'Université de Tor Vergata, et en utilisant d’avantage les compétences dans les systèmes d'information spatiale et de la géovisualisation au laboratoire LIRIS de l'INSA. Malgré ces avantages, l’un des problèmes les plus courants en visualisation de l’information est de représenter les données d’une manière claire et compréhensible. Actuallement il ya peu de fondations scientifiques pour guider les chercheurs dans la conception visuelle de données spatiales ; il existe des méthodes systématiques limitée pour évaluer l'efficacité des solutions proposées. Dans ce travail de recherche de doctorat, des contributions seront fournis à la création d'une méthode d'évaluation systématique pour évaluer et développer des affichages visuels efficaces. Dans ce contexte l’objectif de la recherche était de trouver une méthode simple et empirique - un test en ligne - qui pourrait être facilement reproductible pour differentes scenarios, pour soutenir l’administration publique dans différents contextes et pour différentes tâches
This PhD research work is placed in the domain of Geovisualization used to implement Territorial Intelligence and decision support systems. This research work was born through the establishment of an agreement between Tor Vergata University, Rome, and INSA (Institut National des Sciences Appliquées), Lyon. The co-supervision of this thesis was born from the necessity of a multidisciplinary approach to the research topic, taking advantage of the skills in urban planning, environment and territory modeling at the Geoinformation doctoral school of Tor Vergata University, and taking advantage of the skills in Spatial Information Systems and Geovisualization at the LIRIS Laboratory of INSA. The motivation that led us to deal with this research topic was the perception of a lack of systematic methods and universally approved empirical experiments in data visualization domain. The experiments should consider different typologies of data, different environmental contexts, different indicators and methods of representations, etc., in order to support expert users in decision making, in the urban and territorial planning and in the implementation of environmental policies. In modern societies, we have to deal with a great amount of data every day and Geovisualization permits the management, exploration and display of big and heterogeneous data in an interactive way that facilitates decision making processes. Geovisualization gives the opportunity to the user to change the visual appearance of the maps, to explore different layers of data and to highlight problems in some areas by the citizens. Despite these advantages, one of the most common problems in Information Visualization is to represent data in a clear and comprehensible way. Spatial data have a complex structure that includes spatial component, thematic attributes, and often the temporal component Actually there are limited scientific foundations to guide researchers in visual design of spatial data, and there are limited systematic and standard methods to evaluate the effectiveness of the solutions proposed. In this Phd research work, some contributions will be provided to the creation of a systematic assessment method to evaluate and to develop effective geovisualization displays. An empirical evaluation test is proposed to assess the effectiveness of some map displays, analyzing the use of three elements of visual design: 1. the spatial indicators to be represented and their context of visualization, 2. the physical dimensions of map displays, 3. the visual variables to represent different layers of information
6

Sasa, Yuko. "Intelligence Socio-Affective pour un Robot : primitives langagières pour une interaction évolutive d'un robot de l’habitat intelligent." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM041/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le Traitement Automatique de la Parole (TAP) s’intéresse de plus en plus et progresse techniquement en matière d’étendue de vocabulaire, de gestion de complexité morphosyntaxique, de style et d’esthétique de la parole humaine. L’Affective Computing tend également à intégrer une dimension « émotionnelle » dans un objectif commun au TAP visant à désambiguïser le langage naturel et augmenter la naturalité de l’interaction personne-machine. Dans le cadre de la robotique sociale, cette interaction est modélisée dans des systèmes d’interaction, de dialogue, qui tendent à engendrer une dimension d’attachement dont les effets doivent être éthiquement et collectivement contrôlés. Or la dynamique du langage humain situé met à mal l’efficacité des systèmes automatiques. L’hypothèse de cette thèse propose dans la dynamique des interactions, il existerait une « glu socio-affective » qui ferait entrer en phases synchroniques deux individus dotés chacun d’un rôle social impliqué dans une situation/contexte d’interaction. Cette thèse s'intéresse à des dynamiques interactionnelles impliquant spécifiquement des processus altruistes, orthogonale à la dimension de dominance. Cette glu permettrait ainsi de véhiculer les événements langagiers entre les interlocuteurs, en modifiant constamment leur relation et leur rôle, qui eux même viennent à modifier cette glu, afin d’assurer la continuité de la communication. La seconde hypothèse propose que la glu socio-affective se construise à partir d’une « prosodie socio-affective pure » que l’on peut retrouver dans certaines formes de micro-expressions vocales. L’effet de ces événements langagiers serait alors graduel en fonction du degré de contrôle d’intentionnalité communicative qui s’observerait successivement par des primitives langagières : 1) des bruits de bouche (non phonétiques, non phonologiques), 2) des sons prélexicaux, 3) des interjections/onomatopées, 4) des imitations à contenu lexical contrôlé. Une méthodologie living-lab est ainsi développée au sein de la plateforme Domus, sur des boucles agiles et itératives co-construites avec les partenaires industriels et sociétaux. Un Magicien d’Oz – EmOz – est utilisé afin de contrôler les primitives vocales comme unique support langagier d’un robot majordome d’un habitat intelligent interagissant avec des personnes âgées en isolement relationnel. Un large corpus, EmOz Elderly Expressions –EEE– est ainsi recueilli. Cet isolement relationnel permet méthodologiquement d’appréhender les dimensions de la glu socio-affective, en introduisant une situation contrastive dégradée de la glu. Les effets des primitives permettraient alors d’observer les comportements de l’humain à travers des indices multimodaux. Les enjeux sociétaux abordés par la gérontechnologie montrent que l’isolement est un facteur de fragilisation où la qualité de la communication délite le maillage relationnel des personnes âgées alors que ces liens sont bénéfiques à sa santé et son bien-être. L’émergence de la robotique d’assistance en est une illustration. Le système automatisé qui découlera des données et des analyses de cette étude permettrait alors d’entraîner les personnes à solliciter pleinement leurs mécanismes de construction relationnelle, afin de redonner l’envie de communiquer avec leur entourage humain. Les analyses du corpus EEE recueilli montrent une évolution de la relation à travers différents indices interactionnels, temporellement organisés. Ces paramètres visent à être intégrés dans une perspective de système de dialogue incrémental – SASI. Les prémisses de ce système sont proposées dans un prototype de reconnaissance de la parole dont la robustesse ne dépendra pas de l’exactitude du contenu langagier reconnu, mais sur la reconnaissance du degré de glu, soit de l’état relationnel entre les locuteurs. Ainsi, les erreurs de reconnaissance tendraient à être compensées par l’intelligence socio-affective adaptative de ce système dont pourrait être doté le robot
The Natural Language Processing (NLP) has technically improved regarding human speech vocabulary extension, morphosyntax scope, style and aesthetic. Affective Computing also tends to integrate an “emotional” dimension with a common goal shared with NLP which is to disambiguate the natural language and increase the human-machine interaction naturalness. Within social robotics, the interaction is modelled in dialogue systems trying to reach out an attachment dimension which effects need to an ethical and collective control. However, the situated natural language dynamics is undermining the automated system’s efficiency, which is trying to respond with useful and suitable feedbacks. This thesis hypothesis supposes the existence of a “socio-affective glue” in every interaction, set up in between two individuals, each with a social role depending on a communication context. This glue is so the consequence of dynamics generated by a process which mechanisms rely on an altruistic dimension, but independent of dominance dimension as seen in emotions studies. This glue would allow the exchange of the language events between interlocutors, by regularly modifying their relation and their role, which is changing themselves this glue, to ensure the communication continuity. The second hypothesis proposes the glue as built by “socio-affective pure prosody” forms that enable this relational construction. These cues are supposed to be carried by hearable and visible micro-expressions. The interaction events effect would also be gradual following the degree of the communication’s intentionality control. The graduation will be continuous through language primitives as 1) mouth noises (neither phonetics nor phonological sounds), 2) pre-lexicalised sounds, 3) interjections and onomatopoeias, 4) controlled command-based imitations with the same socio-affective prosody supposed to create and modify the glue. Within the Domus platform, we developed an almost living-lab methodology. It functions on agile and iterative loops co-constructed with industrial and societal partners. A wizard of oz approach – EmOz – is used to control the vocal primitives proposed as the only language tools of a Smart Home butler robot interacting with relationally isolated elderly. The relational isolation allows the dimensions the socio-affective glue in a contrastive situation where it is damaged. We could thus observe the primitives’ effects through multimodal language cues. One of the gerontechnology social motivation showed the isolation to be a phenomenon amplifying the frailty so can attest the emergence of assistive robotics. A vicious circle leads by the elderly communicational characteristics convey them to some difficulties to maintain their relational tissue while their bonds are beneficial for their health and well-being. If the proposed primitives could have a real effect on the glue, the automated system will be able to train the persons to regain some unfit mechanisms underlying their relational construction, and so possibly increase their desire to communicate with their human social surroundings. The results from the collected EEE corpus show the relation changes through various interactional cues, temporally organised. These denoted parameters tend to build an incremental dialogue system in perspectives – SASI. The first steps moving towards this system reside on a speech recognition prototype which robustness is not based on the accuracy of the recognised language content but on the possibility to identify the glue degree (i.e. the relational state) between the interlocutors. Thus, the recognition errors avoid the system to be rejected by the user, by tempting to be balanced by this system’s adaptive socio-affective intelligence
7

Bernardes, Vitor Giovani. "Urban environment perception and navigation using robotic vision : conception and implementation applied to automous vehicle." Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP2155/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement de véhicules autonomes capables de se déplacer sur les routes urbaines peuvent fournir des avantages importants en matière de réduction des accidents, en augmentant le confort et aussi, permettant des réductions de coûts. Les véhicules Intelligents par exemple fondent souvent leurs décisions sur les observations obtenues à partir de différents capteurs tels que les LIDAR, les GPS et les Caméras. En fait, les capteurs de la caméra ont reçu grande attention en raison du fait de qu’ils ne sont pas cher, facile à utiliser et fournissent des données avec de riches informations. Les environnements urbains représentent des scénarios intéressant mais aussi très difficile dans ce contexte, où le tracé de la route peut être très complexe,la présence d’objets tels que des arbres, des vélos, des voitures peuvent générer des observations partielles et aussi ces observations sont souvent bruyants ou même manquant en raison de occlusions complètes. Donc, le processus de perception par nature doit être capable de traiter des incertitudes dans la connaissance du monde autour de la voiture. Tandis que la navigation routière et la conduite autonome en utilisant une connaissance préalable de l’environnement ont démontré avec succès, la compréhension et la navigation des scénarios généraux du environnement urbain avec peu de connaissances reste un problème non résolu. Dans cette thèse, on analyse ce problème de perception pour la conduite dans les milieux urbains basée sur la connaissance de l’environnement pour aussi prendre des décisions dans la navigation autonome. Il est conçu un système de perception robotique, qui permettre aux voitures de se conduire sur les routes, sans la nécessité d’adapter l’infrastructure, sans exiger l’apprentissage précédente de l’environnement, et en tenant en compte la présence d’objets dynamiques tels que les voitures.On propose un nouveau procédé basé sur l’apprentissage par la machine pour extraire le contexte sémantique en utilisant une paire d’images stéréo qui est fusionnée dans une grille d’occupation évidentielle pour modéliser les incertitudes d’un environnement urbain inconnu,en utilisant la théorie de Dempster-Shafer. Pour prendre des décisions dans la planification des chemins, il est appliqué l’approche de tentacule virtuel pour générer les possibles chemins à partir du centre de référence de la voiture et sur cette base, deux nouvelles stratégies sont proposées. Première, une nouvelle stratégie pour sélectionner le chemin correct pour mieux éviter les obstacles et de suivre la tâche locale dans le contexte de la navigation hybride, et seconde, un nouveau contrôle en boucle fermée basé sur l’odométrie visuelle et tentacule virtuel est modélisée pour l’exécution du suivi de chemin. Finalement, un système complet automobile intégrant les modules de perception, de planification et de contrôle sont mis en place et validé expérimentalement dans des situations réelles en utilisant une voiture autonome expérimentale, où les résultats montrent que l’approche développée effectue avec succès une navigation locale fiable basée sur des capteurs de la caméra
The development of autonomous vehicles capable of getting around on urban roads can provide important benefits in reducing accidents, in increasing life comfort and also in providing cost savings. Intelligent vehicles for example often base their decisions on observations obtained from various sensors such as LIDAR, GPS and Cameras. Actually, camera sensors have been receiving large attention due to they are cheap, easy to employ and provide rich data information. Inner-city environments represent an interesting but also very challenging scenario in this context,where the road layout may be very complex, the presence of objects such as trees, bicycles,cars might generate partial observations and also these observations are often noisy or even missing due to heavy occlusions. Thus, perception process by nature needs to be able to dea lwith uncertainties in the knowledge of the world around the car. While highway navigation and autonomous driving using a prior knowledge of the environment have been demonstrating successfully,understanding and navigating general inner-city scenarios with little prior knowledge remains an unsolved problem. In this thesis, this perception problem is analyzed for driving in the inner-city environments associated with the capacity to perform a safe displacement basedon decision-making process in autonomous navigation. It is designed a perception system that allows robotic-cars to drive autonomously on roads, with out the need to adapt the infrastructure,without requiring previous knowledge of the environment and considering the presenceof dynamic objects such as cars. It is proposed a novel method based on machine learning to extract the semantic context using a pair of stereo images, which is merged in an evidential grid to model the uncertainties of an unknown urban environment, applying the Dempster-Shafer theory. To make decisions in path-planning, it is applied the virtual tentacle approach to generate possible paths starting from ego-referenced car and based on it, two news strategies are proposed. First one, a new strategy to select the correct path to better avoid obstacles and tofollow the local task in the context of hybrid navigation, and second, a new closed loop control based on visual odometry and virtual tentacle is modeled to path-following execution. Finally, a complete automotive system integrating the perception, path-planning and control modules are implemented and experimentally validated in real situations using an experimental autonomous car, where the results show that the developed approach successfully performs a safe local navigation based on camera sensors
8

Karim, Jahanvash. "Emotional Intelligence : a Cross-Cultural Psychometric Analysis." Thesis, Aix-Marseille 3, 2011. http://www.theses.fr/2011AIX32028/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Malgré la littérature importante dans le champ de l’intelligence émotionnelle, la très grande majorité des études sur le développement et la validation des échelles de mesure de l’intelligence émotionnelle ont été réalisées dans des pays Occidentaux. D’où, une limitation majeure de cette littérature dans son orientation purement occidentale. L’objectif de cette recherche est d’évaluer les propriétés psychométriques du Test d’Intelligence Emotionnelle de Mayer-Salovey-Caruso (MSCEIT), du Questionnaire des Traits d’Intelligence Emotionnelle (TEIQue), et du Test d’auto-évaluation d’Intelligence Emotionnelle (SREIT) dans un contexte comparatif interculturel comprenant des étudiants collectivistes Pakistanais (culture Orientale) et des étudiants individualistes Français (culture Occidentale). Les résultats de cette étude ont démontré que les participants de la culture française ont eu une meilleure performance par rapport aux participants pakistanais au MSCEIT mais pas au TEIQue et au SREIT. Les analyses d’échantillons multiples ont révélé des structures factorielles invariantes du MSCEIT, du TEIQue, et du SREIT à travers les deux cultures. Concernant la validité discriminante, l’auto-évaluation de l’IE, mesurée par le SREIT et le TEIQue, et les mesures de performance de l’IE, évaluées par le MSCEIT, n’ont pas démontré une forte corrélation dans les deux cultures. En autre, les résultats au MSCEIT, au TEIQue, et au SREIT n’ont pas démontré le lien avec l’intelligence cognitive dans les deux cultures. Des corrélations faibles à modérées ont été observées entre les mesures de l’IE et les dimensions de personnalité Big Five. Enfin, les mesures de l’IE se sont révélées indépendantes de styles de communication. Concernant la validité convergente des mesures d’auto-évaluation de l’IE, les résultats au TEIQue ont montré une forte corrélation avec le SREIT dans les deux cultures. En ce qui concerne la validité incrémentale, après un contrôle statistique des dimensions de personnalité Big Five et la capacité cognitive, le MSCEIT et le SREIT n’ont pas démontré le lien avec la satisfaction de vie, l’affect positif, l’affect négatif, et la détresse psychologique dans les deux cultures. En revanche, les facteurs du TEIQue ont expliqué une part significative de la variance dans les variables dépendantes après avoir contrôlé pour les dimensions de personnalité Big Five et l’intelligence cognitive. Cependant, des analyses plus approfondies ont révélé que ces associations ont été en grande partie attribuées au facteur du bien-être du TEIQue. Enfin, les femmes ont montré de meilleurs résultats que les hommes au MSCEIT mais pas au TEIQue et au SREIT dans les deux cultures. En résumé, les résultats de cette étude fournissent les preuves pour validité factorielle, discriminante, et convergente de ces mesures de l’intelligence émotionnelles dans les deux cultures. Toutefois, les résultats concernant la validité incrémentale de ces mesures se sont avérés moins prometteurs que prévu
Despite the rather large literature concerning emotional intelligence, the vast majority of studies concerning development and validation of emotional intelligence scales have been done in the Western countries. Hence, a major limitation in this literature is its decidedly Western focus. The aim of this research was to assess the psychometric properties of the Mayer-Salovey-Caruso Emotional Intelligence Test (MSCEIT), the Trait Emotional Intelligence Questionnaire (TEIQue), and the Self-Report Emotional Intelligence Test (SREIT) in a cross-cultural comparative context involving the collectivist Pakistani (Eastern culture) and the individualist French (Western culture) students. Results of this study showed that participants from the French culture scored higher than participants from the Pakistani sample on the MSCEIT but not on the TEIQue and the SREIT. Multi-sample analyses revealed that the MSCEIT, the TEIQue, and the SREIT factor structures remained invariant across both cultures. Regarding discriminant validity, in both cultures, self-ratings of emotional intelligence, as assessed by the SREIT and the TEIQue, and performance measure of emotional intelligence, as assessed by the MSCEIT, were not strongly correlated. Furthermore, in both cultures, scores on the MSCEIT, the TEIQue, and the SREIT revealed to be unrelated to cognitive intelligence and communication styles. Finally, low to moderate correlations were observed between the EI measures and the Big Five personality dimensions. Regarding convergent validity of the self-report EI measures, in both cultures the scores on the TEIQue strongly correlated with the scores on the SREIT. With regard to incremental validity, in both cultures, after statistically controlling for the Big Five personality dimensions and cognitive ability, the MSCEIT and the SREIT revealed to be unrelated to satisfaction with life, positive affect, negative affect, and psychological distress. In contrast, the TEIQue factors accounted for a significant amount of variance in outcome variables after controlling for the Big Five personality dimensions and the cognitive intelligence. However, further analyses revealed that the associations were mainly because of the TEIQue’s well-being factor. Finally, in both cultures, females scored higher than males on the MSCEIT but not on the TEIQue and the SREIT. In sum, the results of this study provide evidence for the factorial, discriminant, and convergent validity of these emotional intelligence measures in both cultures. However, results regarding incremental validity of these measures are less promising than anticipated
9

Cripwell, Liam. "Controllable and Document-Level Text Simplification." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0186.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La simplification de texte est une tâche qui consiste à réécrire un texte pour le rendre plus facile à lire et à comprendre pour un public plus large, tout en exprimant toujours le même sens fondamental. Cela présente des avantages potentiels pour certains utilisateurs (par exemple, les locuteurs non natifs, les enfants, les personnes ayant des difficultés de lecture), tout en étant prometteur en tant qu'étape de prétraitement pour les tâches de Traitement Automatique des Langues (TAL) en aval. Les progrès récents dans les modèles génératifs neuronaux ont conduit au développement de systèmes capables de produire des sorties très fluides. Cependant, étant donné la nature de "boîte noire" (black box) de ces systèmes de bout en bout, l'utilisation de corpus d'entraînement pour apprendre implicitement comment effectuer les opérations de réécriture nécessaires. Dans le cas de la simplification, ces ensembles de données comportent des limitation en termes à la fois de quantité et de qualité, la plupart des corpus étant soit très petits, soit construits automatiquement, soit soumis à des licences d'utilisation strictes. En conséquence, de nombreux systèmes ont tendance à être trop conservateurs, n'apportant souvent aucune modification au texte original ou se limitant à la paraphrase de courtes séquences de mots sans modifications structurelles substantielles. En outre, la plupart des travaux existants sur la simplification du texte se limitent aux entrées au niveau de la phrase, les tentatives d'application itérative de ces approches à la simplification au niveau du document ne parviennent en effet souvent pas à préserver de manière cohérente la structure du discours du document. Ceci est problématique, car la plupart des applications réelles de simplification de texte concernent des documents entiers. Dans cette thèse, nous étudions des stratégies pour atténuer la conservativité des systèmes de simplification tout en favorisant une gamme plus diversifiée de types de transformation. Cela implique la création de nouveaux ensembles de données contenant des instances d'opérations sous-représentées et la mise en œuvre de systèmes contrôlables capables d'être adaptés à des transformations spécifiques et à différents niveaux de simplicité. Nous étendons ensuite ces stratégies à la simplification au niveau du document, en proposant des systèmes capables de prendre en compte le contexte du document environnant. Nous développons également des techniques de contrôlabilité permettant de planifier les opérations à effectuer, à l'avance et au niveau de la phrase. Nous montrons que ces techniques permettent à la fois des performances élevées et une évolutivité des modèles de simplification
Text simplification is a task that involves rewriting a text to make it easier to read and understand for a wider audience, while still expressing the same core meaning. This has potential benefits for disadvantaged end-users (e.g. non-native speakers, children, the reading impaired), while also showing promise as a preprocessing step for downstream NLP tasks. Recent advancement in neural generative models have led to the development of systems that are capable of producing highly fluent outputs. However, these end-to-end systems often rely on training corpora to implicitly learn how to perform the necessary rewrite operations. In the case of simplification, these datasets are lacking in both quantity and quality, with most corpora either being very small, automatically constructed, or subject to strict licensing agreements. As a result, many systems tend to be overly conservative, often making no changes to the original text or being limited to the paraphrasing of short word sequences without substantial structural modifications. Furthermore, most existing work on text simplification is limited to sentence-level inputs, with attempts to iteratively apply these approaches to document-level simplification failing to coherently preserve the discourse structure of the document. This is problematic, as most real-world applications of text simplification concern document-level texts. In this thesis, we investigate strategies for mitigating the conservativity of simplification systems while promoting a more diverse range of transformation types. This involves the creation of new datasets containing instances of under-represented operations and the implementation of controllable systems capable of being tailored towards specific transformations and simplicity levels. We later extend these strategies to document-level simplification, proposing systems that are able to consider surrounding document context and use similar controllability techniques to plan which sentence-level operations to perform ahead of time, allowing for both high performance and scalability. Finally, we analyze current evaluation processes and propose new strategies that can be used to better evaluate both controllable and document-level simplification systems
10

El, Mernissi Karim. "Une étude de la génération d'explication dans un système à base de règles." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066332/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le concept de “Business Rule Management System” (BRMS) a été introduit pour faciliter la création, la vérification, le déploiement et l'exécution des politiques commerciales propres à chaque compagnie. Basée sur une approche symbolique, l'idée générale est de permettre aux utilisateurs métier de gérer les changements des règles métier dans le système sans avoir besoin de recourir à des compétences techniques. Il s'agit donc de fournir à ces derniers la possibilité de formuler des politiques commerciales et d'automatiser leur traitement tout en restant proche du langage naturel. De nos jours, avec l'expansion de ce type de systèmes, il faut faire face à des logiques de décision de plus en plus complexes et à de larges volumes de données. Il n'est pas toujours facile d'identifier les causes conduisant à une décision. On constate ainsi un besoin grandissant de justifier et d'optimiser les décisions dans de courts délais qui induit l'intégration à ses systèmes d'une composante d'explication évoluée. Le principal enjeu de ces recherches est de fournir une approche industrialisable de l'explication des processus de décision d'un BRMS et plus largement d'un système à base de règles. Cette approche devra être en mesure d'apporter les informations nécessaires à la compréhension générale de la décision, de faire office de justification auprès d'entités internes et externes ainsi que de permettre l'amélioration des moteurs de règles existants. La réflexion se portera tant sur la génération des explications en elles-mêmes que sur la manière et la forme sous lesquelles elles seront délivrées
The concept of “Business Rule Management System” (BRMS) has been introduced in order to facilitate the design, the management and the execution of company-specific business policies. Based on a symbolic approach, the main idea behind these tools is to enable the business users to manage the business rule changes in the system without requiring programming skills. It is therefore a question of providing them with tools that enable to formulate their business policies in a near natural language form and automate their processing. Nowadays, with the expansion of intelligent systems, we have to cope with more and more complex decision logic and large volumes of data. It is not straightforward to identify the causes leading to a decision. There is a growing need to justify and optimize automated decisions in a short time frame, which motivates the integration of advanced explanatory component into its systems. Thus, the main challenge of this research is to provide an industrializable approach for explaining the decision-making processes of business rules applications and more broadly rule-based systems. This approach should be able to provide the necessary information for enabling a general understanding of the decision, to serve as a justification for internal and external entities as well as to enable the improvement of existing rule engines. To this end, the focus will be on the generation of the explanations in themselves as well as on the manner and the form in which they will be delivered
11

Ferry, Aurélien. "L’accompagnement entrepreneurial : la métamorphose des accompagnateurs en facilitateurs." Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1217/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’humanité est aujourd’hui soumise à des ruptures telles qu’elle n’a jamais connu, des mutations qui requestionnent la relation de l’humain au monde. Chacune de ces ruptures est le socle de nouveaux pans d’activités qui ne préexistaient pas auparavant. Pour inventer ces nouvelles activités, les nouvelles générations d’entrepreneurs et de startuppers s’intègrent dans des réseaux (intelligence collective), collabore avec des applications (intelligence artificielle), utilisent leurs émotions (intelligence émotionnelle) et recherchent des formations pour adultes (intelligence andragogique).Les accompagnateurs deviennent des facilitateurs. Depuis 2014, nous en avons formé, équipé et sensibilisé une centaine, en France et au Maroc. Au total, 12.900 personnes désirant entreprendre ont ainsi pu bénéficier de cette nouvelle forme d’accompagnement par la facilitation. Nous avons ainsi pu créer la carte des capacités de ces nouveaux facilitateurs pour métamorphoser les accompagnateurs actuels
Today, humanity finds itself subject to profound changes that have remained until know unknown, changes that question the relationship between humans and the world. Each change is the foundation of new areas of activity that did not exist before. To invent these new activities, the new generations of entrepreneurs and startuppers integrate into networks (collective intelligence), collaborate with applications (artificial intelligence), use their emotions (emotional intelligence), and look for adult education courses (andragogical intelligence).Coaches gradually turn into facilitators. Since 2014, we have trained, equipped, and sensitized a hundred of them, in five French regions and five Moroccan regions. In total, 12,900 people wishing to become entrepreneurs have benefited from this new form of enabling support. We were able to create a skills map based on these new facilitators to transform current coaches
12

Nguyen, Kim-Anh Laura. "Document Understanding with Deep Learning Techniques." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS077.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le domaine de l'Analyse de Documents (Document Understanding), dédié au traitement automatique des documents, fait face à des défis liés à leurs structures complexes et formats variés. Les documents possèdent rarement une structure strictement séquentielle. Leur présentation visuelle, notamment leur mise en page, contient une information sémantique riche, soulignant la nécessité d'inclure des informations multimodales dans les systèmes d'analyse de documents. Malgré des progrès notables découlant de l'avènement de l'apprentissage profond, le domaine doit relever des défis importants. Cette thèse traite deux défis clés : 1) développer des méthodes efficaces et efficientes pour encoder la nature multimodale des documents, et 2) formuler des stratégies pour le traitement performant et efficace de documents longs, en tenant compte de leur apparence visuelle. Pour répondre à la première question de recherche, nous développons des approches basées uniquement sur les informations de mise en page afin de construire des représentations pertinentes pour les tâches subséquentes. Les modèles pré-entraînés multimodaux existants étant développés sans considération d'efficience et n'exploitant pas pleinement la forte corrélation entre le texte et la mise en page, nous présentons un mécanisme d'attention exclusivement basé sur la mise en page, permettant d'améliorer les performances et de rendre l'attention plus parcimonieuse. De plus, nous proposons une stratégie basée exclusivement sur la mise en page pour résoudre les problèmes d'ordre de lecture. Bien que la mise en page capture l'ordre de lecture des documents, les méthodes de pré-entraînement existantes dédiées à l'analyse de documents s'appuient uniquement sur la Reconnaissance Optique de Caractères (OCR) ou l'analyse de PDF pour établir l'ordre de lecture des documents, introduisant potentiellement des erreurs qui peuvent impacter l'ensemble du processus de traitement du texte. Par conséquent, nous proposons un modèle qui exploite uniquement les informations de mise en page pour déterminer l'ordre de lecture des documents. Dans le cadre du deuxième axe de recherche, nous explorons le potentiel de la mise en page pour améliorer les performances des modèles pour les tâches liées aux documents longs et complexes. Pour pallier le manque de ressources et de méthodes pour la modélisation multimodale de documents longs, nous construisons une collection de jeux de données pour le résumé de documents longs avec prise en compte de leur apparence visuelle, et introduisons de nouveaux modèles pouvant traiter des documents longs en tenant compte de leur mise en page
The field of Document Understanding, which addresses the problem of solving an array of Natural Language Processing tasks for visually-rich documents, faces challenges due to the complex structures and diverse formats of documents. Real-world documents rarely follow a strictly sequential structure. The visual presentation of a document, especially its layout, conveys rich semantic information, highlighting the crucial need for document understanding systems to include multimodal information. Despite notable advancements attributed to the emergence of Deep Learning, the field still grapples with various challenges in real-world applications. This thesis addresses two key challenges: 1) developing efficient and effective methods to encode the multimodal nature of documents, and 2) formulating strategies for efficient and effective processing of long and complex documents, considering their visual appearance. Our strategy to address the first research question involves designing approaches that rely only on layout to build meaningful representations. Multimodal pre-trained models for Document Understanding often neglect efficiency and fail to fully capitalize on the strong correlation between text and layout. We address these issues by introducing an attention mechanism based exclusively on layout information, enabling performance improvement and attention sparsification. Furthermore, we introduce a strategy based solely on layout to address reading order issues. While layout inherently captures the correct reading order of documents, existing pre-training methods for Document Understanding rely solely on OCR or PDF parsing to establish the reading order of documents, potentially introducing inaccuracies that can impact the entire text processing pipeline. Therefore, we discard sequential position information and propose a model that strategically leverages layout information as an alternative means to determine the reading order of documents. In addressing the second research axis, we explore the potential of leveraging layout to enhance the performance of models for tasks related to long and complex documents. The importance of document structure in information processing, particularly in the context of long documents, underscores the need for efficient modeling of layout information. To fill a notable void in resources and approaches for multimodal long document modeling, we introduce a dataset collection for summarization of long documents with consideration for their visual appearance, and present novel baselines that can handle long documents with awareness of their layout
13

Kuchmann-Beauger, Nicolas. "Question Answering System in a Business Intelligence Context." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2013. http://www.theses.fr/2013ECAP0021/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le volume et la complexité des données générées par les systèmes d’information croissent de façon singulière dans les entrepôts de données. Le domaine de l’informatique décisionnelle (aussi appelé BI) a pour objectif d’apporter des méthodes et des outils pour assister les utilisateurs dans leur tâche de recherche d’information. En effet, les sources de données ne sont en général pas centralisées, et il est souvent nécessaire d’interagir avec diverses applications. Accéder à l’information est alors une tâche ardue, alors que les employés d’une entreprise cherchent généralement à réduire leur charge de travail. Pour faire face à ce constat, le domaine « Enterprise Search » s’est développé récemment, et prend en compte les différentes sources de données appartenant aussi bien au réseau privé d’entreprise qu’au domaine public (telles que les pages Internet). Pourtant, les utilisateurs de moteurs de recherche actuels souffrent toujours de du volume trop important d’information à disposition. Nous pensons que de tels systèmes pourraient tirer parti des méthodes du traitement naturel des langues associées à celles des systèmes de questions/réponses. En effet, les interfaces en langue naturelle permettent aux utilisateurs de rechercher de l’information en utilisant leurs propres termes, et d’obtenir des réponses concises et non une liste de documents dans laquelle l’éventuelle bonne réponse doit être identifiée. De cette façon, les utilisateurs n’ont pas besoin d’employer une terminologie figée, ni de formuler des requêtes selon une syntaxe très précise, et peuvent de plus accéder plus rapidement à l’information désirée. Un challenge lors de la construction d’un tel système consiste à interagir avec les différentes applications, et donc avec les langages utilisés par ces applications d’une part, et d’être en mesure de s’adapter facilement à de nouveaux domaines d’application d’autre part. Notre rapport détaille un système de questions/réponses configurable pour des cas d’utilisation d’entreprise, et le décrit dans son intégralité. Dans les systèmes traditionnels de l’informatique décisionnelle, les préférences utilisateurs ne sont généralement pas prises en compte, ni d’ailleurs leurs situations ou leur contexte. Les systèmes état-de-l’art du domaine tels que Soda ou Safe ne génèrent pas de résultats calculés à partir de l’analyse de la situation des utilisateurs. Ce rapport introduit une approche plus personnalisée, qui convient mieux aux utilisateurs finaux. Notre expérimentation principale se traduit par une interface de type search qui affiche les résultats dans un dashboard sous la forme de graphes, de tables de faits ou encore de miniatures de pages Internet. En fonction des requêtes initiales des utilisateurs, des recommandations de requêtes sont aussi affichées en sus, et ce dans le but de réduire le temps de réponse global du système. En ce sens, ces recommandations sont comparables à des prédictions. Notre travail se traduit par les contributions suivantes : tout d’abord, une architecture implémentée via des algorithmes parallélisés et qui prend en compte la diversité des sources de données, à savoir des données structurées ou non structurées dans le cadre d’un framework de questions/réponses qui peut être facilement configuré dans des environnements différents. De plus, une approche de traduction basée sur la résolution de contrainte, qui remplace le traditionnel langage-pivot par un modèle conceptuel et qui conduit à des requêtes multidimensionnelles mieux personnalisées. En outre, en ensemble de patrons linguistiques utilisés pour traduire des questions BI en des requêtes pour bases de données, qui peuvent être facilement adaptés dans le cas de configurations différentes
The amount and complexity of data generated by information systems keep increasing in Warehouses. The domain of Business Intelligence (BI) aims at providing methods and tools to better help users in retrieving those data. Data sources are distributed over distinct locations and are usually accessible through various applications. Looking for new information could be a tedious task, because business users try to reduce their work overload. To tackle this problem, Enterprise Search is a field that has emerged in the last few years, and that takes into consideration the different corporate data sources as well as sources available to the public (e.g. World Wide Web pages). However, corporate retrieval systems nowadays still suffer from information overload. We believe that such systems would benefit from Natural Language (NL) approaches combined with Q&A techniques. Indeed, NL interfaces allow users to search new information in their own terms, and thus obtain precise answers instead of turning to a plethora of documents. In this way, users do not have to employ exact keywords or appropriate syntax, and can have faster access to new information. Major challenges for designing such a system are to interface different applications and their underlying query languages on the one hand, and to support users’ vocabulary and to be easily configured for new application domains on the other hand. This thesis outlines an end-to-end Q&A framework for corporate use-cases that can be configured in different settings. In traditional BI systems, user-preferences are usually not taken into account, nor are their specific contextual situations. State-of-the art systems in this field, Soda and Safe do not compute search results on the basis of users’ situation. This thesis introduces a more personalized approach, which better speaks to end-users’ situations. Our main experimentation, in this case, works as a search interface, which displays search results on a dashboard that usually takes the form of charts, fact tables, and thumbnails of unstructured documents. Depending on users’ initial queries, recommendations for alternatives are also displayed, so as to reduce response time of the overall system. This process is often seen as a kind of prediction model. Our work contributes to the following: first, an architecture, implemented with parallel algorithms, that leverages different data sources, namely structured and unstructured document repositories through an extensible Q&A framework, and this framework can be easily configured for distinct corporate settings; secondly, a constraint-matching-based translation approach, which replaces a pivot language with a conceptual model and leads to more personalized multidimensional queries; thirdly, a set of NL patterns for translating BI questions in structured queries that can be easily configured in specific settings. In addition, we have implemented an iPhone/iPad™ application and an HTML front-end that demonstrate the feasibility of the various approaches developed through a series of evaluation metrics for the core component and scenario of the Q&A framework. To this end, we elaborate on a range of gold-standard queries that can be used as a basis for evaluating retrieval systems in this area, and show that our system behave similarly as the well-known WolframAlpha™ system, depending on the evaluation settings
14

Lehmann, Alberto Joseph. "Causation in artificial intelligence and law a modelling approach /." [S.l. : Amsterdam : s.n.] ; Universiteit van Amsterdam [Host], 2003. http://dare.uva.nl/document/67544.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Mabrouki, Olfa. "Semantic Framework for Managing Privacy Policies in Ambient Intelligence." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112319/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce travail de thèse est de proposer un canevas sémantique intégrant un méta-modèle et des outils de raisonnement permettant à tout concepteur de système ubiquitaire de mettre en oeuvre facilement des mécanismes de gestion des politiques de la vie privée. Le canevas proposé intègre une architecture middleware générique qui offre des composants pour définir, administrer et contrôler l'application des politiques de confidentialité. Notre approche proposée est hybride. Elle est fondée sur l’ingénierie dirigée par les modèles et sur un raisonnement à base d'ontologies et de règles d'inférence opérant selon l'hypothèse du monde clos. Le méta-modèle proposé est caractérisé par un niveau d'abstraction et d'expressivité élevé permettant de définir des politiques de gestion de la vie privée indépendamment du domaine d'application pouvant être adaptées à différents contextes. Il définit, aussi, un cadre conceptuel pour établir des modèles de règles génériques et décidables permettant de prendre des décisions de contrôle cohérentes pour la protection de la vie privée. Ces modèles de règles sont mis en oeuvre grâce au langage de règles SmartRules permettant de mettre en oeuvre un contrôle adaptatif. Ce dernier est basé sur un raisonnement non-monotone et une représentation des instances de concepts selon la supposition du nom unique. Nous avons validé le canevas proposé à travers un scénario typique mettant en oeuvre des services d'assistance ambiante sensibles à la vie privée de personne âgée
This thesis aims at proposing a semantic framework that integrates a meta-model and reasoning tools allowing any ubiquitous system designer to easily implement mechanisms to manage privacy policies. The proposed framework includes a generic middleware architecture that provides components to define, manage and monitor the implementation of privacy policies. Our approach is an hybrid one based on Model-Driven Engineering and a reasoning based on ontologies and inference rules operating on the assumption of the closed world. The proposed meta-model is characterized by a high level of abstraction and expressiveness to define privacy policies management regardless of the domain application and can be adapted to different contexts. It defines, also, a conceptual framework for generic decidable modelling rules to make consistent control decisions on user privacy. These model rules are implemented using the SmartRules language that could implement an adaptive control. The latter is based on a non-monotonic reasoning and representation of instances of concepts according to the unique name assumption. We have validated the proposed semantic framework through a typical scenario that implements support ambient intelligence privacy-aware services for elderly
16

Raddaoui, Badran. "Contributions aux approches logiques de l'argumentation en intelligence artificielle." Thesis, Artois, 2013. http://www.theses.fr/2013ARTO0412/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se situe dans le domaine des modèles de l’argumentation en intelligence artificielle. Ces modèles constituent des outils très populaires pour l’étude de raisonnements en présence d’incohérences dans les bases de connaissances et lors de la négociation entre agents et la prise de décision. Un modèle argumentatif est un processus interactionnel principalement basé sur la construction d’arguments et de contre-arguments, l’étude des relations entre ces différents arguments et la mise en place de critères permettant de déterminer le statut de chaque argument afin de sélectionner les arguments (les plus) acceptables.Dans ce cadre, ce travail a porté sur l’étude d’un système particulier : le système d’argumentation déductif. Un argument est alors entendu comme un couple prémisses-conclusion tel que la conclusion soit une formule qui puisse être déduite des prémisses. Nous y avons traité plusieurs questions. Tout d’abord, partant du constat que le raisonnement par l’absurde est valide en logique propositionnelle classique, nous proposons une méthode de génération d’arguments en faveur d’une proposition donnée. Cette approche s’étend au calcul des undercuts canoniques, arguments identifiés comme représentant tous les contre-arguments. Contrairement aux autres approches proposées dans la littérature, notre technique est complète au sens où elle permet de générer, modulo une possible explosion combinatoire, tous les arguments relatifs à une formule logique quelconque. Ensuite, nous avons proposé un cadre d’argumentation en logique conditionnelle. Les logiques conditionnelles sont souvent considérées comme étant tout particulièrement adaptées à la formalisation de raisonnements de nature hypothétique. Leur connecteur conditionnel est en effet souvent plus proche de l’intuition que l’on peut avoir de l’implication que ne l’est l’implication matérielle de la logique propositionnelle classique. Ceci nous permet de proposer un concept de contrariété conditionnelle qui couvre à la fois les situations de conflits logiques fondés sur l’incohérence et une forme particulière de conflit qui ne se traduit pas naturellement par un conflit basé sur l’incohérence : quand un agent affirme une règle de type Si alors, une seconde règle qui peut en être déduite et qui impose la satisfaction de prémisses supplémentaires peut apparaître conflictuelle. Nous étudions alors sur cette base les principaux éléments d’une théorie de l’argumentation dans une logique conditionnelle. Enfin, le dernier point étudié dans ce travail concerne le raisonnement au sujet de ressources consommables, dans un cadre où les formules logiques sont elles mêmes consommées dans le processus déductif. Nous proposons une logique, simple et proche du langage et des principes de la logique propositionnelle classique, permettant le raisonnement à partir de ressources consommables et de quantité bornée. Nous y revisitons également les principaux éléments d’une théorie logique de l’argumentation
This thesis focus on the field of argumentation models in artificial intelligence. These models form very popular tools to study reasoning under inconsistency in knowledge bases, negotiation between agents, and also in decision making. An argumentative model is an interactional process mainly based on the construction of arguments and counter-arguments, then studying the relations between these arguments, and finally the introduction of some criteria to identifying the status of each argument in order to select the (most) acceptable of them.In this context, this work was dealt with the study of a particular system: the deductive argumentation framework. An argument is then understood as a pair premises-conclusion such that conclusion is a logical formula entailed by premises, a non-ordered collection of logical formulas. We have addressed several issues. First of all, on the basis that reductio ad absurdum is valid in classical propositional logic, we propose a method to compute arguments for a given statement. This approach is extended to generate canonical undercuts, arguments identified as the representative of all counter-arguments. Contrary to the other approaches proposed in the literature, our technique is complete in the sense that all arguments relative to the statement at hand are generated and so are all relevant counter-arguments. Secondly, we proposed a logic based argumentation in conditional logic. Conditional logic is often regarded as an appealing setting for the formalization of hypothetical reasoning. Their conditional connective is often regarded as a very suitable connective to encode many implicative reasoning patterns real-life and attempts to avoid some pitfalls of material implication of propositional logic. This allows us to put in light and encompass a concept of conditional contrariety thats covers both usual inconsistency-based conflict and a specific form of conflict that often occurs in real-life argumentation: i.e., when an agent asserts an If then rule, it can be argued that the satisfaction of additional conditions are required for the conclusion of a rule to hold. Then, in that case we study the main foundational concepts of an argumentation theory in conditional logic. Finally, the last point investigated in this work concerns the reasoning about bounded resources, within a framework in which logical formulas are themselves consumed in the deductive process. First, a simple variant of Boolean logic is introduced, allowing us to reason about consuming resources. Then, the main concepts of logic-based argumentation are revisited in this framework
17

Paudel, Subodh. "Methodology to estimate building energy consumption using artificial intelligence." Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0237/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les normes de construction pour des bâtiments de plus en plus économes en énergie (BBC) nécessitent une attention particulière. Ces normes reposent sur l’amélioration des performances thermiques de l’enveloppe du bâtiment associé à un effet capacitif des murs augmentant la constante de temps du bâtiment. La prévision de la demande en énergie de bâtiments BBC est plutôt complexe. Ce travail aborde cette question par la mise en œuvre d’intelligence artificielle(IA). Deux approches de mise en œuvre ont été proposées : « all data » et « relevant data ». L’approche « all data » utilise la totalité de la base de données. L’approche « relevant data » consiste à extraire de la base de données un jeu de données représentant le mieux possible les prévisions météorologiques en incluant les phénomènes inertiels. Pour cette extraction, quatre modes de sélection ont été étudiés : le degré jour (HDD), une modification du degré jour (mHDD) et des techniques de reconnaissance de chemin : distance de Fréchet (FD) et déformation temporelle dynamique (DTW). Quatre techniques IA sont mises en œuvre : réseau de neurones (ANN), machine à support de vecteurs (SVM), arbre de décision (DT) et technique de forêt aléatoire (RF). Dans un premier temps, six bâtiments ont été numériquement simulés (de consommation entre 86 kWh/m².an à 25 kWh/m².an) : l’approche « relevant data » reposant sur le couple (DTW, SVM) donne les prévisions avec le moins d’erreur. L’approche « relevant data » (DTW, SVM) sur les mesures du bâtiment de l’Ecole des Mines de Nantes reste performante
High-energy efficiency building standards (as Low energy building LEB) to improve building consumption have drawn significant attention. Building standards is basically focused on improving thermal performance of envelope and high heat capacity thus creating a higher thermal inertia. However, LEB concept introduces alarge time constant as well as large heat capacity resulting in a slower rate of heat transfer between interior of building and outdoor environment. Therefore, it is challenging to estimate and predict thermal energy demand for such LEBs. This work focuses on artificial intelligence (AI) models to predict energy consumptionof LEBs. We consider two kinds of AI modeling approaches: “all data” and “relevant data”. The “all data” uses all available data and “relevant data” uses a small representative day dataset and addresses the complexity of building non-linear dynamics by introducing past day climatic impacts behavior. This extraction is based on either simple physical understanding: Heating Degree Day (HDD), modified HDD or pattern recognition methods: Frechet Distance and Dynamic Time Warping (DTW). Four AI techniques have been considered: Artificial Neural Network (ANN), Support Vector Machine (SVM), Boosted Ensemble Decision Tree (BEDT) and Random forest (RF). In a first part, numerical simulations for six buildings (heat demand in the range [25 – 85 kWh/m².yr]) have been performed. The approach “relevant data” with (DTW, SVM) shows the best results. Real data of the building “Ecole des Mines de Nantes” proves the approach is still relevant
18

Jiao, Yang. "Applications of artificial intelligence in e-commerce and finance." Thesis, Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0002/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'Intelligence Artificielle est présente dans tous les aspects de notre vie à l'ère du Big Data. Elle a entraîné des changements révolutionnaires dans divers secteurs, dont le commerce électronique et la finance. Dans cette thèse, nous présentons quatre applications de l'IA qui améliorent les biens et services existants, permettent l'automatisation et augmentent considérablement l'efficacité de nombreuses tâches dans les deux domaines. Tout d'abord, nous améliorons le service de recherche de produits offert par la plupart des sites de commerce électronique en utilisant un nouveau système de pondération des termes pour mieux évaluer l'importance des termes dans une requête de recherche. Ensuite, nous construisons un modèle prédictif sur les ventes quotidiennes en utilisant une approche de prévision des séries temporelles et tirons parti des résultats prévus pour classer les résultats de recherche de produits afin de maximiser les revenus d'une entreprise. Ensuite, nous proposons la difficulté de la classification des produits en ligne et analysons les solutions gagnantes, consistant en des algorithmes de classification à la pointe de la technologie, sur notre ensemble de données réelles. Enfin, nous combinons les compétences acquises précédemment à partir de la prédiction et de la classification des ventes basées sur les séries temporelles pour prédire l'une des séries temporelles les plus difficiles mais aussi les plus attrayantes : le stock. Nous effectuons une étude approfondie sur chaque titre de l'indice S&P 500 en utilisant quatre algorithmes de classification à la pointe de la technologie et nous publions des résultats très prometteurs
Artificial Intelligence has penetrated into every aspect of our lives in this era of Big Data. It has brought revolutionary changes upon various sectors including e-commerce and finance. In this thesis, we present four applications of AI which improve existing goods and services, enables automation and greatly increase the efficiency of many tasks in both domains. Firstly, we improve the product search service offered by most e-commerce sites by using a novel term weighting scheme to better assess term importance within a search query. Then we build a predictive model on daily sales using a time series forecasting approach and leverage the predicted results to rank product search results in order to maximize the revenue of a company. Next, we present the product categorization challenge we hold online and analyze the winning solutions, consisting of the state-of-the-art classification algorithms, on our real dataset. Finally, we combine skills acquired previously from time series based sales prediction and classification to predict one of the most difficult but also the most attractive time series: stock. We perform an extensive study on every single stocks of S&P 500 index using four state-of-the-art classification algorithms and report very promising results
19

Boutet, Charles-Victor. "Le cycle de l’information en intelligence économique, à la lumière du web 2.0." Thesis, Toulon, 2011. http://www.theses.fr/2011TOUL0010/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le cycle de l‟information, de la collecte à la dissémination, est central en intelligence économique. D‟autre part, depuis quelques années, le web 2.0, le web inscriptible a modifié la face d‟internet. Nos travaux ont pour sujet l‟étude de l‟impact que ce fameux web 2.0 a sur le cycle en question et nous proposons des méthodes et outils afin de tirer parti de ce nouveau paradigme, et ce, pour chaque étape du cycle
The information cycle, from collection to dissemination is a cornerstone in competitive intelligence. On the other hand, in recent years, web 2.0, writable web, changed the face of the Internet. Our work is to study about the impact that web 2.0 has on the famous cycle and propose methods and tools to take advantage of this new paradigm, and this for each stage of the cycle
20

Kerinska, Nikoleta. "Art et intelligence artificielle : dans le contexte d'une expérimentation artistique." Thesis, Paris 1, 2014. http://www.theses.fr/2014PA010541/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a ses origines dans notre pratique artistique et se caractérise par la curiosité inlassable envers le rapport entre l'art et la technologie numérique. Son idée fondamentale est d'examiner les possibilités offertes par l'intelligence artificielle dans le contexte de l'art. L'hypothèse de cette recherche est que les œuvres d'art dotées d'intelligence artificielle présentent une problématique commune et identifiable dans le panorama général des œuvres numériques. Notre but est de comprendre comment la notion d'intelligence est mise en œuvre dans certains projets d'art, et de quelle manière les techniques d'intelligence artificielle enrichissent du point de vue conceptuel et formel les productions artistiques actuelles. Nous proposons d'abord une étude sur l'art assisté pal l'ordinateur, ses principales définitions et tendances actuelles. Puis, nous développons une définition de l'œuvre d'art dotée d'intelligence artificielle. Ensuite, nous présentons nos projets artistiques et leurs problématiques respectives.Dans le cadre de cette thèse. nous avons développé deux projets qui investissent une réflexion artistique sur le langage naturel comme interface de la communication homme-machine, aussi bien que sur les notions d'automate et d'agent intelligent considérés dans le contexte de l'art numérique
This thesis finds its origins in the way we are making art, and it is marked by our unflagging interest in the relationship between art and digital technology. Its primary idea consists in examining the possibilities offered by artificial intelligence in the context of art. The hypothesis of this study suggests that artworks endowed with artificial intelligence present a type of problematic that is common and identifiable in the general landscape of computer works of art. Our aim is to understand how the notion of intelligence is evoked by the behavior of certain artworks, and in what way current art productions are enriched from a conceptual and formal point of view, by techniques of artificial intelligence. At first we propose a study about the computer art main definitions and current trends. Next, we develop a definition of artworks endowed with artificial intelligence. Then, we present our artistic projects and their respective problematic. As part of this dissertation we have developed two projects that engage in an artistic reflection on natural language as a interface of the communication between man and machine, as well as on the notion of automaton and intelligent agents in the context of computer art
21

Ben, Slymen Syrine. "Sentiment d'appartenance et intelligence territoriale : une application au contexte tunisien." Thesis, Nice, 2014. http://www.theses.fr/2014NICE2038/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre recherche a été établie dans le cadre du programme de recherche interdisciplinaire Langages, objets, territoires et hospitalités. Notre objectif est d’apprécier les procédés informationnels, communicationnels et de management pour la valorisation des régions de Nabeul et de Médenine sous l’égide du CGDR et de l’ODS, et d’estimer et d’évaluer la nature du lien entre le sentiment d’appartenance et la valorisation territoriale par le biais de ces dispositifs d’intelligence collective. L’ancrage de notre recherche dans les champs interdisciplinaires des sciences de gestion et des sciences de l’information et de la communication nous a permis d’appréhender notre objet de recherche dans une logique d’instrumentalisation de pratiques et de dispositifs de management du territoire et dans une logique de communication, de transmission de l’information, de capitalisation et de diffusion des connaissances. Toutes ces pratiques étant sélectionnées à travers le ressenti envers le territoire en termes d’identité, d’attachement et de solidarité.In fine cette thèse révèle les liens de causalité entre le sentiment d’appartenance et les dimensions de l’IET et certaines dimensions du KMT et de l’ITP. Nos propositions invitent au diagnostic, l’évaluation et la compréhension du pourquoi de l’abandon de certaines pratiques d’intelligence territoriale, l’adoption de nouvelles formes de communication publique et territoriale pour le renforcement du sentiment d’appartenance et pour assurer un meilleur partage et diffusion de l’information
Our research has been established as part of the interdisciplinary research program languages, objects, territories and hospitality. Our goal is to understand the informational, communicational and management processes for the development of areas of Nabeul and Medenine under the CGDR and ODS, and to estimate and evaluate the nature of the relationship between sense of belonging and the Territorial Enhancement through the collective intelligence devices. The anchor of our research in interdisciplinary fields of management, information and communication sciences has enabled us to understand our research object in a logic of exploitation practices and devices management planning and in the spirit of communication, transmission of information, funding and dissemination of knowledge. All these practices are selected through the felt to the area in terms of identity, attachment and solidarity. Ultimately this thesis reveals the causal links between the sense of belonging and the dimensions of the TIE and some dimensions of the TKM and the PTI. Our proposals invite the diagnosis, evaluation and understanding the reason of the abandonment of certain practices of territorial intelligence, the adoption of new forms of territorial public communication and to strengthen the sense of belonging and to ensure better sharing and dissemination of information
22

Maillard, Adrien. "Flexible Scheduling for Agile Earth Observing Satellites." Thesis, Toulouse, ISAE, 2015. http://www.theses.fr/2015ESAE0024/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les satellites d’observation de la Terre sont des senseurs qui acquièrent des données, les compressent et les mémorisent à bord, puis les vident vers le sol. Des incertitudes rendent la planification des activités au sol de plus en plus discutable car la planification est alors pessimiste et les plans largement sous-optimaux. Cette thèse détaille la conception d'une planification mixte qui permet de profiter de la réalisation des paramètres incertains à bord tout en préservant la prévisibilité de l'exécution pour les opérateurs au sol. Notre première contribution concerne le problème de planification des vidages. Un mécanisme de planification flexible a été conçu dans lequel seules les acquisitions de haute priorité sont planifiées de manière pessimiste. A bord, un algorithme adapte le plan en fonction des volumes réels, en s'assurant que le vidage des acquisitions de haute priorité est toujours garanti, et insère des nouveaux vidages si possible. Notre deuxième contribution concerne le problème de planification des acquisitions. Au sol, des contraintes contribuent à éliminer du plan de nombreuses acquisitions qui auraient pu être réalisées car les niveaux de ressources à bord sont souvent plus hauts que ceux prévus par ces contraintes. Dans un nouveau mécanisme de décision, le sol produit des plans conditionnels dans lesquels la réalisation des acquisitions de basse priorité est conditionnée par des niveaux d'énergie requis. Comparées à d'autres mécanismes de planification, ces deux approches flexibles permettent d'éviter le gaspillage des ressources et de réaliser plus d'acquisitions et de vidages tout en conservant de la prévisibilité
Earth-observation satellites are space sensors which acquire data, compress and record it on board, and then download it to the ground. Some uncertainties make planning and scheduling satellite activities offline on the ground more and more arguable as worst-case assumptions are made about uncertain parameters and plans are suboptimal. This dissertation details our efforts at designing a flexible decision-making scheme that allows to profit from the realization of uncertain parameters on board while keeping a fair level of predictability on the ground. Our first contribution concerns the data download problem. A flexible decision-making mechanism has been designed where only high-priority acquisition downloads are scheduled with worst-case assumptions. Other acquisition downloads are scheduled with expected parameters and conditioned by resource availability. The plan is then adapted on board. Our second contribution concerns the acquisition planning problem. A lot of acquisitions that could have been done are eliminated when planning because of worst-case assumptions. In a new decision-making scheme, these high-level constraints are removed for low-priority acquisitions. Observation plans produced on the ground are conditional plans involving conditions for triggering low-priority acquisitions. Compared with pure ground and pure onboard methods, these two approaches avoid wastage of resource and allow more acquisitions to be executed and downloaded to the ground while keeping a fair level of predictability on the ground
23

Majd, Thomas. "Contribution à l’analyse des facteurs explicatifs de la performance des commerciaux en matière de veille marketing : esquisse d'un cadre conceptuel." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD075/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Face à la concurrence de plus en acharnée, aux clients de mieux en mieux informés et aux produits qui se banalisent de jour en jour, il est de plus en plus difficile pour les entreprises de vendre leurs produits et services et de conserver leurs avantages concurrentiels durablement. D’où la nécessité pour elles de disposer d’une bonne perception des évolutions, des mouvements et des pratiques des principaux acteurs de leur environnement. Des outils tels l’intelligence économique et la veille marketing permettent de relever les défis susmentionnés. Parmi les acteurs susceptibles d’assumer un rôle important dans ce domaine figure la force de vente, interface entre le marché et l’entreprise. Bien que le commercial soit de plus en plus considéré comme un véritable vecteur d’information de terrain, l’étude des facteurs qui déterminent sa performance dans ce domaine est encore peu développée. Dans ce contexte, l’objet de cette thèse est de proposer un modèle analysant les principaux facteurs susceptibles d’influencer la performance des commerciaux en matière de veille marketing. L’hypothèse à la base de ce modèle s’appuie sur l’existence de deux grandes catégories de facteurs susceptibles de favoriser la performance des commerciaux en matière de transmission régulière des informations de terrain (veille marketing) : d’une part, des facteurs spécifiques aux commerciaux et, d’autre part, des facteurs liés au management de la force de vente
In the context of ever stiffer competition, ever better informed customers, and products becoming ever more undistinguishable, it is increasingly difficult for companies to sell their products and services and maintain a sustainable competitive advantage. Hence the need for them to have access to a proper perception of the evolutions, movements and practices of the main actors in their environment. Tools such as economic intelligence and market intelligence make it possible to respond to the aforementioned challenges. Among the actors likely to take on an important role in this field is the sales force, as an interface between the market and the company. Although salespeople are increasingly considered as veritable vectors of information in the field, the study of the factors that determine their performance in that sense has received little attention until now. In this context, the objective of this thesis is to propose a model analyzing the main factors likely to influence the performance of sales people in terms of market intelligence. The basic hypothesis of this model relies on the existence of two main categories of factors likely to favor the performance of sales people in terms of passing on field information on a regular basis (market intelligence): first, factors which are specific to salespeople, and second, factors linked to the management of the sales force
24

Belkhir, Nacim. "Per Instance Algorithm Configuration for Continuous Black Box Optimization." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS455/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la configurationAutomatisée des algorithmes qui vise à trouver le meilleur paramétrage à un problème donné ou une catégorie deproblèmes.Le problème de configuration de l'algorithme revient doncà un problème de métaFoptimisation dans l'espace desparamètres, dont le métaFobjectif est la mesure deperformance de l’algorithme donné avec une configuration de paramètres donnée.Des approches plus récentes reposent sur une description des problèmes et ont pour but d’apprendre la relationentre l’espace des caractéristiques des problèmes etl’espace des configurations de l’algorithme à paramétrer.Cette thèse de doctorat porter le CAPI (Configurationd'Algorithme Par Instance) pour résoudre des problèmesd'optimisation de boîte noire continus, où seul un budgetlimité d'évaluations de fonctions est disponible. Nous étudions d'abord' les algorithmes évolutionnairesPour l'optimisation continue, en mettant l'accent sur deux algorithmes que nous avons utilisés comme algorithmecible pour CAPI,DE et CMAFES.Ensuite, nous passons en revue l'état de l'art desapproches de configuration d'algorithme, et lesdifférentes fonctionnalités qui ont été proposées dansla littérature pour décrire les problèmesd'optimisation de boîte noire continue.Nous introduisons ensuite une méthodologie générale Pour étudier empiriquement le CAPI pour le domainecontinu, de sorte que toutes les composantes du CAPIpuissent être explorées dans des conditions réelles.À cette fin, nous introduisons également un nouveau Banc d'essai de boîte noire continue, distinct ducélèbre benchmark BBOB, qui est composé deplusieurs fonctions de test multidimensionnelles avec'différentes propriétés problématiques, issues de lalittérature.La méthodologie proposée est finalement appliquée 'àdeux AES. La méthodologie est ainsi, validéempiriquement sur le nouveau banc d’essaid’optimisation boîte noire pour des dimensions allant jusqu’à 100
This PhD thesis focuses on the automated algorithm configuration that aims at finding the best parameter setting for a given problem or a' class of problem. The Algorithm Configuration problem thus amounts to a metal Foptimization problem in the space of parameters, whosemetaFobjective is the performance measure of the given algorithm at hand with a given parameter configuration. However, in the continuous domain, such method can only be empirically assessed at the cost of running the algorithm on some problem instances. More recent approaches rely on a description of problems in some features space, and try to learn a mapping from this feature space onto the space of parameter configurations of the algorithm at hand. Along these lines, this PhD thesis focuses on the Per Instance Algorithm Configuration (PIAC) for solving continuous black boxoptimization problems, where only a limited budget confessionnalisations available. We first survey Evolutionary Algorithms for continuous optimization, with a focus on two algorithms that we have used as target algorithm for PIAC, DE and CMAFES. Next, we review the state of the art of Algorithm Configuration approaches, and the different features that have been proposed in the literature to describe continuous black box optimization problems. We then introduce a general methodology to empirically study PIAC for the continuous domain, so that all the components of PIAC can be explored in real Fworld conditions. To this end, we also introduce a new continuous black box test bench, distinct from the famous BBOB'benchmark, that is composed of a several multiFdimensional test functions with different problem properties, gathered from the literature. The methodology is finally applied to two EAS. First we use Differential Evolution as'target algorithm, and explore all the components of PIAC, such that we empirically assess the best. Second, based on the results on DE, we empirically investigate PIAC with Covariance Matrix Adaptation Evolution Strategy (CMAFES) as target algorithm. Both use cases empirically validate the proposed methodology on the new black box testbench for dimensions up to100
25

Matta, Natalie. "Vers une gestion décentralisée des données des réseaux de capteurs dans le contexte des smart grids." Thesis, Troyes, 2014. http://www.theses.fr/2014TROY0010/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s’intéresse à la gestion décentralisée des données récoltées par les réseaux de capteurs dans le contexte des réseaux électriques intelligents (smart grids). Nous proposons une architecture décentralisée basée sur les systèmes multi-agents pour la gestion des données et de l’énergie dans un smart grid. En particulier, nos travaux traitent de la gestion des données des réseaux de capteurs dans le réseau de distribution d’un smart grid et ont pour objectif de lever deux verrous essentiels : (1) l'identification et la détection de défaillances et de changements nécessitant une prise de décision et la mise en œuvre des actions correspondantes ; (2) la gestion des grandes quantités de données qui seront récoltées suite à la prolifération des capteurs et des compteurs communicants. La gestion de ces informations peut faire appel à plusieurs méthodes, dont l'agrégation des paquets de données sur laquelle nous nous focalisons dans cette thèse. Nous proposons d’agréger (PriBaCC) et/ou de corréler (CoDA) le contenu de ces paquets de données de manière décentralisée. Ainsi, le traitement de ces données s'effectuera plus rapidement, ce qui aboutira à une prise de décision rapide et efficace concernant la gestion de l'énergie. La validation par simulation de nos contributions a montré que celles-ci répondent aux enjeux identifiés, notamment en réduisant le volume des données à gérer et le délai de communication des données prioritaires
This thesis focuses on the decentralized management of data collected by wireless sensor networks which are deployed in a smart grid, i.e. the evolved new generation electricity network. It proposes a decentralized architecture based on multi-agent systems for both data and energy management in the smart grid. In particular, our works deal with data management of sensor networks which are deployed in the distribution electric subsystem of a smart grid. They aim at answering two key challenges: (1) detection and identification of failure and disturbances requiring swift reporting and appropriate reactions; (2) efficient management of the growing volume of data caused by the proliferation of sensors and other sensing entities such as smart meters. The management of this data can call upon several methods, including the aggregation of data packets on which we focus in this thesis. To this end, we propose to aggregate (PriBaCC) and/or to correlate (CoDA) the contents of these data packets in a decentralized manner. Data processing will thus be done faster, consequently leading to rapid and efficient decision-making concerning energy management. The validation of our contributions by means of simulation has shown that they meet the identified challenges. It has also put forward their enhancements with respect to other existing approaches, particularly in terms of reducing data volume as well as transmission delay of high priority data
26

Klaimi, Joelle. "Gestion multi-agents des smart grids intégrant un système de stockage : cas résidentiel." Thesis, Troyes, 2017. http://www.theses.fr/2017TROY0006/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s’intéresse à la gestion décentralisée à l’aide des systèmes multi-agents de l’énergie, notamment de sources renouvelables, dans le contexte des réseaux électriques intelligents (smart grids). Nos travaux de recherche visent à minimiser la facture énergétique des consommateurs en se focalisant sur deux verrous essentiels que nous nous proposons de lever : (1) résoudre le problème de l’intermittence des énergies renouvelables; (2) minimiser les pertes d’énergie. Pour pallier le problème d’intermittence des énergies renouvelables et dans le but de maintenir un coût énergétique peu onéreux même lors des pics d’utilisation, nous avons intégré un système de stockage intelligent. Nous avons, en effet, proposé des algorithmes permettant d’utiliser les systèmes de stockage intelligents et la négociation multi-agents pour réduire la facture énergétique tout en conservant un taux de décharge minimal de la batterie et une perte énergétique minimale. La validation par simulation de nos contributions a montré que celles-ci répondent aux enjeux identifiés, notamment en réduisant le coût de l’énergie pour les consommateurs en comparaison aux travaux de l’état de l’art
This thesis focuses on the decentralized management using multi-agent systems of energy, including renewable energy sources, in the smart grid context. Our research aims to minimize consumers’ energy bills by answering two key challenges: (1) handle the problem of intermittency of renewable energy sources; (2) reduce energy losses. To overcome the problem of renewable resources intermittency and in order to minimize energy costs even during peak hours, we integrated an intelligent storage system. To this end, we propose many algorithms in order to use intelligent storage systems and multi-agent negotiation algorithm to reduce energy cost while maintaining a minimal discharge rate of the battery and minimal energy loss. The validation of our contributions has shown that our proposals respond to the identified challenges, including reducing the cost of energy for consumers, in comparison to the state of the art
27

Ramoly, Nathan. "Contextual integration of heterogeneous data in an open and opportunistic smart environment : application to humanoid robots." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL003/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'association de robots personnels et d’intelligences ambiantes est une nouvelle voie pour l’aide à domicile. Grâce aux appareils intelligents de l'environnement, les robots pourraient fournir un service de haute qualité. Cependant, des verrous existent pour la perception, la cognition et l’action.En effet, une telle association cause des problèmes de variétés, qualités et conflits, engendrant des données hétérogènes et incertaines. Cela complique la perception du contexte et la cognition, i.e. le raisonnement et la prise de décision. La connaissance du contexte est utilisée par le robot pour effectuer des actions. Cependant, il se peut qu’il échoue, à cause de changements de contexte ou par manque de connaissance. Ce qui annule ou retarde son plan. La littérature aborde ces sujets, mais n’offre aucune solution viable et complète. Face à ces verrous, nous avons proposé des contributions, autour à la fois du raisonnement et de l’apprentissage. Nous avons d’abord conçu un outil d'acquisition de contexte qui gère et modélise l’incertitude. Puis, nous avons proposé une technique de détection de situations anormales à partir de données incertaines. Ensuite, un planificateur dynamique, qui considère les changements de contexte, a été proposé. Enfin, nous avons développé une méthode d'apprentissage par renforcement et expérience pour éviter proactivement les échecs.Toutes nos contributions ont été implémentées et validées via simulation ou à l’aide d’un robot dans une plateforme d’espaces intelligents
Personal robots associated with ambient intelligence are an upcoming solution for domestic care. In fact, helped with devices dispatched in the environment, robots could provide a better care to users. However, such robots are encountering challenges of perception, cognition and action.In fact, such an association brings issues of variety, data quality and conflicts, leading to the heterogeneity and uncertainty of data. These are challenges for both perception, i.e. context acquisition, and cognition, i.e. reasoning and decision making. With the knowledge of the context, the robot can intervene through actions. However, it may encounter task failures due to a lack of knowledge or context changes. This causes the robot to cancel or delay its agenda. While the literature addresses those topics, it fails to provide complete solutions. In this thesis, we proposed contributions, exploring both reasoning and learning approaches, to cover the whole spectrum of problems. First, we designed novel context acquisition tool that supports and models uncertainty of data. Secondly, we proposed a cognition technique that detects anomalous situation over uncertain data and takes a decision in accordance. Then, we proposed a dynamic planner that takes into consideration the last context changes. Finally, we designed an experience-based reinforcement learning approach to proactively avoid failures.All our contributions were implemented and validated through simulations and/or with a small robot in a smart home platform
28

Mazac, Sébastien. "Approche décentralisée de l'apprentissage constructiviste et modélisation multi-agent du problème d'amorçage de l'apprentissage sensorimoteur en environnement continu : application à l'intelligence ambiante." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10147/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons donc un modèle original d'apprentissage constructiviste adapté pour un système d'AmI. Ce modèle repose sur une approche décentralisée, permettant de multiples implémentations convenant à un environnement hétérogène. Dans les environnements réels continus sans modélisation à priori, se pose la question de la modélisation des structures élémentaires de représentation et particulièrement le problème d'amorçage de l'apprentissage sensorimoteur (comme décrit par [Kuipers06]). Dans le cadre du modèle général proposé, nous explicitons ce problème particulier et proposons de le traiter comme une forme d'auto-organisation modélisée par un système multi-agent. Cette approche permet de construire des motifs d'interaction élémentaires à partir des seules données brutes, sur lesquels peut reposer la construction d'une représentation plus élaborée (voir [Mazac14]). Nous présentons enfin une série d'expérimentations illustrant la résolution de ce problème d'amorçage : tout d'abord grâce à un environnement simulé, qui permet de maitriser les régularités de l'environnement et autorise des expérimentations rapides ; ensuite en implémentant ce système d'apprentissage au sein d'un environnement d'AmI réel. Pour cela le modèle est intégré dans le système d'AmI développé par l'entreprise partenaire de cette thèse CIFRE. Puis nous présentons une possible application industrielle des résultats de cette première étape implémentée d'amorçage de l'apprentissage sensorimoteur. Nous concluons par l'analyse des résultats et des perspectives de ce type d'approche pour l'AmI et l'application en général de l'IA aux systèmes réels en environnements continus
The theory of cognitive development from Jean Piaget (1923) is a constructivist perspective of learning that has substantially influenced cognitive science domain. Within AI, lots of works have tried to take inspiration from this paradigm since the beginning of the discipline. Indeed it seems that constructivism is a possible trail in order to overcome the limitations of classical techniques stemming from cognitivism or connectionism and create autonomous agents, fitted with strong adaptation ability within their environment, modelled on biological organisms. Potential applications concern intelligent agents in interaction with a complex environment, with objectives that cannot be predefined. Like robotics, Ambient Intelligence (AmI) is a rich and ambitious paradigm that represents a high complexity challenge for AI. In particular, as a part of constructivist theory, the agent has to build a representation of the world that relies on the learning of sensori-motor patterns starting from its own experience only. This step is difficult to set up for systems in continuous environments, using raw data from sensors without a priori modelling.With the use of multi-agent systems, we investigate the development of new techniques in order to adapt constructivist approach of learning on actual cases. Therefore, we use ambient intelligence as a reference domain for the application of our approach
29

Tohalino, Jorge Andoni Valverde. "Extractive document summarization using complex networks." Universidade de São Paulo, 2018. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-24102018-155954/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Due to a large amount of textual information available on the Internet, the task of automatic document summarization has gained significant importance. Document summarization became important because its focus is the development of techniques aimed at finding relevant and concise content in large volumes of information without changing its original meaning. The purpose of this Masters work is to use network theory concepts for extractive document summarization for both Single Document Summarization (SDS) and Multi-Document Summarization (MDS). In this work, the documents are modeled as networks, where sentences are represented as nodes with the aim of extracting the most relevant sentences through the use of ranking algorithms. The edges between nodes are established in different ways. The first approach for edge calculation is based on the number of common nouns between two sentences (network nodes). Another approach to creating an edge is through the similarity between two sentences. In order to calculate the similarity of such sentences, we used the vector space model based on Tf-Idf weighting and word embeddings for the vector representation of the sentences. Also, we make a distinction between edges linking sentences from different documents (inter-layer) and those connecting sentences from the same document (intra-layer) by using multilayer network models for the Multi-Document Summarization task. In this approach, each network layer represents a document of the document set that will be summarized. In addition to the measurements typically used in complex networks such as node degree, clustering coefficient, shortest paths, etc., the network characterization also is guided by dynamical measurements of complex networks, including symmetry, accessibility and absorption time. The generated summaries were evaluated by using different corpus for both Portuguese and English language. The ROUGE-1 metric was used for the validation of generated summaries. The results suggest that simpler models like Noun and Tf-Idf based networks achieved a better performance in comparison to those models based on word embeddings. Also, excellent results were achieved by using the multilayered representation of documents for MDS. Finally, we concluded that several measurements could be used to improve the characterization of networks for the summarization task.
Devido à grande quantidade de informações textuais disponíveis na Internet, a tarefa de sumarização automática de documentos ganhou importância significativa. A sumarização de documentos tornou-se importante porque seu foco é o desenvolvimento de técnicas destinadas a encontrar conteúdo relevante e conciso em grandes volumes de informação sem alterar seu significado original. O objetivo deste trabalho de Mestrado é usar os conceitos da teoria de grafos para o resumo extrativo de documentos para Sumarização mono-documento (SDS) e Sumarização multi-documento (MDS). Neste trabalho, os documentos são modelados como redes, onde as sentenças são representadas como nós com o objetivo de extrair as sentenças mais relevantes através do uso de algoritmos de ranqueamento. As arestas entre nós são estabelecidas de maneiras diferentes. A primeira abordagem para o cálculo de arestas é baseada no número de substantivos comuns entre duas sentenças (nós da rede). Outra abordagem para criar uma aresta é através da similaridade entre duas sentenças. Para calcular a similaridade de tais sentenças, foi usado o modelo de espaço vetorial baseado na ponderação Tf-Idf e word embeddings para a representação vetorial das sentenças. Além disso, fazemos uma distinção entre as arestas que vinculam sentenças de diferentes documentos (inter-camada) e aquelas que conectam sentenças do mesmo documento (intra-camada) usando modelos de redes multicamada para a tarefa de Sumarização multi-documento. Nesta abordagem, cada camada da rede representa um documento do conjunto de documentos que será resumido. Além das medições tipicamente usadas em redes complexas como grau dos nós, coeficiente de agrupamento, caminhos mais curtos, etc., a caracterização da rede também é guiada por medições dinâmicas de redes complexas, incluindo simetria, acessibilidade e tempo de absorção. Os resumos gerados foram avaliados usando diferentes corpus para Português e Inglês. A métrica ROUGE-1 foi usada para a validação dos resumos gerados. Os resultados sugerem que os modelos mais simples, como redes baseadas em Noun e Tf-Idf, obtiveram um melhor desempenho em comparação com os modelos baseados em word embeddings. Além disso, excelentes resultados foram obtidos usando a representação de redes multicamada de documentos para MDS. Finalmente, concluímos que várias medidas podem ser usadas para melhorar a caracterização de redes para a tarefa de sumarização.
30

Toussaint, Ben-Manson. "Apprentissage automatique à partir de traces multi-sources hétérogènes pour la modélisation de connaissances perceptivo-gestuelles." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM063/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les connaissances perceptivo-gestuelles sont difficiles à saisir dans les Systèmes Tutoriels Intelligents. Ces connaissances sont multimodales : elles combinent des connaissances théoriques, ainsi que des connaissances perceptuelles et gestuelles. Leur enregistrement dans les Systèmes Tutoriels Intelligents implique l'utilisation de plusieurs périphériques ou capteurs couvrant les différentes modalités des interactions qui les sous-tendent. Les « traces » de ces interactions –aussi désignées sous le terme "traces d'activité"- constituent la matière première pour la production de services tutoriels couvrant leurs différentes facettes. Les analyses de l'apprentissage ou les services tutoriels privilégiant une facette de ces connaissances au détriment des autres, sont incomplets. Cependant, en raison de la diversité des périphériques, les traces d'activité enregistrées sont hétérogènes et, de ce fait, difficiles à modéliser et à traiter. Mon projet doctoral adresse la problématique de la production de services tutoriels adaptés à ce type de connaissances. Je m'y intéresse tout particulièrement dans le cadre des domaines dits mal-définis. Le cas d'étude de mes recherches est le Système Tutoriel Intelligent TELEOS, un simulateur dédié à la chirurgie orthopédique percutanée. Les propositions formulées se regroupent sous trois volets : (1) la formalisation des séquences d'interactions perceptivo-gestuelles ; (2) l'implémentation d'outils capables de réifier le modèle conceptuel de leur représentation ; (3) la conception et l'implémentation d'outils algorithmiques favorisant l'analyse de ces séquences d'un point de vue didactique
Perceptual-gestural knowledge is multimodal : they combine theoretical and perceptual and gestural knowledge. It is difficult to capture in Intelligent Tutoring Systems. In fact, its capture in such systems involves the use of multiple devices or sensors covering all the modalities of underlying interactions. The "traces" of these interactions -also referred to as "activity traces"- are the raw material for the production of key tutoring services that consider their multimodal nature. Methods for "learning analytics" and production of "tutoring services" that favor one or another facet over others, are incomplete. However, the use of diverse devices generates heterogeneous activity traces. Those latter are hard to model and treat.My doctoral project addresses the challenge related to the production of tutoring services that are congruent to this type of knowledge. I am specifically interested to this type of knowledge in the context of "ill-defined domains". My research case study is the Intelligent Tutoring System TELEOS, a simulation platform dedicated to percutaneous orthopedic surgery.The contributions of this thesis are threefold : (1) the formalization of perceptual-gestural interactions sequences; (2) the implementation of tools capable of reifying the proposed conceptual model; (3) the conception and implementation of algorithmic tools fostering the analysis of these sequences from a didactic point of view
31

Kinauer, Stefan. "Représentations à base de parties pour la vision 3D de haut niveau." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC059/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous utilisons des modèles de parties déformables (Deformable Part Models – DPMs) pour apprendre à détecter des parties d’objets. Pour une image d’un objet, l’objectif est de déterminer l’emplacement des parties de cet objet dans l’image. Le problème d’optimisation qui en résulte est non-convexe et difficile en raison de son grand espace de recherche.Notre première contribution consiste à étendre les DPMs à la troisième dimension, grâce à un algorithme par séparation et évaluation (Branchand- Bound). Nous élaborons un algorithme personnalisé qui est deux fois plus rapide qu’une approche naïve et garantit l’optimalité globale. Nous dérivons pour le modèle 3-dimensionnel une structure 3-dimensionnel. Cependant, nous entrainons un algorithme prenant en compte chaque sous point de vue de l’apparence. Nous démontrons notre approche sur la tache de l’estimation 3-dimensionnel de la posture, en déterminant la posture de l’objet dans une fraction de second.Notre deuxième contribution nous permet d’effectuer une inférence efficace sur des modèles où les connexions des parties forment un graphe avec des boucles, étendant ainsi des modèles plus riches. Pour cela, nous utilisons l’algorithme des directions alternées (Alternating Direction Method of Multipliers – ADMM) pour découpler le problème et résoudre itérativement un ensemble de sous-problèmes plus faciles. Nous calculons les paramètres du modèle via un Réseaux Neuronal Convolutif pour la détermination de la posture 3-dimensionnel. L’inférence développée est utilisée comme dernière couche du réseau neural. Cela permet d’obtenir une performance à l’état de l’art pour la tâche d’estimation de pose humaine en 3D
In this work we use Deformable Part Models (DPMs) to learn and detect object parts in 3 dimensions. Given a single RGB image of an object, the objective is to determine the location of the object’s parts. The resulting optimization problem is non-convex and challenging due to its large solution space.Our first contribution consists in extending DPMs into the third dimension through an efficient Branch-and-Bound algorithm. We devise a customized algorithm that is two orders of magnitude faster than a naive approach and guarantees global-optimality. We derive the model’s 3-dimensional geometry from one 3-dimensional structure, but train viewpoint-specific part appearance terms based on deep learning features. We demonstrate our approach on the task of 3D object pose estimation, determining the object pose within a fraction of a second.Our second contribution allows us to perform efficient inference with part-based models where the part connections form a graph with loops, thereby allowing for richer models. For this, we use the Alternating Direction Method of Multipliers (ADMM) to decouple the problem and solve iteratively a set of easier sub-problems. We compute 3-dimensional model parameters in a Convolutional Neural Network for 3D human pose estimation. Then we append the developed inference algorithm as final layer to this neural network. This yields state of the art performance in the 3D human pose estimation task
32

Harriet, Loïc. "L'intelligence économique à la lumière des concepts managériaux : l'étude de cas d'une entreprise du secteur énergétique." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0193/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’intelligence économique se présente comme une exception conceptuelle francophone issue à la fois de traductions de différents termes anglo-saxons mais également d’une agrégation de fonctions organisationnelles liées à l’information. Ces fondements hétéroclites se conjuguent à une effervescence pratique, l’intelligence économique ne cessant de se développer sous diverses formes dans les organisations. Cette thèse vise à proposer un fondement théorique nouveau à ces expériences en s’appuyant sur les concepts managériaux au travers de l’étude du cas de Gaz de Bordeaux, une entreprise du secteur énergétique. S’inscrivant dans une volonté exploratoire fondée sur une méthodologie qualitative, l’objectif est de proposer une définition s’appuyant sur les théories gestionnaires de l’asymétrie d’information, du système et de la valeur
"L'intelligence économique" is presented as a French conceptual exception after at a time of translations various English terms but also an aggregation of organizational functions related to information. These heteroclite bases are combined to an effervescent practice, “l’intelligence économique” never ceasing to develop in various forms in organizations. This thesis aims to propose a new theoretical basis for these experiments based on the managerial concepts through a case study of Gaz de Bordeaux, an energy firm. As part of an exploratory will based on a qualitative, the objective is to propose a definition based on the Management Science theories of asymmetric information, system and value
33

Jayles, Bertrand. "Effects of information quantity and quality on collective decisions in human groups." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30367/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous sommes intéressés à l'impact de la quantité et de la qualité de l'information échangée entre individus d'un groupe sur leurs performances collectives dans deux types de tâches bien spécifiques. Dans une première série d'expériences, les sujets devaient estimer des quantités séquentiellement, et pouvaient réviser leurs estimations après avoir reçu comme information sociale l'estimation moyenne d'autres sujets. Nous contrôlions cette information sociale à l'aide de participants virtuels (dont nous contrôlions le nombre) donnant une information (dont nous contrôlions la valeur), à l'insu des sujets. Nous avons montré que lorsque les sujets ont peu de connaissance préalable sur une quantité à estimer, (les logarithmes de) leurs estimations suivent une distribution de Laplace. La médiane étant un bon estimateur du centre d'une distribution de Laplace, nous avons défini la performance collective comme la proximité de la médiane (du logarithme) des estimations à la vraie valeur. Nous avons trouvé qu'après influence sociale, et lorsque les agents virtuels fournissent une information correcte, la performance collective augmente avec la quantité d'information fournie (fraction d'agents virtuels). Nous avons aussi analysé la sensibilité à l'influence sociale des sujets, et trouvé que celle-ci augmente avec la distance entre l'estimation personnelle et l'information sociale. Ces analyses ont permis de définir 5 traits de comportement : garder son opinion, adopter celle des autres, faire un compromis, amplifier l'information sociale ou au contraire la contredire. Nos résultats montrent que les sujets qui adoptent l'opinion des autres sont ceux qui améliorent le mieux leur performance, car ils sont capables de bénéficier de l'information apportée par les agents virtuels. Nous avons ensuite utilisé ces analyses pour construire et calibrer un modèle d'estimation collective, qui reproduit quantitativement les résultats expérimentaux et prédit qu'une quantité limitée d'information incorrecte peut contrebalancer un biais cognitif des sujets consistant à sous-estimer les quantités, et ainsi améliorer la performance collective. D'autres expériences ont permis de valider cette prédiction. Dans une seconde série d'expériences, des groupes de 22 piétons devaient se séparer en clusters de la même "couleur", sans indice visuel (les couleurs étaient inconnues), après une courte période de marche aléatoire. Pour les aider à accomplir leur tâche, nous avons utilisé un système de filtrage de l'information disponible (analogue à un dispositif sensoriel tel que la rétine), prenant en entrée l'ensemble des positions et couleurs des individus, et retournant un signal sonore aux sujets (émit par des tags attachés à leurs épaules) lorsque la majorité de leurs k plus proches voisins était de l'autre couleur que la leur. La règle consistait à s'arrêter de marcher lorsque le signal stoppait
In this thesis, we were interested in the impact of the quantity and quality of information ex- changed between individuals in a group on their collective performance in two very specific types of tasks. In a first series of experiments, subjects had to estimate quantities sequentially, and could revise their estimates after receiving the average estimate of other subjects as social information. We controlled this social information through virtual participants (which number we controlled) giving information (which value we controlled), unknowingly to the subjects. We showed that when subjects have little prior knowledge about a quantity to estimate, (the loga- rithms of) their estimates follow a Laplace distribution. Since the median is a good estimator of the center of a Laplace distribution, we defined collective performance as the proximity of the median (log) estimate to the true value. We found that after social influence, and when the information provided by the virtual agents is correct, the collective performance increases with the amount of information provided (fraction of virtual agents). We also analysed subjects' sensitivity to social influence, and found that it increases with the distance between personal estimate and social information. These analyses made it possible to define five behavioral traits: to keep one's opinion, to adopt that of others, to compromise, to amplify social information or to contradict it. Our results showed that the subjects who adopt the opinion of others are the ones who best improve their performance because they are able to benefit from the infor- mation provided by the virtual agents. We then used these analyses to construct and calibrate a model of collective estimation, which quantitatively reproduced the experimental results and predicted that a limited amount of incorrect information can counterbalance a cognitive bias that makes subjects underestimate quantities, and thus improve collective performance. Further experiments have validated this prediction. In a second series of experiments, groups of 22 pedestrians had to segregate into clusters of the same "color", without visual cue (the colors were unknown), after a short period of random walk. To help them accomplish their task, we used an information filtering system (analogous to a sensory device such as the retina), taking all the positions and colors of individuals in input, and returning an acoustic signal to the subjects (emitted by tags attached to their shoulders) when the majority of their k nearest neighbors was of a different color from theirs
34

Pruvost, Gaëtan. "Modélisation et conception d’une plateforme pour l’interaction multimodale distribuée en intelligence ambiante." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112017/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s’inscrit dans le domaine de l’intelligence ambiante et de l’interaction homme-machine. Elle a pour thème la génération d’interfaces homme-machine adaptées au contexte d’interaction dans les environnements ambiants. Les travaux de recherche présentés traitent des problèmes rencontrés lors de la conception d’IHM dans l'ambiant et notamment de la réutilisation de techniques d’interaction multimodales et multi-périphériques. Ce travail se divise en trois phases. La première est une étude des problématiques de l’IHM spécifiques à l’Ambiant et des architectures logicielles adaptées à ce cadre théorique. Cette étude permet d’établir les limites des approches actuelles et de proposer, dans la seconde phase, une nouvelle approche pour la conception d’IHM ambiante appelée DAME. Cette approche repose sur l’association automatique de composants logiciels qui construisent dynamiquement une IHM. Nous proposons deux modèles complémentaires qui permettent de décrire les caractéristiques ergonomiques et architecturales des composants. La conception de ces derniers est guidée par une architecture logicielle composée de plusieurs couches qui permet d’identifier les différents niveaux d’abstraction réutilisables d’un langage d’interaction. Un troisième modèle, appelé modèle comportemental, permet de spécifier des recommandations quant à l’instanciation de ces composants. Nous proposons un algorithme permettant de générer des IHM adaptées au contexte et d’évaluer la qualité de celles-ci par rapport aux recommandations du modèle comportemental. Dans la troisième phase, nous avons implémenté une plateforme réalisant la vision soutenue par DAME. Cette implémentation est confrontée aux utilisateurs finaux dans une expérience de validation qualitative. De ces travaux ressortent des résultats encourageants, ouvrant la discussion sur de nouvelles perspectives de recherche dans le cadre de l’IHM en informatique ambiante
This thesis deals with ambient intelligence and the design of Human-Computer Interaction (HCI). It studies the automatic generation of user interfaces that are adapted to the interaction context in ambient environments. This problem raises design issues that are specific to ambient HCI, particularly in the reuse of multimodal and multidevice interaction techniques. The present work falls into three parts. The first part is an analysis of state-of-the-art software architectures designed to solve those issues. This analysis outlines the limits of current approaches and enables us to propose, in the second part, a new approach for the design of ambient HCI called DAME. This approach relies on the automatic and dynamic association of software components that build a user interface. We propose and define two complementary models that allow the description of ergonomic and architectural properties of the software components. The design of such components is organized in a layered architecture that identifies reusable levels of abstraction of an interaction language. A third model, called behavioural model, allows the specification of recommendations about the runtime instantiation of components. We propose an algorithm that allows the generation of context-adapted user interfaces and the evaluation of their quality according to the recommendations issued from the behavioural model. In the third part, we detail our implementation of a platform that implements the DAME approach. This implementation is used in a qualitative experiment that involves end-users. Encouraging preliminary results have been obtained and open new perspectives on multi-devices and multimodal HCI in ambient computing
35

Yacoubi, Alya. "Vers des agents conversationnels capables de réguler leurs émotions : un modèle informatique des tendances à l’action." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS378/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les agents virtuels conversationnels ayant un comportement social reposent souvent sur au moins deux disciplines différentes : l’informatique et la psychologie. Dans la plupart des cas, les théories psychologiques sont converties en un modèle informatique afin de permettre aux agents d’adopter des comportements crédibles. Nos travaux de thèse se positionnent au croisement de ces deux champs disciplinaires. Notre objectif est de renforcer la crédibilité des agents conversationnels. Nous nous intéressons aux agents conversationnels orientés tâche, qui sont utilisés dans un contexte professionnel pour produire des réponses à partir d’une base de connaissances métier. Nous proposons un modèle affectif pour ces agents qui s’inspire des mécanismes affectifs chez l’humain. L’approche que nous avons choisie de mettre en œuvre dans notre modèle s’appuie sur la théorie des Tendances à l’Action en psychologie. Nous avons proposé un modèle des émotions en utilisant un formalisme inspiré de la logique BDI pour représenter les croyances et les buts de l’agent. Ce modèle a été implémenté dans une architecture d’agent conversationnel développée au sein de l’entreprise DAVI. Afin de confirmer la pertinence de notre approche, nous avons réalisé plusieurs études expérimentales. La première porte sur l’évaluation d’expressions verbales de la tendance à l’action. La deuxième porte sur l’impact des différentes stratégies de régulation possibles sur la perception de l’agent par l’utilisateur. Enfin, la troisième étude porte sur l’évaluation des agents affectifs en interaction avec des participants. Nous montrons que le processus de régulation que nous avons implémenté permet d’augmenter la crédibilité et le professionnalisme perçu des agents, et plus généralement qu’ils améliorent l’interaction. Nos résultats mettent ainsi en avant la nécessité de prendre en considération les deux mécanismes émotionnels complémentaires : la génération et la régulation des réponses émotionnelles. Ils ouvrent des perspectives sur les différentes manières de gérer les émotions et leur impact sur la perception de l’agent
Conversational virtual agents with social behavior are often based on at least two different disciplines : computer science and psychology. In most cases, psychological findings are converted into computational mechanisms in order to make agents look and behave in a believable manner. In this work, we aim at increasing conversational agents’ belivielibity and making human-agent interaction more natural by modelling emotions. More precisely, we are interested in task-oriented conversational agents, which are used as a custumer-relationship channel to respond to users request. We propose an affective model of emotional responses’ generation and control during a task-oriented interaction. Our proposed model is based, on one hand, on the theory of Action Tendencies (AT) in psychology to generate emotional responses during the interaction. On the other hand, the emotional control mechanism is inspired from social emotion regulation in empirical psychology. Both mechanisms use agent’s goals, beliefs and ideals. This model has been implemented in an agent architecture endowed with a natural language processing engine developed by the company DAVI. In order to confirm the relevance of our approach, we realized several experimental studies. The first was about validating verbal expressions of action tendency in a human-agent dialogue. In the second, we studied the impact of different emotional regulation strategies on the agent perception by the user. This study allowed us to design a social regulation algorithm based on theoretical and empirical findings. Finally, the third study focuses on the evaluation of emotional agents in real-time interactions. Our results show that the regulation process contributes in increasing the credibility and perceived competence of agents as well as in improving the interaction. Our results highlight the need to take into consideration of the two complementary emotional mechanisms : the generation and regulation of emotional responses. They open perspectives on different ways of managing emotions and their impact on the perception of the agent
36

Baaziz, Abdelkader. "Synergie du triptyque : Knowledge Management, Intelligence Economique et Business Intelligence. Contribution à la réduction des riques liés aux décisions stratégiques dans les nouveaux environnements concurrentiels incertains : Cas des Entreprises Publiques Algériennes." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM5900/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis 1988, l’Algérie a initié des réformes économiques profondes appuyées par un arsenal législatif et des accords internationaux. L’Etat Algérien a abandonné son rôle de protecteur sans maîtriser son rôle de régulateur. Le passage de l’économie planifiée basée sur le monopole de l’Etat à une économie de marché, est caractérisé par l’émergence du secteur privé et des changements radicaux sur le plan institutionnel en ce qui concerne l’Etat, et sur le plan organisationnel, stratégique et technologique concernant les EPA. Dans ce contexte incertain, ces EPA ne peuvent plus compter uniquement sur leurs capacités internes. Elles doivent s'ouvrir pour créer des partenariats avec leurs fournisseurs, les universités et même leurs concurrents. D’où nécessité de :- Mutation vers de nouvelles formes adaptées aux événements imprévus et résilientes pour faire face aux environnements incertains- Un Systèmes d’Information d’Intelligence Stratégique, capables d’orienter la décision en réduisant les risques dus aux incertitudes inhérents aux choix stratégiques- Rechercher les moyens de rendre réversibles les choix lorsque des événements inattendus surviennent.L'objectif de cette thèse est de montrer la complexité des environnements politique, juridique, social et économique où les EPA opèrent et pourquoi il est nécessaire de gérer les risques liés à cet environnement, à savoir : Inertie durant le processus de transformation organisationnelle, mauvaise compréhension des signaux captés et la mauvaise réaction du décideur face aux signaux et aux événements. Ici interviennent les concepts de KM, d’IE et de BI, à différents niveaux du management : du stratégique à l’opérationnel
Since 1988, Algeria has initiated deeper economic reforms supported by significant legislation and international agreements. The algerian government has abandoned its protector role without providing a required regulatory role. The transition from a planned economy based on state monopole to a market economy based, is characterized by the emergence of local and foreign private sector implies radical changes both politically and institutionally (regarding Algerian State) on the organizational, strategic and technological plans for State-Owned Firms. In this uncertain environment, Algerian State-Owned Firm cannot rely only on their internal capabilities. They should, create partnerships, both with suppliers, subcontractors, universities and even competitors. There is a need for these firms to: - Transform their organization to a new form improved for unexpected events and enough resilience to adapt to uncertain environments- Build a Strategic Intelligence Information System able to facilitate decision-making and reduce risks inherent to the strategic choices- Find ways to reverse choice when unexpected events occur.The aim of this thesis is to show the complexity of the political, legal, social and economic environments where the Algerian State-Owned Firms operate. Also, we show why it's necessary to handle the following risks: inertia against the process of organizational transformation, wrong understanding of the received signals from the environment and poor reaction of the decision-maker to signals and events in the environment. Here, the concepts of KM, CI and BI operate at different levels of management: from strategic to operational
37

Abid, Zied. "Gestion de la qualité de contexte pour l'intelligence ambiante." Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0041/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'informatique sensible au contexte vise à réduire la quantité d'informations explicites qu'un utilisateur doit fournir pour que le système accomplisse la tâche souhaitée. Ceci est particulièrement vrai dans le domaine récent de l'intelligence ambiante où les objets de la vie courante deviennent capables de déclencher une action ou un échange spontané d'informations, sans interaction avec l'utilisateur. Les progrès techniques en matière de réseaux de communication sans fil, d'équipements mobiles individuels, de capteurs et de logiciels embarqués, rendent aujourd'hui possibles des services aux usagers dépendants du contexte, mais les applications concrètes demeurent encore très limitées. Les travaux existants dans la littérature décomposent la gestion de contexte en quatre fonctionnalités: la collecte, l'interprétation, la détection de situations et l'utilisation pour l'adaptation. L'élément discriminant des solutions existantes est la qualité des informations abstraites obtenues par inférence et devant caractériser les situations de l'utilisateur. Les limites de ces solutions sont le manque de composition aisée des informations de contexte, le passage à l'échelle, tant en termes de quantité d'informations de contexte que de nombre d'applications clientes, l'absence de garantie sur la cohérence et la qualité des informations de contexte, et le manque de solutions intergicielles permettant de libérer le concepteur d'applications des aspects liés à la gestion de contexte. Nous nous intéressons dans cette thèse à la gestion de la qualité de contexte (QoC) dans un environnement ambiant. Les problématiques de gestion de la qualité de contexte sont multiples: choisir la méthode adéquate pour la gestion du contexte, extraire la qualité associée au contexte, interpréter et analyser la qualité de contexte pour les applications sensibles au contexte. Nous proposons de répondre à ces problématiques en intégrant la qualité de contexte au sein de la plateforme de gestion de contexte COSMOS (http://picoforge.lntevrv.fr/proiects/svn/cosmos) de l'équipe MARGE (http://www-inf.itsudparis.eu/MARGE) de Télécom SudParis. Afin d'effectuer cette intégration, nous avons conçu des éléments spécifiques à la qualité de contexte et avons mis en place une gestion fine et efficiente de cette qualité en limitant le surcoût associé. Nous proposons également un processus de conception basé sur l'ingénierie dirigée par les modèles afin de générer les éléments requis à la gestion de la qualité de contexte. Nous avons validé nos contributions à l'aide de deux applications fonctionnant sur téléphone mobile : une application de "vente flash" dans un centre commercial et une application de détection de localisation sur un campus. Les tests de performances que nous avons effectués permettent de comparer les résultats avec et sans la prise en compte de la QoC et montrent le faible coût de la gestion de la qualité par rapport aux améliorations apportées aux applications sensibles au contexte
Context-aware computing aims to reduce the amount of explicit information required from a user for a system to perform a task. This is particularly true in the recent domain of ambient intelligence where everyday life objects are able to trigger an action or a spontaneous information exchange, without any interaction with the user. Technical advances in wireless communication, personal mobile devices, sensors and embedded software make context-aware services possible, but concrete applications are still very limited. The solutions proposed in the literature decompose context management into four functions: acquisition, interpretation, situation detection and application adaptation. The differentiating element in these proposals is the quality of the high-level context information obtained by inference and characterising the situation of the user. The limits of these solutions are the difficulty for composing context information scalability in terms of the quantity of context information and of the number of client applications, the absence of guarantee on the consistency of context information and the lack of middleware solutions able to free the designer of context-aware applications from the management of context data. In this thesis, we are interested in the management of the quality of context information (QoC) in an ambient environment. There are several key issues in QoC management: choosing the adequate method for context management, extracting the quality associated to the context, analysing and interpreting the quality of the context with regard to the requirements of context-aware applications. We propose to answer these questions by integrating QoC management into the COSMOS context management framework (http://picoforge.int-evry.fr/projects/svn/cosmos) developed by the MARGE team (http://www-inf.itsudparis.eu/MARGE) of Télécom SudParis.For this purpose, we have designed the necessary components dedicated to QoC management and we have implemented the mechanisms allowing a fine-grain manipulation of the QoC together with a limitation of the associated overhead. We also propose a design process based on model-driven engineering in order to automatically generate the elements responsible of QoC management. We validate our contributions through the development of two prototype applications running on mobile phones: a Flash sale offer application to be used in malls and a location detection application proposed to the students of a campus. The performance tests we have conducted allow to compare the results obtained with and without taking into account the QoC and show the low overhead associated to QoC manaqement with regard to the benefits brought to context-aware applications and services
38

Hirel, Julien. "Codage hippocampique par transitions spatio-temporelles pour l’apprentissage autonome de comportements dans des tâches de navigation sensori-motrice et de planification en robotique." Thesis, Cergy-Pontoise, 2011. http://www.theses.fr/2011CERG0552/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'intéresse aux mécanismes permettant de faciliter l'acquisition autonome de comportements chez les êtres vivants et propose d'utiliser ces mécanismes dans le cadre de tâches robotiques. Des réseaux de neurones artificiels sont utilisés pour modéliser certaines structures cérébrales, à la fois afin de mieux comprendre le fonctionnement de ces structures dans le cerveau des mammifères et pour obtenir des algorithmes robustes et adaptatifs de contrôle en robotique.Les travaux présentés se basent sur un modèle de l'hippocampe permettant d'apprendre des relations temporelles entre des événements perceptifs. Les neurones qui forment le substrat de cet apprentissage, appelés cellules de transition, permettent de faire des prédictions sur les événements futurs que le robot pourrait rencontrer. Ces transitions servent de support à la construction d'une carte cognitive, située dans le cortex préfrontal et/ou pariétal. Cette carte peut être apprise lors de l'exploration d'un environnement inconnu par un robot mobile et ensuite utilisée pour planifier des chemins lui permettant de rejoindre un ou plusieurs buts.Outre leur utilisation pour la construction d'une carte cognitive, les cellules de transition servent de base à la conception d'un modèle d'apprentissage par renforcement. Une implémentation neuronale de l'algorithme de Q-learning, utilisant les transitions, est réalisée de manière biologiquement plausible en s'inspirant des ganglions de la base. Cette architecture fournit une stratégie de navigation alternative à la planification par carte cognitive, avec un apprentissage plus lent, et correspondant à une stratégie automatique de bas-niveau. Des expériences où les deux stratégies sont utilisées en coopération sont réalisées et des lésions du cortex préfrontal et des ganglions de la base permettent de reproduire des résultats expérimentaux obtenus chez les rats.Les cellules de transition peuvent apprendre des relations temporelles précises permettant de prédire l'instant où devrait survenir un événement. Dans un modèle des interactions entre l'hippocampe et le cortex préfrontal, nous montrons comment ces prédictions peuvent expliquer certains enregistrements in-vivo dans ces structures cérébrales, notamment lorsqu'un rat réalise une tâche durant laquelle il doit rester immobile pendant 2 secondes sur un lieu but pour obtenir une récompense. L'apprentissage des informations temporelles provenant de l'environnement et du comportement permet de détecter des régularités. A l'opposé, l'absence d'un événement prédit peut signifier un échec du comportement du robot, qui peut être détecté et utilisé pour adapter son comportement en conséquence. Un système de détection de l'échec est alors développé, tirant parti des prédictions temporelles fournies par l'hippocampe et des interactions entre les aspects de modulation comportementale du cortex préfrontal et d'apprentissage par renforcement dans les ganglions de la base. Plusieurs expériences robotiques sont conduites dans lesquelles ce signal est utilisé pour moduler le comportement d'un robot, dans un premier temps de manière immédiate, afin de mettre fin aux actions du robot qui le mènent à un échec et envisager d'autres stratégies. Ce signal est ensuite utilisé de manière plus permanente pour moduler l'apprentissage des associations menant à la sélection d'une action, afin que les échecs répétés d'une action dans un contexte particulier fassent oublier cette association.Finalement, après avoir utilisé le modèle dans le cadre de la navigation, nous montrons ses capacités de généralisation en l'utilisant pour le contrôle d'un bras robotique. Ces travaux constituent une étape importante pour l'obtention d'un modèle unifié et générique permettant le contrôle de plates-formes robotiques variés et pouvant apprendre à résoudre des tâches de natures différentes
This thesis takes interest in the mechanisms facilitating the autonomous acquisition of behaviors in animals and proposes to use these mechanisms in the frame of robotic tasks. Artificialneural networks are used to model cerebral structures, both to understand how these structureswork and to design robust and adaptive algorithms for robot control.The work presented here is based on a model of the hippocampus capable of learning thetemporal relationship between perceptive events. The neurons performing this learning, calledtransition cells, can predict which future events the robot could encounter. These transitionssupport the building of a cognitive map, located in the prefrontal and/or parietal cortex. The mapcan be learned by a mobile robot exploring an unknown environment and then be used to planpaths in order to reach one or several goals.Apart from their use in building a cognitive map, transition cells are also the basis for thedesign of a model of reinforcement learning. A biologically plausible neural implementation ofthe Q-learning algorithm, using transitions, is made by taking inspiration from the basal ganglia.This architecture provides an alternative strategy to the cognitive map planning strategy. Thereinforcement learning strategy requires a longer learning period but corresponds more to an automatic low-level behavior. Experiments are carried out with both strategies used in cooperationand lesions of the prefrontal cortex and basal ganglia allow to reproduce experimental resultsobtained with rats.Transition cells can learn temporally precise relations predicting the exact timing when anevent should be perceived. In a model of interactions between the hippocampus and prefrontalcortex, we show how these predictions can explain in-vivo recordings in these cerebral structures, in particular when rat is carrying out a task during which it must remain stationary for 2seconds on a goal location to obtain a reward. The learning of temporal information about theenvironment and the behavior of the robot allows the system to detect regularity. On the contrary, the absence of a predicted event can signal a failure in the behavior of the robot, whichcan be detected and acted upon in order to modulate the failing behavior. Consequently, a failure detection system is developed, taking advantage of the temporal predictions provided by thehippocampus and the interaction between behavior modulation functions in the prefrontal cortexand reinforcement learning in the basal ganglia. Several robotic experiments are conducted, inwhich the failure signal is used to modulate, immediately at first, the behavior of the robot inorder to stop selecting actions which lead to failures and explore other strategies. The signal isthen used in a more lasting way by modulating the learning of the associations leading to theselection of an action so that the repeted failures of an action in a particular context lead to thesuppression of this association.Finally, after having used the model in the frame of navigation, we demonstrate its generalization capabilities by using it to control a robotic arm in a trajectory planning task. This workconstitutes an important step towards obtaining a generic and unified model allowing the controlof various robotic setups and the learning of tasks of different natures
39

Cully, Antoine. "Creative Adaptation through Learning." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066664/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les robots ont profondément transformé l’industrie manufacturière et sont susceptibles de délivrer de grands bénéfices pour la société, par exemple en intervenant sur des lieux de catastrophes naturelles, lors de secours à la personne ou dans le cadre de la santé et des transports. Ce sont aussi des outils précieux pour la recherche scientifique, comme pour l’exploration des planètes ou des fonds marins. L’un des obstacles majeurs à leur utilisation en dehors des environnements parfaitement contrôlés des usines ou des laboratoires, est leur fragilité. Alors que les animaux peuvent rapidement s’adapter à des blessures, les robots actuels ont des difficultés à faire preuve de créativité lorsqu’ils doivent surmonter un problème inattendu: ils sont limités aux capteurs qu’ils embarquent et ne peuvent diagnostiquer que les situations qui ont été anticipées par leur concepteurs. Dans cette thèse, nous proposons une approche différente qui consiste à laisser le robot apprendre de lui-même un comportement palliant la panne. Cependant, les méthodes actuelles d’apprentissage sont lentes même lorsque l’espace de recherche est petit et contraint. Pour surmonter cette limitation et permettre une adaptation rapide et créative, nous combinons la créativité des algorithmes évolutionnistes avec la rapidité des algorithmes de recherche de politique à travers trois contributions : les répertoires comportementaux, l’adaptation aux dommages et le transfert de connaissance entre plusieurs tâches. D’une manière générale, ces travaux visent à apporter les fondations algorithmiques permettant aux robots physiques d’être plus robustes, performants et autonomes
Robots have transformed many industries, most notably manufacturing, and have the power to deliver tremendous benefits to society, for example in search and rescue, disaster response, health care, and transportation. They are also invaluable tools for scientific exploration of distant planets or deep oceans. A major obstacle to their widespread adoption in more complex environments and outside of factories is their fragility. While animals can quickly adapt to injuries, current robots cannot “think outside the box” to find a compensatory behavior when they are damaged: they are limited to their pre-specified self-sensing abilities, which can diagnose only anticipated failure modes and strongly increase the overall complexity of the robot. In this thesis, we propose a different approach that considers having robots learn appropriate behaviors in response to damage. However, current learning techniques are slow even with small, constrained search spaces. To allow fast and creative adaptation, we combine the creativity of evolutionary algorithms with the learning speed of policy search algorithms through three contributions: the behavioral repertoires, the damage recovery using these repertoires and the transfer of knowledge across tasks. Globally, this work aims to provide the algorithmic foundations that will allow physical robots to be more robust, effective and autonomous
40

Beaugency, Aurélie. "Capacités dynamiques et compréhension des enjeux sectoriels : apports de l’intelligence technologique au cas de l’avionique." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0290/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La compréhension des dynamiques d’un environnement, qu’elles soient technologiques ouconcurrentielles, tient une place importante dans les réflexions sur l’adaptation et la survie des firmes.Dans le cas de l’avionique, les bouleversements des années 2000 sont les conséquences de profondschangements dans ses deux secteurs de référence, l’aéronautique et l’électronique, ce qui amène leDépartement Calculateurs de la Division Avionique du Groupe Thales à s’interroger sur sa capacité àsaisir ces changements. Dans ces travaux, nous proposons d’examiner l’un de ces mécanismes, lescapacités dynamiques sensing (définies comme les aptitudes déployées par les firmes pour adapter lesroutines et capacités organisationnelles) et de l’opérationnaliser au travers de la capacité d’intelligencetechnologique.Par l’étude du déploiement de cette capacité au sein du Département, nous montrons en quoil’intelligence technologique est une capacité participant du processus d’apprentissage de la firme,déployée par les managers pour agir sur les processus de définition des Politiques Produits. Pouratteindre cet objectif, nous avons adopté une démarche de recherche-intervention (menée dans le cadred’une Convention Industrielle CIFRE) s’articulant en deux temps. Premièrement, nous montrons autravers de l’opérationnalisation de la capacité d’intelligence technologique au sein du Département quecette dernière sert les managers dans la définition des Politiques Produits. Deuxièmement, les résultatsdes études techniques menées pour ce déploiement contribuent à la compréhension des dynamiquesscientifiques et techniques du secteur avionique
The understanding of the scientific dynamics of an environment, whether technological orcompetitive, occupies a predominant place in the discussion of adaption and survival of firms. In thecase of avionics, the upheaval in the 2000’s is the consequence of profound changes in its two mainsectors, aeronautics and electronics. This drove the Computer Department, part of the AvionicsDivision of Thales Group, to question its ability to handle these evolutions. In this thesis, we examineone of these mechanisms, the sensing dynamic capability (defined as the aptitudes deployed by firmsin order to adapt routines and organizational capabilities) and we put it into practice throughtechnological intelligence capability.By studying the deployment of this ability inside the Department, we show how technologicalintelligence contributes to the learning process of the firm, as it is used by managers in order toinfluence the selection process of Product Policy. In order to achieve this, we adopted a researchinterventionmethodology (with the support of an industrial agreement CIFRE) based on two steps.First of all, we show that through the operationalization of the technological intelligence ability in thedepartment, managers put the latter to use in the selection of product policies. Secondly, the results ofthe technical studies conducted for this deployment add to the understanding of the scientific andtechnological dynamics of the avionics sector
41

Mkhida, Abdelhak. "Contribution à l'évaluation de la sûreté de fonctionnement des Systèmes Instrumentés de Sécurité à Intelligence Distribuée." Thesis, Vandoeuvre-les-Nancy, INPL, 2008. http://www.theses.fr/2008INPL083N/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’incorporation des instruments intelligents dans les boucles de sécurité nous mène vers une sécurité intelligente et les systèmes deviennent des « systèmes instrumentés de sécurité à intelligence distribuée (SISID) ». La justification de l’usage de ces instruments dans les applications de sécurité n’est pas complètement avérée. L’évaluation de la sûreté de fonctionnement de ce type de systèmes n’est pas triviale. Dans ce travail, la modélisation et l'évaluation des performances relatives à la sûreté de fonctionnement des systèmes instrumentés de sécurité (SIS) sont traitées pour des structures intégrant de l’intelligence dans les instruments de terrain. La méthodologie que nous utilisons consiste en la modélisation de l’aspect fonctionnel et dysfonctionnel de ces systèmes en adoptant le formalisme basé sur les réseaux de Petri stochastiques qui assurent la représentation du comportement dynamique de ce type de systèmes. La modélisation est traitée sous la forme d’une approche stochastique utilisant les réseaux d’activité stochastiques SAN (Stochastic Activity Network). L’introduction d’indicateurs de performances permet de mettre en évidence l’effet de l’intégration des niveaux d’intelligence dans les applications de sécurité. La méthode de Monte Carlo est utilisée pour évaluer les paramètres de sûreté de fonctionnement des SIS en conformité avec les normes de sécurité relatives aux systèmes instrumentés de sécurité (CEI 61508 et CEI 61511). Nous avons proposé une méthode et les outils associés pour approcher cette évaluation par simulation et ainsi apporter une aide à la conception des systèmes instrumentés de sécurité (SIS) intégrant quelques fonctionnalités des instruments intelligents
The incorporation of intelligent instruments in safety loops leads towards the concept of intelligent safety and the systems become “Intelligent Distributed Safety Instrumented Systems (IDSIS)”. The justification for using these instruments in safety applications is not fully proven and the dependability evaluation of such systems is a difficult task. Achieved work in this thesis deals with modelling and thus the performance evaluation relating to the dependability for structures which have intelligence in the instruments constituting the Safety Instrumented Systems (SIS). In the modelling of the system, the functional and dysfunctional aspects coexist and the dynamic approach using the Stochastic Activity Network (SAN) is proposed to overcome the difficulties mentioned above. The introduction of performance indicators highlight the effect of the integration of intelligence levels in safety applications. Monte-Carlo method is used to assess the dependability parameters in compliance with safety standards related to SIS (IEC 61508 & IEC 61511). We have proposed a method and associated tools to approach this evaluation by simulation and thus provide assistance in designing Safety Instrumented Systems (SIS) integrating some features of intelligent tools
42

Ciupak, Liége Franken. "Business intelligence na gestão universitária : um estudo de aplicabilidade na UNIOESTE." Universidade Estadual de Londrina. CECA. Prog. Pós-Graduação em Gestão da Inf. Escola de Governo do Paraná, 2011. http://www.bibliotecadigital.uel.br/document/?code=vtls000166566.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
O conceito de Business Intelligence (BI) abarca diversas tecnologias que objetivam facilitar a extração e a visualização de informações e, tal qual numa empresa competitiva, a gestão universitária deve se modernizar também, para isso adotando o uso de processos que auxiliem na tomada de decisões e que atendam com agilidade e qualidade às demandas da sociedade. Os Sistemas de Informação (SI) são elementos imprescindíveis e devem ser mais do que processamento de atividades rotineiras, passando a contribuir na visão estratégica. A Universidade Estadual do Oeste do Paraná (UNIOESTE) possui diversos SI armazenando muitos dados, no entanto seus usuários ainda têm dificuldade na extração da informação no formato desejado. Nesse sentido, este trabalho teve como objetivo pesquisar tecnologias de BI, mais especificamente On-Line Analytical Processing (OLAP), bem como implementar um protótipo de aplicação que viesse facilitar a recuperação de informações na Pró-Reitoria de Planejamento (PROPLAN), tendo como fonte os diversos SI da UNIOESTE. Para atingir o objetivo proposto foi desenvolvida uma pesquisa cuja abordagem é qualitativa, do tipo exploratória/descritiva por meio de pesquisa bibliográfica e documental. Como resultado, foi desenvolvido um protótipo com a ferramenta Business Intelligence Development Studio (BIDS), componente do SQL Server 2008 da Microsoft, integrado com o editor de planilhas Excel 2010 para a interface com o usuário. Como parte do processo de avaliação, foi utilizado o questionário SUS, para mensurar a satisfação do usuário na utilização desse mesmo protótipo, onde a média atribuída pelos participantes foi 91.5, numa escala de 0 a 100, perfazendo assim uma avaliação muito positiva. Como o resultado foi um protótipo, espera-se que a UNIOESTE apoie esta iniciativa, investindo em capacitação, bem como estimule para que mais pessoas contribuam para a implantação de projetos de BI na UNIOESTE, atendendo aos anseios dos usuários, nesta pesquisa representados pela PROPLAN.
The concept of Business Intelligence (BI) covers several technologies that make easy the achievement and visualization of information and, as in a competitive enterprise, the university management must update itself, so it adopts the use of processes that assist on a decision making, which also meet with ability and quality the society demands. The Information Systems (IS) are essential elements and must be more than routine processing activities, since they will contribute to the strategic point of view. The Western Paraná State University (UNIOESTE) has several IS that store a lot of data, on the other hand, its users still have difficulty on obtaining information according to their intended format. Thus, this trial aimed at researching BI technologies, mainly On-Line Analytical Processing (OLAP) and at implementing a prototype application that will make easy the retrieval of information at the Pro-rectory of Planning (PROPLAN), whose sources are many IS from UNIOESTE. In order to reach that goal, an approach based on a qualitative research was developed, as an exploratory/descriptive research through literature and public documents. As a result, a prototype was developed with a Business Intelligence Development Studio (BIDS) tool, a component of Microsoft SQL Server 2008, composed with the Excel 2010 spreadsheet editor, as an end-user interface. As part of the evaluation process, the SUS questionnaire was used to measure user satisfaction on using the same prototype, in which the average score, given by the participants, was 91.5 on a scale from 0 to 100, thus making a very positive evaluation. As the result was a prototype, it is expected that UNIOESTE supports this initiative as well as invests in training and encourages more people to contribute to the implementation of BI projects at UNIOESTE in order to meet the users' needs, which in this trial is represented by PROPLAN.
43

Bange, Carsten. "Business intelligence aus Kennzahlen und Dokumenten : Integration strukturierter und unstrukturierter Daten in entscheidungsunterstützenden Informationssystemen /." Hamburg : Kovac, 2004. http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&doc_number=012863212&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Kotevska, Olivera. "Learning based event model for knowledge extraction and prediction system in the context of Smart City." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM005/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des milliards de «choses» connectées à l’internet constituent les réseaux symbiotiques de périphériques de communication (par exemple, les téléphones, les tablettes, les ordinateurs portables), les appareils intelligents, les objets (par exemple, la maison intelligente, le réfrigérateur, etc.) et des réseaux de personnes comme les réseaux sociaux. La notion de réseaux traditionnels se développe et, à l'avenir, elle ira au-delà, y compris plus d'entités et d'informations. Ces réseaux et ces dispositifs détectent, surveillent et génèrent constamment une grande uantité de données sur tous les aspects de la vie humaine. L'un des principaux défis dans ce domaine est que le réseau se compose de «choses» qui sont hétérogènes à bien des égards, les deux autres, c'est qu'ils changent au fil du temps, et il y a tellement d'entités dans le réseau qui sont essentielles pour identifier le lien entre eux.Dans cette recherche, nous abordons ces problèmes en combinant la théorie et les algorithmes du traitement des événements avec les domaines d'apprentissage par machine. Notre objectif est de proposer une solution possible pour mieux utiliser les informations générées par ces réseaux. Cela aidera à créer des systèmes qui détectent et répondent rapidement aux situations qui se produisent dans la vie urbaine afin qu'une décision intelligente puisse être prise pour les citoyens, les organisations, les entreprises et les administrations municipales. Les médias sociaux sont considérés comme une source d'information sur les situations et les faits liés aux utilisateurs et à leur environnement social. Au début, nous abordons le problème de l'identification de l'opinion publique pour une période donnée (année, mois) afin de mieux comprendre la dynamique de la ville. Pour résoudre ce problème, nous avons proposé un nouvel algorithme pour analyser des données textuelles complexes et bruyantes telles que Twitter-messages-tweets. Cet algorithme permet de catégoriser automatiquement et d'identifier la similarité entre les sujets d'événement en utilisant les techniques de regroupement. Le deuxième défi est de combiner les données du réseau avec diverses propriétés et caractéristiques en format commun qui faciliteront le partage des données entre les services. Pour le résoudre, nous avons créé un modèle d'événement commun qui réduit la complexité de la représentation tout en conservant la quantité maximale d'informations. Ce modèle comporte deux ajouts majeurs : la sémantiques et l’évolutivité. La partie sémantique signifie que notre modèle est souligné avec une ontologie de niveau supérieur qui ajoute des capacités d'interopérabilité. Bien que la partie d'évolutivité signifie que la structure du modèle proposé est flexible, ce qui ajoute des fonctionnalités d'extensibilité. Nous avons validé ce modèle en utilisant des modèles d'événements complexes et des techniques d'analyse prédictive. Pour faire face à l'environnement dynamique et aux changements inattendus, nous avons créé un modèle de réseau dynamique et résilient. Il choisit toujours le modèle optimal pour les analyses et s'adapte automatiquement aux modifications en sélectionnant le meilleur modèle. Nous avons utilisé une approche qualitative et quantitative pour une sélection évolutive de flux d'événements, qui réduit la solution pour l'analyse des liens, l’optimale et l’alternative du meilleur modèle
Billions of “things” connected to the Internet constitute the symbiotic networks of communication devices (e.g., phones, tablets, and laptops), smart appliances (e.g., fridge, coffee maker and so forth) and networks of people (e.g., social networks). So, the concept of traditional networks (e.g., computer networks) is expanding and in future will go beyond it, including more entities and information. These networks and devices are constantly sensing, monitoring and generating a vast amount of data on all aspects of human life. One of the main challenges in this area is that the network consists of “things” which are heterogeneous in many ways, the other is that their state of the interconnected objects is changing over time, and there are so many entities in the network which is crucial to identify their interdependency in order to better monitor and predict the network behavior. In this research, we address these problems by combining the theory and algorithms of event processing with machine learning domains. Our goal is to propose a possible solution to better use the information generated by these networks. It will help to create systems that detect and respond promptly to situations occurring in urban life so that smart decision can be made for citizens, organizations, companies and city administrations. Social media is treated as a source of information about situations and facts related to the users and their social environment. At first, we tackle the problem of identifying the public opinion for a given period (year, month) to get a better understanding of city dynamics. To solve this problem, we proposed a new algorithm to analyze complex and noisy textual data such as Twitter messages-tweets. This algorithm permits an automatic categorization and similarity identification between event topics by using clustering techniques. The second challenge is combing network data with various properties and characteristics in common format that will facilitate data sharing among services. To solve it we created common event model that reduces the representation complexity while keeping the maximum amount of information. This model has two major additions: semantic and scalability. The semantic part means that our model is underlined with an upper-level ontology that adds interoperability capabilities. While the scalability part means that the structure of the proposed model is flexible in adding new entries and features. We validated this model by using complex event patterns and predictive analytics techniques. To deal with the dynamic environment and unexpected changes we created dynamic, resilient network model. It always chooses the optimal model for analytics and automatically adapts to the changes by selecting the next best model. We used qualitative and quantitative approach for scalable event stream selection, that narrows down the solution for link analysis, optimal and alternative best model. It also identifies efficient relationship analysis between data streams such as correlation, causality, similarity to identify relevant data sources that can act as an alternative data source or complement the analytics process
45

Gruet, Marina. "Intelligence artificielle et prévision de l'impact de l'activité solaire sur l'environnement magnétique terrestre." Thesis, Toulouse, ISAE, 2018. http://www.theses.fr/2018ESAE0014/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous présentons des modèles appartenant au domaine de l’intelligence artificielle afin de prédire l’indice magnétique global am à partir des paramètres du vent solaire. Ceci est fait dans l’optique de fournir des modèles opérationnels basés sur les données enregistrées par le satellite ACE situé au point de Lagrange L1. L’indice am ne possède pas à l’heure actuelle de modèles de prédiction. Pour prédire cet indice, nous avons fait appel à des modèles non-linéaires que sont les réseaux de neurones, permettant de modéliser le comportement complexe et non-linéaire de la magnétosphère terrestre. Nous avons dans un premier temps travaillé sur le développement et l’optimisation des modèles de réseaux classiques comme le perceptron multi-couche. Ces modèles ont fait leurs preuves en météorologie spatiale pour prédire aussi bien des indices magnétiques spécifiques à des systèmes de courant comme l’indice Dst, caractéristique du courant annulaire, que des indices globaux comme l’indice Kp. Nous avons en particulier étudié un réseau temporel appelé Time Delay Neural Network (TDNN) et évalué sa capacité à prédire l’indice magnétique am à une heure, uniquement à partir des paramètres du vent solaire. Nous avons analysé la sensibilité des performances des réseaux de neurones en considérant d’une part les données fournies par la base OMNI au niveau de l’onde de choc, et d’autre part des données obtenues par le satellite ACE en L1. Après avoir étudié la capacité de ces réseaux à prédire am, nous avons développé un réseau de neurones encore jamais utilisé en météorologie spatiale, le réseau Long Short Term Mermory ou LSTM. Ce réseau possède une mémoire à court et à long terme, et comme le TDNN, fournit des prédictions de l’indice am uniquement à partir des paramètres du vent solaire. Nous l’avons optimisé afin de modéliser au mieux le comportement de la magnétosphère et avons ainsi obtenu de meilleures performances de prédiction de l'indice am par rapport à celles obtenues avec le TDNN. Nous avons souhaité continuer le développement et l’optimisation du LSTM en travaillant sur l’utilisation de fonctions de couplage en entrée de ce réseau de neurones, et sur le développement de réseaux multisorties pour prédire les indices magnétiques am sectoriels ou aσ, spécifiques à chaque secteur Temps Magnétique Local. Enfin, nous avons développé une nouvelle technique combinant réseau LSTM et processus gaussiens, afin de fournir une prédiction probabiliste jusqu’à six heures des indices magnétiques Dst et am. Cette méthode a été dans un premier temps développée pour l’indice magnétique Dst afin de pouvoir comparer les performances du modèle hybride à des modèles de référence, puis appliquée à l’indice magnétique am
In this thesis, we present models which belongs to the field of artificial intelligence to predict the geomagnetic index am based on solar wind parameters. This is done in terms to provide operational models based on data recorded by the ACE satellite located at the Lagrangian point L1. Currently, there is no model providing predictions of the geomagnetic index am. To predict this index, we have relied on nonlinear models called neural networks, allowing to model the complex and nonlinear dynamic of the Earth’s magnetosphere. First, we have worked on the development and the optimisation of basics neural networks like the multilayer perceptron. These models have proven in space weather to predict geomagnetic index specific to current systems like the Dst index, characteristic of the ring current, as well as the global geomagnetic index Kp. In particular, we have studied a temporal network, called the Time Delay Neural Network (TDNN) and we assessed its ability to predict the geomagnetic index am within one hour, base only on solar wind parameters. We have analysed the sensitivity of neural network performance when considering on one hand data from the OMNI database at the bow shock, and on the other hand data from the ACE satellite at the L1 point. After studying the ability of neural networks to predict the geomagnetic index am, we have developped a neural network which has never been used before in Space Weather, the Long Short Term Memory or LSTM. Like the TDNN, this network provides am prediction based only on solar wind parameters. We have optimised this network to model at best the magnetosphere behaviour and obtained better performance than the one obtained with the TDNN. We continued the development and the optimisation of the LSTM network by using coupling functions as neural network features, and by developing multioutput networks to predict the sectorial am also called aσ, specific to each Magnetical Local Time sector. Finally, we developped a brand new technique combining the LSTM network and gaussian process, to provide probabilistic predictions up to six hours ahead of geomagnetic index Dst and am. This method has been first developped to predict Dst to be able to compare the performance of this model with reference models, and then applied to the geomagnetic index am
46

Papadopoulos, Georgios. "Towards a 3D building reconstruction using spatial multisource data and computational intelligence techniques." Thesis, Limoges, 2019. http://www.theses.fr/2019LIMO0084/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La reconstruction de bâtiments à partir de photographies aériennes et d’autres données spatiales urbaines multi-sources est une tâche qui utilise une multitude de méthodes automatisées et semi-automatisées allant des processus ponctuels au traitement classique des images et au balayage laser. Dans cette thèse, un système de relaxation itératif est développé sur la base de l'examen du contexte local de chaque bord en fonction de multiples sources d'entrée spatiales (masques optiques, d'élévation, d'ombre et de feuillage ainsi que d'autres données prétraitées, décrites au chapitre 6). Toutes ces données multisource et multirésolution sont fusionnées de manière à extraire les segments de ligne probables ou les arêtes correspondant aux limites des bâtiments. Deux nouveaux sous-systèmes ont également été développés dans cette thèse. Ils ont été conçus dans le but de fournir des informations supplémentaires, plus fiables, sur les contours des bâtiments dans une future version du système de relaxation proposé. La première est une méthode de réseau de neurones à convolution profonde (CNN) pour la détection de frontières de construction. Le réseau est notamment basé sur le modèle SRCNN (Dong C. L., 2015) de super-résolution à la pointe de la technologie. Il accepte des photographies aériennes illustrant des données de zones urbaines densément peuplées ainsi que leurs cartes d'altitude numériques (DEM) correspondantes. La formation utilise trois variantes de cet ensemble de données urbaines et vise à détecter les contours des bâtiments grâce à une nouvelle cartographie hétéroassociative super-résolue. Une autre innovation de cette approche est la conception d'une couche de perte personnalisée modifiée appelée Top-N. Dans cette variante, l'erreur quadratique moyenne (MSE) entre l'image de sortie reconstruite et l'image de vérité de sol (GT) fournie des contours de bâtiment est calculée sur les 2N pixels de l'image avec les valeurs les plus élevées. En supposant que la plupart des N pixels de contour de l’image GT figurent également dans les 2N pixels supérieurs de la reconstruction, cette modification équilibre les deux catégories de pixels et améliore le comportement de généralisation du modèle CNN. Les expériences ont montré que la fonction de coût Top-N offre des gains de performance par rapport à une MSE standard. Une amélioration supplémentaire de la capacité de généralisation du réseau est obtenue en utilisant le décrochage. Le deuxième sous-système est un réseau de convolution profonde à super-résolution, qui effectue un mappage associatif à entrée améliorée entre les images d'entrée à basse résolution et à haute résolution. Ce réseau a été formé aux données d’altitude à basse résolution et aux photographies urbaines optiques à haute résolution correspondantes. Une telle différence de résolution entre les images optiques / satellites optiques et les données d'élévation est souvent le cas dans les applications du monde réel
Building reconstruction from aerial photographs and other multi-source urban spatial data is a task endeavored using a plethora of automated and semi-automated methods ranging from point processes, classic image processing and laser scanning. In this thesis, an iterative relaxation system is developed based on the examination of the local context of each edge according to multiple spatial input sources (optical, elevation, shadow & foliage masks as well as other pre-processed data as elaborated in Chapter 6). All these multisource and multiresolution data are fused so that probable line segments or edges are extracted that correspond to prominent building boundaries.Two novel sub-systems have also been developed in this thesis. They were designed with the purpose to provide additional, more reliable, information regarding building contours in a future version of the proposed relaxation system. The first is a deep convolutional neural network (CNN) method for the detection of building borders. In particular, the network is based on the state of the art super-resolution model SRCNN (Dong C. L., 2015). It accepts aerial photographs depicting densely populated urban area data as well as their corresponding digital elevation maps (DEM). Training is performed using three variations of this urban data set and aims at detecting building contours through a novel super-resolved heteroassociative mapping. Another innovation of this approach is the design of a modified custom loss layer named Top-N. In this variation, the mean square error (MSE) between the reconstructed output image and the provided ground truth (GT) image of building contours is computed on the 2N image pixels with highest values . Assuming that most of the N contour pixels of the GT image are also in the top 2N pixels of the re-construction, this modification balances the two pixel categories and improves the generalization behavior of the CNN model. It is shown in the experiments, that the Top-N cost function offers performance gains in comparison to standard MSE. Further improvement in generalization ability of the network is achieved by using dropout.The second sub-system is a super-resolution deep convolutional network, which performs an enhanced-input associative mapping between input low-resolution and high-resolution images. This network has been trained with low-resolution elevation data and the corresponding high-resolution optical urban photographs. Such a resolution discrepancy between optical aerial/satellite images and elevation data is often the case in real world applications. More specifically, low-resolution elevation data augmented by high-resolution optical aerial photographs are used with the aim of augmenting the resolution of the elevation data. This is a unique super-resolution problem where it was found that many of -the proposed general-image SR propositions do not perform as well. The network aptly named building super resolution CNN (BSRCNN) is trained using patches extracted from the aforementioned data. Results show that in comparison with a classic bicubic upscale of the elevation data the proposed implementation offers important improvement as attested by a modified PSNR and SSIM metric. In comparison, other proposed general-image SR methods performed poorer than a standard bicubic up-scaler.Finally, the relaxation system fuses together all these multisource data sources comprising of pre-processed optical data, elevation data, foliage masks, shadow masks and other pre-processed data in an attempt to assign confidence values to each pixel belonging to a building contour. Confidence is augmented or decremented iteratively until the MSE error fails below a specified threshold or a maximum number of iterations have been executed. The confidence matrix can then be used to extract the true building contours via thresholding
47

Fakeri, Tabrizi Ali. "Semi-supervised multi-view learning : an application to image annotation and multi-lingual document classification." Paris 6, 2013. http://www.theses.fr/2013PA066336.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse , nous présentons deux méthodes d'apprentissage Multi-vues. Dans une première approche , nous décrivons une stratégie de multi-vues auto-apprentissage qui apprends différents classifieurs de vote sur les différents points de vue. Les distributions de marge sur les données d'apprentissage vierge, obtenus avec chaque classifieur spécifique à la vue sont ensuite utilisées pour estimer une borne supérieure de leur erreur de Bayes transductive. Minimiser cette borne supérieure nous donne une marge de seuil automatique qui est utilisé pour attribuer des pseudo-labels à des exemples non étiquetés. Étiquettes pour les classes finales sont ensuite affectés à ces exemples, par un vote à l'ensemble de la précédente pseudo -labels. Nouveaux classifieurs vue spécifiques sont ensuite apprises à l'aide des données d'apprentissage pseudo- étiquetés et les données étiquetées l'original. Nous considérons applications à l'image-texte et la classification de documents multilingues. Dans la deuxième approche , nous proposons un modèle du ranking bipartite semi-supervisé multivues qui nous permet de tirer parti de l'information contenue dans ensembles non-étiquetées d'images pour améliorer les performances de prédiction , en utilisant plusieurs descriptions ou des vues d'images. Pour chaque catégorie de sujet , notre approche apprend d'abord autant rankers spécifique à la vue qu'il ya de vues disponibles en utilisant les données étiquetées seulement. Ces rankers sont ensuite améliorées itérativement en ajoutant paires d'exemples pseudo- étiquetés sur lesquels tous les rankers spécifiques à la vue sont d'accord sur le classement des exemples au sein de ces couples
In this thesis, we introduce two multiview learning approaches. In a first approach, we describe a self-training multiview strategy which trains different voting classifiers on different views. The margin distributions over the unlabeled training data, obtained with each view-specific classifier are then used to estimate an upper-bound on their transductive Bayes error. Minimizing this upper-bound provides an automatic margin-threshold which is used to assign pseudo-labels to unlabeled examples. Final class labels are then assigned to these examples, by taking a vote on the pool of the previous pseudo-labels. New view-specific classifiers are then trained using the original labeled and the pseudo-labeled training data. We consider applications to image-text and to multilingual document classification. In second approach, we propose a multiview semi-supervised bipartite ranking model which allows us to leverage the information contained in unlabeled sets of images to improve the prediction performance, using multiple descriptions, or views of images. For each topic class, our approach first learns as many view-specific rankers as there are available views using the labeled data only. These rankers are then improved iteratively by adding pseudo-labeled pairs of examples on which all view-specific rankers agree over the ranking of examples within these pairs
48

Sorici, Alexandru. "Un Intergiciel de Gestion du Contexte basé Multi-Agent pour les Applications d'Intelligence Ambiante." Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0790/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexité et l'ampleur des scénarios de l'Intelligence Ambiante impliquent que des attributs tels que l'expressivité de modelisation, la flexibilité de representation et de deploiement et la facilité de configuration et de developpement deviennent des caracteristiques centrales pour les systèmes de gestion de contexte. Cependant, les ouvrages existants semblent explorer ces attributs orientés-developpement a un faible degré.Notre objectif est de créer un intergiciel de gestion de contexte flexible et bien configurable, capable de répondre aux différents scenarios. A cette fin, notre solution est construite a base de techniques et principes du Web Semantique (WS) et des systèmes multi-agents (SMA).Nous utilisons le WS pour proposer un noveau meta-modèle de contexte, permettant une modelisation expressive et extensible du contenu, des meta-proprietés (e.g. validité temporelle, parametres de qualité) et des dépendances (e.g. les contraintes d'integrité) du contexte.De plus, une architecture a base de SMA et des composants logiciels, ou chaque agent encapsule un aspect fonctionnel du processus de gestion de contexte (acquisition, coordination, diffusion, utilisation) est developpée.Nous introduisons un nouveau moyen de structurer le deploiement d'agents selon les dimensions du modèle de contexte de l'application et nous elaborons des politiques déclaratives gouvernant le comportement d'adaptation du provisionnement contextuel des agents. Des simulations d'un scenario d'université intelligente montrent que un bon outillage construit autour de notre intergiciel peut apporter des avantages significatifs dans la génie des applications sensibles au contexte
The complexity and magnitude of Ambient Intelligence scenarios imply that attributes such as modeling expressiveness, flexibility of representation and deployment, as well as ease of configuration and development become central features for context management systems.However, existing works in the literature seem to explore these development-oriented attributes at a low degree.Our goal is to create a flexible and well configurable context management middleware, able to respond to different scenarios. To this end, our solution is built on the basis of principles and techniques of the Semantic Web and Multi-Agent Systems.We use the Semantic Web to provide a new context meta-model, allowing for an expressive and extensible modeling of content, meta-properties (e.g. temporal validity, quality parameters) and dependencies (e.g. integrity constraints).In addition, we develop a middleware architecture that relies on Multi-Agent Systems and a service component based design. Each agent of the system encapsulates a functional aspect of the context provisioning processes (acquisition, coordination, distribution, use).We introduce a new way to structure the deployment of agents depending on the multi-dimensionality aspects of the application's context model. Furthermore, we develop declarative policies governing the adaptation behavior of the agents managing the provisioning of context information.Simulations of an intelligent university scenario show that appropriate tooling built around our middleware can provide significant advantages in the engineering of context-aware applications
49

Rossit, Julien. "Fusion d'informations incertaines sans commensurabilité des échelles de référence." Thesis, Artois, 2009. http://www.theses.fr/2009ARTO0405/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème de fusion d’informations survient dès qu’il faut prendre en compte des bases de données distribuées, des systèmes multi-agents ou des informations distribuées en général. La plupart des approches de fusion proposées dans la littérature reposent sur des opérateurs d'agrégation : ceux-ci combinent les degrés de cohérence des différentes interprétations vis-à-vis des sources à fusionner, eux-même fortement dépendants des poids que ces sources accordent à leurs propres croyances. Mais lorsque les sources ne partagent pas une signification commune des poids qu'elles utilisent, quel sens cela a-t-il de comparer ou d'agréger ces mêmes poids ? Ainsi, nous étudions dans cette thèse différentes approches de fusion de croyances en l'absence de commensurabilité des échelles utilisées. Nous proposons tout d'abord une première méthode, reposant sur la notion d'échelle compatible, que nous appliquons à des opérateurs basés sur la somme et sur le maximum. Les opérateurs résultants peuvent être caractérisés au moyen d’un ensemble infini d’échelles compatibles, mais également au moyen de relations de type Pareto sur l’ensemble des mondes possibles. Puis nous étudions plus particulièrement certaines familles d’échelles compatibles afin de caractériser des opérateurs moins prudents et prenant en compte l'intensité des poids. Nous fournissons une analyse complète de la production des inférences et de la rationalité des opérateurs de fusion définis. En particulier, nous proposons la notion de consensus, souhaitable en l'absence de l'hypothèse de commensurabilité et vérifiée par la plupart de nos opérateurs
The problem of merging multiple-source information is crucial for many applications, in particular when one requires to take into account several potentially conflicting pieces of information, such as distributed databases frameworks, multi-agent systems, or distributed information in general. The relevant pieces of information are provided by different sources and all existing pieces of information have to be confronted to obtain a global and coherent point of view. This problem is well-known as the data fusion problem. Most of existing merging methods are based on the following assumption: ranks associated with beliefs are commensurable from one source to another. This commensurability assumption can be too strong for several applications: comparing or combining ranks does not make sense if sources do not share the same meaning of scales. This thesis proposes different solutions to the problem of incommensurability for ranked beliefs merging. Our first main contribution consists of proposing a natural way to restore commensurability relying on the notion of compatible scales. The second one directly defines a partial pre-order between interpretations in a way similar to the one based on the Pareto criterion. Moreover, this thesis introduces several inference relations based on some selection functions of compatible scales. We analyze the impact of these selection functions on the satisfaction of rational postulates, and on the prudence of merging operators. In particular we introduce a stronger version of the fairness postulate, called the consensus postulate. We show that most of our defined merging operators constitute consensual approaches
50

Anseur, Ouardia. "Usages et besoins en information des agriculteurs en Algérie." Thesis, Lyon 2, 2009. http://www.theses.fr/2009LYO20059/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement de la recherche scientifique, jumelé à celui des TIC, a donné naissance à la société de la connaissance qui est la nôtre. Au même titre que les matières premières, le capital intellectuel, est source de développement et d’innovation, à condition de l’organiser au travers de mécanismes évitant sa dispersion pour favoriser l’émergence d’une intelligence collective. Sur la base des résultats d’une enquête, cette étude se propose de mesurer le niveau d’intégration de la connaissance dans la stratégie de développement du secteur agricole algérien. Les résultats présentés mettent en évidence que les cloisonnements entre les différents acteurs producteurs de connaissance et/ou d’information ne favorisent pas la mutualisation et les synergies. Dans ce contexte, l’Observatoire de la recherche agricole en Algérie, en cours de développement, prend toute sa place ; il vise à faire converger sur une plate forme unique, les principales sources d’information et de savoirs du secteur
The development of scientific research, related with TIC, has given rise to the knowledge society, which is ours. As well as raw materials, intellectual capital is a source of development and innovation, provided its organization through avoiding dispersal mechanisms to favour the emergence of a collective intelligence.The author of this study, on the basis of the results inquest, wanted to measure the level of the knowledge integration in the development strategy of the agricultural sector in Algeria.The results presented highlight that the partitioning between the different actors producers of knowledge and/or information do not sub serves the mutualisation and synergy.In this context, the observatory of agricultural research in Algeria, under development, takes all its place; aiming to converge on a single platform, the main sources of information and knowledge sector

To the bibliography