Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Intelligence artificielle (IA) embarquée.

Dissertationen zum Thema „Intelligence artificielle (IA) embarquée“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-18 Dissertationen für die Forschung zum Thema "Intelligence artificielle (IA) embarquée" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Mainsant, Marion. „Apprentissage continu sous divers scénarios d'arrivée de données : vers des applications robustes et éthiques de l'apprentissage profond“. Electronic Thesis or Diss., Université Grenoble Alpes, 2023. http://www.theses.fr/2023GRALS045.

Der volle Inhalt der Quelle
Annotation:
Le cerveau humain reçoit en continu des informations en provenance de stimuli externes. Il a alors la capacité de s’adapter à de nouvelles connaissances tout en conservant une mémoire précise de la connaissance apprise par le passé. De plus en plus d’algorithmes d’intelligence artificielle visent à apprendre des connaissances à la manière d’un être humain. Ils doivent alors être mis à jour sur des données variées arrivant séquentiellement et disponibles sur un temps limité. Cependant, un des verrous majeurs de l’apprentissage profond réside dans le fait que lors de l’apprentissage de nouvelles connaissances, les anciennes sont quant-à-elles perdues définitivement, c’est ce que l’on appelle « l’oubli catastrophique ». De nombreuses méthodes ont été proposées pour répondre à cette problématique, mais celles-ci ne sont pas toujours applicables à une mise en situation réelle car elles sont construites pour obtenir les meilleures performances possibles sur un seul scénario d’arrivée de données à la fois. Par ailleurs, les meilleures méthodes existant dans l’état de l’art sont la plupart du temps ce que l’on appelle des méthodes à « rejeu de données » qui vont donc conserver une petite mémoire du passé, posant ainsi un problème dans la gestion de la confidentialité des données ainsi que dans la gestion de la taille mémoire disponible.Dans cette thèse, nous proposons d’explorer divers scénarios d’arrivée de données existants dans la littérature avec, pour objectif final, l’application à la reconnaissance faciale d’émotion qui est essentielle pour les interactions humain-machine. Pour cela nous présenterons l’algorithme Dream Net – Data-Free qui est capable de s’adapter à un vaste nombre de scenarii d’arrivée des données sans stocker aucune donnée passée. Cela lui permet donc de préserver la confidentialité des données apprises. Après avoir montré la robustesse de cet algorithme comparé aux méthodes existantes de l’état de l’art sur des bases de données classiques de la vision par ordinateur (Mnist, Cifar-10, Cifar-100 et Imagenet-100), nous verrons qu’il fonctionne également sur des bases de données de reconnaissance faciale d’émotions. En s’appuyant sur ces résultats, nous proposons alors un démonstrateur embarquant l’algorithme sur une carte Nvidia Jetson nano. Enfin nous discuterons la pertinence de notre approche pour la réduction des biais en intelligence artificielle ouvrant ainsi des perspectives vers une IA plus robuste et éthique
The human brain continuously receives information from external stimuli. It then has the ability to adapt to new knowledge while retaining past events. Nowadays, more and more artificial intelligence algorithms aim to learn knowledge in the same way as a human being. They therefore have to be able to adapt to a large variety of data arriving sequentially and available over a limited period of time. However, when a deep learning algorithm learns new data, the knowledge contained in the neural network overlaps old one and the majority of the past information is lost, a phenomenon referred in the literature as catastrophic forgetting. Numerous methods have been proposed to overcome this issue, but as they were focused on providing the best performance, studies have moved away from real-life applications where algorithms need to adapt to changing environments and perform, no matter the type of data arrival. In addition, most of the best state of the art methods are replay methods which retain a small memory of the past and consequently do not preserve data privacy.In this thesis, we propose to explore data arrival scenarios existing in the literature, with the aim of applying them to facial emotion recognition, which is essential for human-robot interactions. To this end, we present Dream Net - Data-Free, a privacy preserving algorithm, able to adapt to a large number of data arrival scenarios without storing any past samples. After demonstrating the robustness of this algorithm compared to existing state-of-the-art methods on standard computer vision databases (Mnist, Cifar-10, Cifar-100 and Imagenet-100), we show that it can also adapt to more complex facial emotion recognition databases. We then propose to embed the algorithm on a Nvidia Jetson nano card creating a demonstrator able to learn and predict emotions in real-time. Finally, we discuss the relevance of our approach for bias mitigation in artificial intelligence, opening up perspectives towards a more ethical AI
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Blachon, David. „Reconnaissance de scènes multimodale embarquée“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM001/document.

Der volle Inhalt der Quelle
Annotation:
Contexte : Cette thèse se déroule dans les contextes de l'intelligence ambiante et de la reconnaissance de scène (sur mobile). Historiquement, le projet vient de l'entreprise ST-Ericsson. Il émane d'un besoin de développer et intégrer un "serveur de contexte" sur smartphone capable d'estimer et de fournir des informations de contexte pour les applications tierces qui le demandent. Un exemple d'utilisation consiste en une réunion de travail où le téléphone sonne~; grâce à la reconnaissance de la scène, le téléphone peut automatiquement réagir et adapter son comportement, par exemple en activant le mode vibreur pour ne pas déranger.Les principaux problèmes de la thèse sont les suivants : d'abord, proposer une définition de ce qu'est une scène et des exemples de scènes pertinents pour l'application industrielle ; ensuite, faire l'acquisition d'un corpus de données à exploiter par des approches d'apprentissage automatique~; enfin, proposer des solutions algorithmiques au problème de la reconnaissance de scène.Collecte de données : Aucune des bases de données existantes ne remplit les critères fixés (longs enregistrements continus, composés de plusieurs sources de données synchronisées dont l'audio, avec des annotations pertinentes).Par conséquent, j'ai développé une application Android pour la collecte de données. L'application est appelée RecordMe et a été testé avec succès sur plus de 10 appareils. L'application a été utilisée pour 2 campagnes différentes, incluant la collecte de scènes. Cela se traduit par plus de 500 heures enregistrées par plus de 25 bénévoles, répartis principalement dans la région de Grenoble, mais aussi à l'étranger (Dublin, Singapour, Budapest). Pour faire face au problème de protection de la vie privée et de sécurité des données, des mesures ont été mises en place dans le protocole et l'application de collecte. Par exemple, le son n'est pas sauvegardé, mes des coefficients MFCCs sont enregistrés.Définition de scène : L'étude des travaux existants liés à la tâche de reconnaissance de scène, et l'analyse des annotations fournies par les bénévoles lors de la collecte de données, ont permis de proposer une définition d'une scène. Elle est définie comme la généralisation d'une situation, composée d'un lieu et une action effectuée par une seule personne (le propriétaire du smartphone). Des exemples de scènes incluent les moyens de transport, la réunion de travail, ou le déplacement à pied dans la rue. La notion de composition permet de décrire la scène avec plusieurs types d'informations. Cependant, la définition est encore trop générique, et elle pourrait être complétée par des informations additionnelles, intégrée à la définition comme de nouveaux éléments de la composition.Algorithmique : J'ai réalisé plusieurs expériences impliquant des techniques d'apprentissage automatique supervisées et non non-supervisées. La partie supervisée consiste en de la classification. La méthode est commune~: trouver des descripteurs des données pertinents grâce à l'utilisation d'une méthode de sélection d'attribut ; puis, entraîner et tester plusieurs classifieurs (arbres de décisions et forêt d'arbres décisionnels ; GMM ; HMM, et DNN). Également, j'ai proposé un système à 2 étages composé de classifieurs formés pour identifier les concepts intermédiaires et dont les prédictions sont fusionnées afin d'estimer la scène la plus probable. Les expérimentations non-supervisées visent à extraire des informations à partir des données. Ainsi, j'ai appliqué un algorithme de regroupement hiérarchique ascendant, basé sur l'algorithme EM, sur les données d'accélération et acoustiques considérées séparément et ensemble. L'un des résultats est la distinction des données d'accélération en groupes basés sur la quantité d'agitation
Context: This PhD takes place in the contexts of Ambient Intelligence and (Mobile) Context/Scene Awareness. Historically, the project comes from the company ST-Ericsson. The project was depicted as a need to develop and embed a “context server” on the smartphone that would get and provide context information to applications that would require it. One use case was given for illustration: when someone is involved in a meeting and receives a call, then thanks to the understanding of the current scene (meet at work), the smartphone is able to automatically act and, in this case, switch to vibrate mode in order not to disturb the meeting. The main problems consist of i) proposing a definition of what is a scene and what examples of scenes would suit the use case, ii) acquiring a corpus of data to be exploited with machine learning based approaches, and iii) propose algorithmic solutions to the problem of scene recognition.Data collection: After a review of existing databases, it appeared that none fitted the criteria I fixed (long continuous records, multi-sources synchronized records necessarily including audio, relevant labels). Hence, I developed an Android application for collecting data. The application is called RecordMe and has been successfully tested on 10+ devices, running Android 2.3 and 4.0 OS versions. It has been used for 3 different campaigns including the one for scenes. This results in 500+ hours recorded, 25+ volunteers were involved, mostly in Grenoble area but abroad also (Dublin, Singapore, Budapest). The application and the collection protocol both include features for protecting volunteers privacy: for instance, raw audio is not saved, instead MFCCs are saved; sensitive strings (GPS coordinates, device ids) are hashed on the phone.Scene definition: The study of existing works related to the task of scene recognition, along with the analysis of the annotations provided by the volunteers during the data collection, allowed me to propose a definition of a scene. It is defined as a generalisation of a situation, composed of a place and an action performed by one person (the smartphone owner). Examples of scenes include taking a transportation, being involved in a work meeting, walking in the street. The composition allows to get different kinds of information to provide on the current scene. However, the definition is still too generic, and I think that it might be completed with additionnal information, integrated as new elements of the composition.Algorithmics: I have performed experiments involving machine learning techniques, both supervised and unsupervised. The supervised one is about classification. The method is quite standard: find relevant descriptors of the data through the use of an attribute selection method. Then train and test several classifiers (in my case, there were J48 and Random Forest trees ; GMM ; HMM ; and DNN). Also, I have tried a 2-stage system composed of a first step of classifiers trained to identify intermediate concepts and whose predictions are merged in order to estimate the most likely scene. The unsupervised part of the work aimed at extracting information from the data, in an unsupervised way. For this purpose, I applied a bottom-up hierarchical clustering, based on the EM algorithm on acceleration and audio data, taken separately and together. One of the results is the distinction of acceleration into groups based on the amount of agitation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Chamberland, Simon. „Deux investigations en IA : contrôler les déplacements d'un robot mobile et coordonner les décisions d'une IA pour les jeux“. Mémoire, Université de Sherbrooke, 2013. http://savoirs.usherbrooke.ca/handle/11143/45.

Der volle Inhalt der Quelle
Annotation:
L’intelligence artificielle est un domaine de l’informatique étudiant la conception d’agents intelligents. Un agent est une entité acquérant de l’information sur son environnement par ses capteurs et agissant sur son environnement à travers ses actionneurs. Certains agents existent seulement dans le domaine logiciel, comme par exemple un agent intelligent pour un jeu vidéo, alors que d’autres existent dans le monde physique, tels les robots mobiles. Les domaines des jeux vidéo et de la robotique partagent certaines caractéristiques, dont la nécessité de prendre des décisions en temps réel dans un environnement dynamique ainsi qu’une vue incomplète sur cet environnement. Ce mémoire est divisé en deux chapitres. Le premier chapitre traite d’une approche de planification de trajectoires exploitant la géométrie d’une classe particulière de robots omnidirectionnels non-holonomes afin de calculer des chemins adéquats leur permettant d’atteindre une destination désirée. Les résultats obtenus avec cette approche tendent à démontrer qu’elle est plus efficace que les algorithmes traditionnels de planification de trajectoires grâce à l’information additionnelle prise en compte lors du calcul. Le second chapitre décrit l’architecture décisionnelle de l’agent intelligent SPAR qui est en mesure de jouer de façon autonome des parties de StarCraft : Brood War, un jeu de stratégie en temps réel. L’architecture de SPAR inclut entre autres des algorithmes de planification de trajectoires similaires à ceux du premier chapitre. Elle permet de faire face plus facilement et de façon plus rigoureuse, en comparaison avec les architectures existantes, aux nombreuses difficultés propres à ce type de jeu. Ces difficultés incluent un degré élevé de concurrence dans les actions et une multitude d’unités à contrôler dans un contexte temps réel. L’agent SPAR a participé aux volets 2011 et 2012 de la compétition AIIDE de StarCraft et à l’édition 2012 de la compétition SSCAI où il a obtenu à chaque fois des résultats honorables.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Chamberland, Simon. „Deux investigations en IA : contr??ler les d??placements d'un robot mobile et coordonner les d??cisions d'une IA pour les jeux“. Mémoire, Universit?? de Sherbrooke, 2013. http://savoirs.usherbrooke.ca/handle/11143/45.

Der volle Inhalt der Quelle
Annotation:
L???intelligence artificielle est un domaine de l???informatique ??tudiant la conception d???agents intelligents. Un agent est une entit?? acqu??rant de l???information sur son environnement par ses capteurs et agissant sur son environnement ?? travers ses actionneurs. Certains agents existent seulement dans le domaine logiciel, comme par exemple un agent intelligent pour un jeu vid??o, alors que d???autres existent dans le monde physique, tels les robots mobiles. Les domaines des jeux vid??o et de la robotique partagent certaines caract??ristiques, dont la n??cessit?? de prendre des d??cisions en temps r??el dans un environnement dynamique ainsi qu???une vue incompl??te sur cet environnement. Ce m??moire est divis?? en deux chapitres. Le premier chapitre traite d???une approche de planification de trajectoires exploitant la g??om??trie d???une classe particuli??re de robots omnidirectionnels non-holonomes afin de calculer des chemins ad??quats leur permettant d???atteindre une destination d??sir??e. Les r??sultats obtenus avec cette approche tendent ?? d??montrer qu???elle est plus efficace que les algorithmes traditionnels de planification de trajectoires gr??ce ?? l???information additionnelle prise en compte lors du calcul. Le second chapitre d??crit l???architecture d??cisionnelle de l???agent intelligent SPAR qui est en mesure de jouer de fa??on autonome des parties de StarCraft : Brood War, un jeu de strat??gie en temps r??el. L???architecture de SPAR inclut entre autres des algorithmes de planification de trajectoires similaires ?? ceux du premier chapitre. Elle permet de faire face plus facilement et de fa??on plus rigoureuse, en comparaison avec les architectures existantes, aux nombreuses difficult??s propres ?? ce type de jeu. Ces difficult??s incluent un degr?? ??lev?? de concurrence dans les actions et une multitude d???unit??s ?? contr??ler dans un contexte temps r??el. L???agent SPAR a particip?? aux volets 2011 et 2012 de la comp??tition AIIDE de StarCraft et ?? l?????dition 2012 de la comp??tition SSCAI o?? il a obtenu ?? chaque fois des r??sultats honorables.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Nabholtz, Franz-Olivier. „Problématisation prospective des stratégies de la singularité“. Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCB019.

Der volle Inhalt der Quelle
Annotation:
De la mondialisation à la globalisation, de la modernité à la postmodernité, de l"humain au transhumain : - la révolution numérique et technologique fait émerger des enjeux qui imprègnent notre quotidien au-delà même de ce que le sens commun peut imaginer. La massification des données, analysée comme la résultante d'une hyper-connectivité, liée à une convergence « big data-intelligence artificielle » pose la question de sa juste utilisation et répartition entre des acteurs privés très volontaristes (GAFA) et des institutions publics pour le moins dépassées, quant aux principes d'efficacité rationnelle représentant l'une des caractéristiques des datas. Une caractéristique prédictive qui correspond donc à un besoin vital des états. Une société humaine qui disposerait des connaissances précises de sa situation, pourrait faire des choix rationnels en fonction de scénarios prédictifs et n'agirait plus de la même façon et ne se normaliserait plus de la même façon. Si nous rejetons le transhumanisme dans sa dimension idéologique, nous prenons pour acquises les dimensions conceptuelles de la théorie dite de la singularité que nous problématisons dans ce travail par une analyse de l'information propre à une démarche d'intelligence économique, au-delà même de la pensée commune et d'un consensus hérité d'une école de pensée déductive qui s'est affirmée par la démonstration et imposée par une forme d'idéologie qui existe partout, si ce n'est dans les sciences sociales. La pensée inductive, dont la caractéristique première est la corrélation à vocation prédictive, verrait l'élaboration de scénarios probabilistes multidisciplinaires, audacieux et propres à la science politique, dont l'idée principale serait de détecter et d'anticiper, à l'instar de la médecine prédictive (c'est ce que nous dit la singularité), les grandes tendances sociétales et politiques futures. Cependant, la nature de ces travaux devra faire l'objet d'une indépendance totale. Le processus d'exploitation du big data par le biais d'algorithmes, hors processus traditionnels de validation scientifique, prendra appui sur un modèle nouveau, dans lequel la démonstration de la cause prendra sans doute une dimension quantique ou synaptique dans un futur proche, analysé ainsi, comme singulier
From past world to globalization, from modernity to postmodernity, from the human to the transhuman: - the digital and technological revolution brings out issues that permeate our daily lives beyond even what common sense can imagine. The massification of data, analyzed as the result of a hyper-connectivity, linked to a convergence "big data-artificial intelligence" raises the question of its fair use and distribution between highly voluntary private actors (GAFA) and public institutions for the least outdated, as to the principles of rational efficiency representing one of the characteristics of datas. A predictive characteristic that corresponds to a vital need of states. A human society with specific knowledge of its situation could make rational choices based on predictive scenarios and would no longer behave in the same way and no longer normalize in the same way. If we reject transhumanism in its ideological dimension, we take for granted the conceptual dimensions of the theory of singularity that we problematize in this work by an analysis of information specific to an approach of economic intelligence, even beyond of common thought and consensus inherited from a deductive school of thought that has been affirmed by demonstration and imposed by a form of ideology that exists everywhere, if not in social sciences. Inductive thinking, whose primary characteristic is predictive correlation, would see the development of probabilistic, multidisciplinary, bold and peculiar political science scenarios, the main idea of which would be to detect and anticipate, as predictive medicine (this is what singularity tells us), major societal and political future trends. However, the nature of this work will have to be fully independent. The process of exploiting big data by means of algorithms, outside traditional processes of scientific validation, will be based on a new model, in which the proof of the cause will undoubtedly take on a quantum or synaptic dimension in a near future, analyzed thus, as singular
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Ayats, H. Ambre. „Construction de graphes de connaissances à partir de textes avec une intelligence artificielle explicable et centrée-utilisateur·ice“. Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. http://www.theses.fr/2023URENS095.

Der volle Inhalt der Quelle
Annotation:
Avec les progrès récents dans le domaine de l'intelligence artificielle, la question du contrôle humain est devenu centrale. Aujourd'hui, cela passe à la fois par des recherches en explicabilité et des systèmes centrés autour de l'interaction avec l'utilisateur·ice. De plus, avec l'expansion du web sémantique et des méthodes de traitement automatique du langage naturelle, la tâche de construction de graphes de connaissances à partir de textes est devenu un enjeu important. Cette thèse présente un système centré-utilisateur·ice pour la construction de graphes de connaissances à partir de textes. Cette thèse présente plusieurs contributions. Tout d'abord, nous introduisons un workflow centré-utilisateur·ice pour la tâche sus-citée, ayant la propriété d'automatiser progressivement les actions de l'utilisateur·ice tout en lui laissant un contrôle fin du résultat. Ensuite, nous présentons nos apports dans le domaine de l'analyse de concepts formels, utilisés afin de concevoir un module d'apprentissage fainéant et explicable pour la tâche de classification de relations. Enfin, nous présentons nos apports dans le domaine de l'extraction de relations, et comment ces apports s'inscrivent dans le workflow présenté précédemment
With recent advances in artificial intelligence, the question of human control has become central. Today, this involves both research into explainability and designs centered around interaction with the user. What's more, with the expansion of the semantic web and automatic natural language processing methods, the task of constructing knowledge graphs from texts has become an important issue. This thesis presents a user-centered system for the construction of knowledge graphs from texts. This thesis presents several contributions. First, we introduce a user-centered workflow for the aforementioned task, having the property of progressively automating the user's actions while leaving them a fine-grained control over the outcome. Next, we present our contributions in the field of formal concept analysis, used to design an explainable instance-based learning module for relation classification. Finally, we present our contributions in the field of relation extraction, and how these fit into the presented workflow
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Robert, Gabriel. „MHiCS, une architecture de sélection de l'action motivationnelle et hiérarchique à systèmes de classeurs pour personnages non joueurs adaptatifs“. Paris 6, 2005. http://www.theses.fr/2005PA066165.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Afchar, Darius. „Interpretable Music Recommender Systems“. Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS608.

Der volle Inhalt der Quelle
Annotation:
« Pourquoi est-ce qu’on me recommande toujours les même musiques ? » « Pourquoi notre système recommande-t’il cela aux utilisateurs ? » De nos jours, les plateformes de streaming sont le moyen le plus courant d'écouter de la musique enregistrée. Pourtant, les recommandations musicales — au cœur de ces plateformes — sont loin d’être une mince affaire. Il arrive parfois qu’utilisateurs et ingénieurs soient tout aussi perplexes du comportement d’un système de recommandation musicale (SRM). Les SRM ont été utilisés avec succès pour aider à explorer des catalogues comptant des dizaines de millions de titres musicaux. Construits et optimisés pour la précision, les SRM industriels sont souvent assez complexes. Ils peuvent en outre dépendre de nombreux modules interconnectés qui, notamment, analysent les signaux audio, récupèrent les métadonnées d’albums et artistes et les interactions des utilisateurs du service, et estiment des similarités basées sur du filtrage collaboratif. Cette complexité va en l’encontre de la capacité d'expliquer les recommandations et, plus généralement, ces systèmes. Pourtant, les explications sont essentielles pour fidéliser des utilisateurs sur le long termes avec un système qu'ils peuvent comprendre (et pardonner), et pour les propriétaires du système pour rationaliser les erreurs dudit système. L'interprétabilité peut également être nécessaire pour vérifier l'équité d'une décision ou peut être envisagées comme un moyen de rendre les recommandations plus contrôlables. Nous pouvons également récursivement demander : pourquoi une méthode d'explication explique-t-elle d'une certaine manière ? Cette explication est-elle pertinente ? Quelle pourrait être une meilleure explication ? Toutes ces questions sont liées à l'interprétabilité des SRM. Dans une première partie, nous explorons les multiples visages de l'interprétabilité dans diverses tâches de recommandation. En effet, puisqu'il n'y a pas une seule tâche de recommandation mais plusieurs (e.g., recommandation séquentielle, continuation de playlists, similarité artistes), ainsi que de nombreuses modalités de représentation de la musique (e.g., métadonnées, signaux audio, plongements), il y a autant de tâches possibles d’explications nécessitant des ajustements. Notre étude a été guidée par l’exploration des modalités sus-mentionnées : l'interprétation des signaux implicites utilisateurs, des caractéristiques, des signaux audio, et des inter-similarités. Notre thèse présente plusieurs nouvelles méthodes pour l'IA explicable (XAI) et plusieurs résultats théoriques, portant un nouvel éclairage sur notre compréhension des méthodes passées. Néanmoins, les méthodes d’explications peuvent à leur tour manquer d'interprétabilité. C'est pourquoi, une deuxième partie, nous avons jugé essentiel de prendre du recul par rapport aux discours habituels de l’IA et d'essayer de répondre à une question paradoxalement peu claire pour l’XAI : « Qu'est-ce que l'interprétabilité ? » En s'appuyant sur des concepts issus des sciences sociales, nous soulignons qu'il existe un décalage entre la manière dont les explications de l'XAI sont générées et la manière dont les humains expliquent réellement. Nous suggérons que la recherche actuelle a tendance à trop s'appuyer sur des intuitions et des réductions hâtive de réalités complexes en termes mathématiques commodes, conduisant à ériger des hypothèses en normes discutables (e.g., la parcimonie entraîne l'interprétabilité). Nous avons pensé cette partie comme un tutoriel destiné aux chercheurs en IA afin de renforcer leur connaissance des explications avec un vocabulaire précis et une perspective plus large. Nous résumons des conseils pratiques et mettons en évidence des branches moins populaires de l'XAI mieux alignées avec l’humain. Cela nous permet de formuler une perspective globale pour notre domaine de l'XAI, y compris ses prochaines étapes les plus critiques et prometteuses ainsi que ses lacunes à surmonter
‘‘Why do they keep recommending me this music track?’’ ‘‘Why did our system recommend these tracks to users?’’ Nowadays, streaming platforms are the most common way to listen to recorded music. Still, music recommendations — at the heart of these platforms — are not an easy feat. Sometimes, both users and engineers may be equally puzzled about the behaviour of a music recommendation system (MRS). MRS have been successfully employed to help explore catalogues that may be as large as tens of millions of music tracks. Built and optimised for accuracy, real-world MRS often end up being quite complex. They may further rely on a range of interconnected modules that, for instance, analyse audio signals, retrieve metadata about albums and artists, collect and aggregate user feedbacks on the music service, and compute item similarities with collaborative filtering. All this complexity hinders the ability to explain recommendations and, more broadly, explain the system. Yet, explanations are essential for users to foster a long-term engagement with a system that they can understand (and forgive), and for system owners to rationalise failures and improve said system. Interpretability may also be needed to check the fairness of a decision or can be framed as a means to control the recommendations better. Moreover, we could also recursively question: Why does an explanation method explain in a certain way? Is this explanation relevant? What could be a better explanation? All these questions relate to the interpretability of MRSs. In the first half of this thesis, we explore the many flavours that interpretability can have in various recommendation tasks. Indeed, since there is not just one recommendation task but many (e.g., sequential recommendation, playlist continuation, artist similarity), as well as many angles through which music may be represented and processed (e.g., metadata, audio signals, embeddings computed from listening patterns), there are as many settings that require specific adjustments to make explanations relevant. A topic like this one can never be exhaustively addressed. This study was guided along some of the mentioned modalities of musical objects: interpreting implicit user logs, item features, audio signals and similarity embeddings. Our contribution includes several novel methods for eXplainable Artificial Intelligence (XAI) and several theoretical results, shedding new light on our understanding of past methods. Nevertheless, similar to how recommendations may not be interpretable, explanations about them may themselves lack interpretability and justifications. Therefore, in the second half of this thesis, we found it essential to take a step back from the rationale of ML and try to address a (perhaps surprisingly) understudied question in XAI: ‘‘What is interpretability?’’ Introducing concepts from philosophy and social sciences, we stress that there is a misalignment in the way explanations from XAI are generated and unfold versus how humans actually explain. We highlight that current research tends to rely too much on intuitions or hasty reduction of complex realities into convenient mathematical terms, which leads to the canonisation of assumptions into questionable standards (e.g., sparsity entails interpretability). We have treated this part as a comprehensive tutorial addressed to ML researchers to better ground their knowledge of explanations with a precise vocabulary and a broader perspective. We provide practical advice and highlight less popular branches of XAI better aligned with human cognition. Of course, we also reflect back and recontextualise our methods proposed in the previous part. Overall, this enables us to formulate some perspective for our field of XAI as a whole, including its more critical and promising next steps as well as its shortcomings to overcome
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Dubus, Georges. „Transformation de programmes logiques : application à la personnalisation et à la personnification d’agents“. Thesis, Supélec, 2014. http://www.theses.fr/2014SUPL0017/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'intéresse à la personnalisation et à la personnification d'agents intelligents dans le cadre d'applications web. Les techniques de personnalisation et de personnification sont de plus en plusutilisées pour mieux répondre aux besoins des utilisateurs. La plupart de ces techniques reposent sur des outils de raisonnement issus de l'intelligence artificielle. Cependant, ces techniques sont habituellement utilisés de manière ad-hoc pour chaque application. L'approche de cette thèse est de considérer la personnalisation et la personnification comme deux instances d'altération de comportement, et à étudier l'altération du comportements d'agents rationnels. Les principales contributions sont WAIG, un formalisme basé sur le langage Golog adapté à l'expression d'applications web, et PAGE, un cadre formel pour la manipulation et l'altération de programmes agents Golog, permettant la transformation automatique d'agent selon un critère donné. Ces contributions sont illustrés par plusieurs scénarios concrets issus des domaines de la personnalisation et de la personnification
This thesis deals with personalization and personification of rational agents within the framework of web applications. Personalization and personification techniques are more and more used to answer the needs of users. Most of those techniques are based on reasoning tools that come from the artificial inteligence field. However, those techniques are usually used in an ad-hoc way for each application. The approach of this thesis is to consider personaliaation and personification as two instances of alteration of behaviour, and to study the alteration of the behaviours of rational agents. The main contributions are WAIG, a formalism for the expression of web applications based on the agent programming language Golog, and PAGE, a formal framework for the manipulation and the alteration of Golog agent programs, which allow to transform an agent automatically following a given criterion. Those contributions are illustrated by concrete scenarios from the fields of personalization and personification
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Wang, Olivier. „Adaptive Rules Model : Statistical Learning for Rule-Based Systems“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX037/document.

Der volle Inhalt der Quelle
Annotation:
Les Règles Métiers (Business Rules en anglais, ou BRs) sont un outil communément utilisé dans l’industrie pour automatiser des prises de décisions répétitives. Le problème de l’adaptation de bases de règles existantes à un environnement en constante évolution est celui qui motive cette thèse. Des techniques existantes d’Apprentissage Automatique Supervisé peuvent être utilisées lorsque cette adaptation se fait en toute connaissance de la décision correcte à prendre en toute circonstance. En revanche, il n’existe actuellement aucun algorithme, qu’il soit théorique ou pratique, qui puisse résoudre ce problème lorsque l’information connue est de nature statistique, comme c’est le cas pour une banque qui souhaite contrôler la proportion de demandes de prêt que son service de décision automatique fait passer à des experts humains. Nous étudions spécifiquement le problème d’apprentissage qui a pour objectif d’ajuster les BRs de façon à ce que les décisions prises aient une valeur moyenne donnée.Pour ce faire, nous considérons les bases de Règles Métiers en tant que programmes. Après avoir formalisé quelques définitions et notations dans le Chapitre 2, le langage de programmation BR ainsi défini est étudié dans le Chapitre 4, qui prouve qu’il n’existe pas d’algorithme pour apprendre des Règles Métiers avec un objectif statistique dans le cas général. Nous limitons ensuite le champ d’étude à deux cas communs où les BRs sont limités d’une certaine façon : le cas Borné en Itérations dans lequel, quelles que soit les données d’entrée, le nombre de règles exécutées en prenant la décision est inférieur à une borne donnée ; et le cas Linéaire Borné en Itérations dans lequel les règles sont de plus écrite sous forme Linéaire. Dans ces deux cas, nous produisons par la suite un algorithme d’apprentissage basé sur la Programmation Mathématique qui peut résoudre ce problème. Nous étendons brièvement cette formalisation et cet algorithme à d’autres problèmes d’apprentissage à objectif statistique dans le Chapitre 5, avant de présenter les résultats expérimentaux de cette thèse dans le Chapitre 6
Business Rules (BRs) are a commonly used tool in industry for the automation of repetitive decisions. The emerging problem of adapting existing sets of BRs to an ever-changing environment is the motivation for this thesis. Existing Supervised Machine Learning techniques can be used when the adaptation is done knowing in detail which is the correct decision for each circumstance. However, there is currently no algorithm, theoretical or practical, which can solve this problem when the known information is statistical in nature, as is the case for a bank wishing to control the proportion of loan requests its automated decision service forwards to human experts. We study the specific learning problem where the aim is to adjust the BRs so that the decisions are close to a given average value.To do so, we consider sets of Business Rules as programs. After formalizing some definitions and notations in Chapter 2, the BR programming language defined this way is studied in Chapter 3, which proves that there exists no algorithm to learn Business Rules with a statistical goal in the general case. We then restrain the scope to two common cases where BRs are limited in some way: the Iteration Bounded case in which no matter the input, the number of rules executed when taking the decision is less than a given bound; and the Linear Iteration Bounded case in which rules are also all written in Linear form. In those two cases, we later produce a learning algorithm based on Mathematical Programming which can solve this problem. We briefly extend this theory and algorithm to other statistical goal learning problems in Chapter 5, before presenting the experimental results of this thesis in Chapter 6. The last includes a proof of concept to automate the main part of the learning algorithm which does not consist in solving a Mathematical Programming problem, as well as some experimental evidence of the computational complexity of the algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Marroquín, Cortez Roberto Enrique. „Context-aware intelligent video analysis for the management of smart buildings“. Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCK040/document.

Der volle Inhalt der Quelle
Annotation:
Les systèmes de vision artificielle sont aujourd'hui limités à l'extraction de données issues de ce que les caméras « voient ». Cependant, la compréhension de ce qu'elles voient peut être enrichie en associant la connaissance du contexte et la connaissance d'interprétation d'un humain.Dans ces travaux de thèse, nous proposons une approche associant des algorithmes de vision atificielle à une modélisation sémantique du contexte d'acquisition.Cette approche permet de réaliser un raisonnement sur la connaissance extraite des images par les caméras en temps réel. Ce raisonnement offre une réponse aux problèmes d'occlusion et d'erreurs de détections inhérents aux algorithmes de vision artificielle. Le système complet permet d'offrir un ensemble de services intelligents (guidage, comptage...) tout en respectant la vie privée des personnes observées. Ces travaux forment la première étape du développement d'un bâtiment intelligent qui peut automatiquement réagir et évoluer en observant l'activité de ces usagers, i.e., un bâtiment intelligent qui prend en compte les informations contextuelles.Le résultat, nommé WiseNET, est une intelligence artificielle en charge des décisions au niveau du bâtiment (qui pourrait être étendu à un groupe de bâtiments ou même a l'échelle d'un ville intelligente). Elle est aussi capable de dialoguer avec l'utilisateur ou l'administrateur humain de manière explicite
To date, computer vision systems are limited to extract digital data of what the cameras "see". However, the meaning of what they observe could be greatly enhanced by environment and human-skills knowledge.In this work, we propose a new approach to cross-fertilize computer vision with contextual information, based on semantic modelization defined by an expert.This approach extracts the knowledge from images and uses it to perform real-time reasoning according to the contextual information, events of interest and logic rules. The reasoning with image knowledge allows to overcome some problems of computer vision such as occlusion and missed detections and to offer services such as people guidance and people counting. The proposed approach is the first step to develop an "all-seeing" smart building that can automatically react according to its evolving information, i.e., a context-aware smart building.The proposed framework, named WiseNET, is an artificial intelligence (AI) that is in charge of taking decisions in a smart building (which can be extended to a group of buildings or even a smart city). This AI enables the communication between the building itself and its users to be achieved by using a language understandable by humans
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Chuquimia, Orlando. „Smart Vision Chip pour l’exploration du côlon“. Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS192.pdf.

Der volle Inhalt der Quelle
Annotation:
Le Cancer Colorectal (Cancer Colorectal (CCR)) est le deuxième le plus fréquent en terme de mortalité avec un taux de 47% (880 792 décès en 2018). 96% des CCR débutent par l’apparition d’une tumeur (un polype adénomateux) dans la paroi du côlon. La Capsule Endoscopique (CE), a été inventée par Paul Swain en 1990. Il s’agit d’une pilule intégrant une caméra et un système de radio communication, que le patient avale. Pendant cette procédure, la capsule transmet les images du tube digestif vers un boîtier externe via une communication par radiofréquence. Une fois toutes les images transmises, un médecin gastro-entérologue les télécharge pour réaliser une analyse visuelle et détecter les anomalies et les tumeurs. À l’aide de ce dispositif les médecins peuvent détecter des polypes, d’au moins 5 mm, avec une sensibilité et une spécificité respectivement de 68,8% et de 81,3%. Cette CE présente quelques limites et faiblesses liées à la résolution spatiale et temporelle des images, à son autonomie énergétique et au grand nombre d’images transmises que le gastro-entérologue doit analyser. Nous avons étudié la conception d’un système embarqué contenant une chaine de traitement capable de détecter des polypes et intégrée dans une capsule, créant un nouveau dispositif médical : une capsule endoscopique intelligente. Pour réaliser ce dispositif, nous avons pris en compte toutes les contraintes non fonctionnelles liées à l’intégration dans une capsule endoscopique. Ce dispositif pourrait ainsi être un nouvel outil de dépistage précoce des lésions pré-cancéreuses colorectales : les polypes
CCR is the second highest cause of death by cancer worldwide with 880,792 deaths in 2018 and a mortality rate of 47.6%. 95% of CCR cases begin with the presence of a growth on the inner lining of the colon or the rectum, called a polyp. The endoscopic capsule was invented by Paul Swain in 1990. It is a pill incorpo- rating a camera and a radio communication system that the patient swallows and transmit images from the gastrointestinal tract through the body in a workstation. Once all images are transmitted, a gastroenterologist downloads them to perform a visual analysis and detect abnormalities and tumors. Using this device doctors can detect polyps, at least 5 mm, with sensitivity and specificity respectively of 68.8% and 81.3%. This endoscopic capsule presents some limitations and weaknesses re- lated to the spatial and temporal resolution of images, its energy autonomy and the number of images transmitted to be analyzed by the gastroenterologist. We studied the design of an embedded system containing a processing chain capable of detecting polyps to be integrated into an endoscopic capsule, creating a new medical device: an intelligent endoscopic capsule. To realize this device, we took into account all the non-functional constraints related to the integration into an endoscopic capsule. This device must be a new tool for early detection of precancerous colorectal lesions : polyps
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Heurteau, Alexandre. „Etude bioinformatique intégrative : déterminants et dynamique des interactions chromosomiques à longue distance“. Electronic Thesis or Diss., Toulouse 3, 2019. http://www.theses.fr/2019TOU30343.

Der volle Inhalt der Quelle
Annotation:
Les protéines se liants aux insulateurs (IBPs) seraient impliquées dans la structuration tri-dimensionnelle des génomes en domaines topologiques (ou " TADs). Les TADs contribueraient notamment à séparer les compartiments inactifs/hétérochromatine et actifs/euchromatine. Les IBPs sont également capables de bloquer les contacts spécifiques entre les éléments activateurs ou "enhancers" d'un TAD et les promoteurs de gènes cibles présents dans un autre TAD. Ainsi, les insulateurs influenceraient l'expression des gènes selon plusieurs modes de régulations qui reste à être caractérisés à l'échelle du génome. Les résultats obtenus dans la première partie de ma thèse montrent comment les IBPs influenceraient l'expression des gènes selon un nouveau mécanisme de régulation, comme montré à l'échelle du génome de la Drosophile. Nos analyses bioinformatiques montrent que les IBPs régulent l'étalement de l'hétérochromatine répressive (H3K27me3) à la fois en cis et en trans. Les régulations en trans impliquent des boucles de chromatine entre insulateurs positionnés à la frontière de l'hétérochromatine et des insulateurs distants positionnés aux abords de gènes euchromatiniens. Ces étalements en trans conduisent à la formation de "micro-domaines" d'hétérochromatine réprimant ainsi les gènes distants. En particulier, un mutant d'insulateur qui empêche la formation de boucle diminue significativement l'établissement des micro-domaines. De plus, ces micro-domaines se formeraient au cours du développement suggérant un nouveau mécanisme insulateur-dépendant de régulation des gènes. De plus, nous un nouveau rôle de la Cohésine, un régulateur clé des boucles 3D chez l'homme, dans la régulation des ARN non codants (ncRNAs), incluant les "PROMoters uPstream Transcripts" (PROMPTs) et les enhancers RNAs (eRNAs). L'hélicase MTR4 est essentielle au contrôle de la stabilité des ARNs codants et non codants par son rôle dans les complexes nuclear-exosome targeting (NEXT) et pA-tail exosome targeting (PAXT). De manière intéressante, la déplétion de MTR4 et des sous-unités ZFC3H1 et ZCCHC8 (ou Z1 et Z8), a conduit à l'apparition de ncRNAs à l'échelle du génome. Curieusement, la cartographie des sites de liaison de MTR4 a mis en évidence que cette hélicase se lie sur des sites distants des PROMPTs. Plutôt que d'agir en cis, nos données suggèrent que la régulation des PROMPTs pourrait impliquer des contacts spécifiques à longue distance entre ces sites distants de liaison MTR4 et les promoteurs liés par Z1/Z8. Ainsi, l'intégration des données Hi-C et la détection des PROMPTS en conditions de déplétion de MTR4, Z1 ou Z8 ont souligné le rôle possible des interactions à longue distance dans la régulation des PROMPTs, depuis les sites distants MTR4. Ces travaux pourraient établir une nouvelle relation entre la structure 3D des génomes et la régulation des ARNs non codants
Insulator Binding Proteins (IBPs) could be involved in the three-dimensional folding of genomes into topological domains (or "TADs"). In particular, TADs would help to separate the inactive/heterochromatin and active/euchromatin compartments. IBPs are also able to block specific contacts between the activator or enhancer elements of one TAD and target gene promoters present in another TAD. Thus, insulators may influence gene expression according to several regulatory modes that have yet to be characterized at genome level. The results obtained in the first part of my thesis show how IBPs influence gene expression according to a new regulatory mechanism, as shown at the scale of the Drosophila genome. Our bioinformatics analyses show that IBPs regulate the spread of repressive heterochromatin (H3K27me3) both in cis and trans. Trans regulations involve chromatin loops between insulators positioned at the heterochromatin boundary and distant insulators positioned at the edges of euchromatic genes. Trans spreading leads to the formation of "micro-domains" of heterochromatin, thereby repressing distant genes. In particular, an insulator mutant that prevents loop formation significantly reduces the establishment of micro-domains. In addition, these micro-domains would be formed during development suggesting a new insulator-dependent mechanism for gene regulation. Furthermore, we could uncover a novel function of cohesion, a key regulator of 3D loops in humans, in regulating non-coding RNAs (ncRNAs), including "PROMoters uPstream Transcripts" (PROMPTs) and enhancers RNAs (eRNAs). The MTR4 helicase is essential to the control of coding and noncoding RNA stability by the human nuclear-exosome targeting (NEXT) complex and pA-tail exosome targeting (PAXT) complex. Remarkably, ncRNAs could be detected upon depletion of the Mtr4 helicase of the human NEXT complex. Moreover, depletion of additional NEXT subunits, ZFC3H1 and ZCCHC8 (or Z1 and Z8), also led to uncover ncRNAs often produced from the same loci as upon MTR4 depletion. Curiously however, mapping of Mtr4 binding sites highlighted that Mtr4 binds to sites that are distant from PROMPTs. Rather than acting in cis, our data suggest that regulation of PROMPTs could involve specific long-distance contacts between these distant MTR4 binding sites and promoters bound by Z1/Z8. As such, integration of Hi-C data together with the detection of PROMPTS upon MTR4-, Z1- or Z8- depletions highlight possible role of long-range interactions in regulating PROMPTs, from distant MTR4-bound sites. This work may establish a new relationship between the 3D structure of genomes and the regulation of ncRNAs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Condevaux, Charles. „Méthodes d'apprentissage automatique pour l'analyse de corpus jurisprudentiels“. Thesis, Nîmes, 2021. http://www.theses.fr/2021NIME0008.

Der volle Inhalt der Quelle
Annotation:
Les décisions de justice contiennent des informations déterministes (dont le contenu est récurrent d'une décision à une autre) et des informations aléatoires (à caractère probabiliste). Ces deux types d'information rentrent en ligne de compte dans la prise de décision d’un juge. Les premières peuvent la conforter dans la mesure où l’information déterministe est un élément récurrent et bien connu de la jurisprudence (i.e. des résultats d’affaires passées). Les secondes, apparentées à des caractères rares ou exceptionnels, peuvent rendre la prise de décision difficile et peuvent elles-mêmes modifier la jurisprudence. L’objet de cette thèse est de proposer un modèle d’apprentissage profond mettant en évidence ces deux types d’information afin d’en étudier leur impact (contribution) dans la prise de décision d’un juge. L'objectif est d’analyser des décisions similaires, de mettre en évidence les informations aléatoires et déterministes dans un corpus de décisions et de quantifier leur importance dans le processus de jugement
Judicial decisions contain deterministic information (whose content is recurrent from one decision to another) and random information (probabilistic). Both types of information come into play in a judge's decision-making process. The former can reinforce the decision insofar as deterministic information is a recurring and well-known element of case law (ie past business results). The latter, which are related to rare or exceptional characters, can make decision-making difficult, since they can modify the case law. The purpose of this thesis is to propose a deep learning model that would highlight these two types of information and study their impact (contribution) in the judge’s decision-making process. The objective is to analyze similar decisions in order to highlight random and deterministic information in a body of decisions and quantify their importance in the judgment process
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Patel, Namrata. „Mise en œuvre des préférences dans des problèmes de décision“. Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT286/document.

Der volle Inhalt der Quelle
Annotation:
Il y a une forte croissance, à nos jours, de «services» intelligents proposés aux clients sur les plates-formes de commerce électronique, destinés à une assistance personnalisée. L'étude de préférences a suscité un grand intérêt dans ce contexte, grâce à leur utilisation dans la résolution de problèmes liés à la prise de décision. En effet, la recherche sur les préférences en intelligence artificielle (IA) propose différentes manières d'aborder ce problème : de l'acquisition des préférences à leur représentation formelle et, éventuellement, à leur gestion suivant plusieurs méthodes de raisonnement. Dans cette thèse, nous adressons la problématique de la mise en œuvre de préférences comparatives pour l'aide à la décision par le développement d'un système interactif «intelligent» de recommandations personnalisées. Nous suivons une tendance récente, et le concevons sur une base de considérations psychologiques, linguistiques et personnelles. Nous contribuons ainsi aux domaines suivants de préférences en IA : (1) leur acquisition, (2) leur représentation, et (3) leur mise en œuvre. Nous examinons d'abord un goulot d'étranglement dans l'acquisition de préférences et proposons une méthode d'acquisition de préférences exprimées en langage naturel (LN), qui permet leur représentation formelle en tant que préférences comparatives. Nous étudions ensuite les aspects théoriques de la représentation et du raisonnement avec les préférences comparatives pour aide à la décision. Finalement, nous décrivons notre outil de recommandations qui utilise : (1) une base de données de produits qualifiée par une analyse de critiques d'utilisateurs, (2) une approche interactive pour guider les utilisateurs à exprimer leurs préférences comparatives, et (3) un moteur de raisonnement qui manipule ces préférences afin de proposer une recommandation basée sur les préférences de l'utilisateur
Intelligent ‘services’ are increasingly used on e-commerce platforms to provide assistance to customers. In this context, preferences have gained rapid interest for their utility in solving problems related with decision making. Research on preferences in AI has shed light on various ways of tackling this problem, ranging from the acquisition of preferences to their formal representation and eventually their proper manipulation. Following a recent trend of stepping back and looking at decision-support systems from the user’s point of view, i.e. designing them on the basis of psychological, linguistic and personal considerations, we take up the task of developing an “intelligent” tool which uses comparative preference statements for personalised decision support. We tackle and contribute to different branches of research on preferences in AI: (1) their acquisition (2) their formal representation and manipulation (3) their implementation. We first address a bottleneck in preference acquisition by proposing a method of acquiring user preferences, expressed in natural language (NL), which favours their formal representation and further manipulation. We then focus on the theoretical aspects of handling comparative preference statements for decision support. We finally describe our tool for product recommendation that uses: (1) a review-based analysis to generate a product database, (2) an interactive preference elicitation unit to guide users to express their preferences, and (3) a reasoning engine that manipulates comparative preference statements to generate a preference-based ordering on outcomes as recommendations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Shahab, Amin. „Using electroencephalograms to interpret and monitor the emotions“. Thèse, 2017. http://hdl.handle.net/1866/21285.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Dakoure, Caroline. „Study and experimentation of cognitive decline measurements in a virtual reality environment“. Thesis, 2020. http://hdl.handle.net/1866/24311.

Der volle Inhalt der Quelle
Annotation:
À l’heure où le numérique s’est totalement imposé dans notre quotidien, nous pouvons nous demander comment évolue notre bien-être. La réalité virtuelle hautement immersive permet de développer des environnements propices à la relaxation qui peuvent améliorer les capacités cognitives et la qualité de vie de nombreuses personnes. Le premier objectif de cette étude est de réduire les émotions négatives et améliorer les capacités cognitives des personnes souffrant de déclin cognitif subjectif (DCS). À cette fin, nous avons développé un environnement de réalité virtuelle appelé Savannah VR, où les participants ont suivi un avatar à travers une savane. Nous avons recruté dix-neuf personnes atteintes de DCS pour participer à l’expérience virtuelle de la savane. Le casque Emotiv Epoc a capturé les émotions des participants pendant toute l’expérience virtuelle. Les résultats montrent que l’immersion dans la savane virtuelle a réduit les émotions négatives des participants et que les effets positifs ont continué par la suite. Les participants ont également amélioré leur performance cognitive. La confusion se manifeste souvent au cours de l’apprentissage lorsque les élèves ne comprennent pas de nouvelles connaissances. C’est un état qui est également très présent chez les personnes atteintes de démence à cause du déclin de leurs capacités cognitives. Détecter et surmonter la confusion pourrait ainsi améliorer le bien-être et les performances cognitives des personnes atteintes de troubles cognitifs. Le deuxième objectif de ce mémoire est donc de développer un outil pour détecter la confusion. Nous avons mené deux expérimentations et obtenu un modèle d’apprentissage automatique basé sur les signaux du cerveau pour reconnaître quatre niveaux de confusion (90% de précision). De plus, nous avons créé un autre modèle pour reconnaître la fonction cognitive liée à la confusion (82 % de précision).
At a time when digital technology has become an integral part of our daily lives, we can ask ourselves how our well-being is evolving. Highly immersive virtual reality allows the development of environments that promote relaxation and can improve the cognitive abilities and quality of life of many people. The first aim of this study is to reduce the negative emotions and improve the cognitive abilities of people suffering from subjective cognitive decline (SCD). To this end, we have developed a virtual reality environment called Savannah VR, where participants followed an avatar across a savannah. We recruited nineteen people with SCD to participate in the virtual savannah experience. The Emotiv Epoc headset captured their emotions for the entire virtual experience. The results show that immersion in the virtual savannah reduced the negative emotions of the participants and that the positive effects continued afterward. Participants also improved their cognitive performance. Confusion often occurs during learning when students do not understand new knowledge. It is a state that is also very present in people with dementia because of the decline in their cognitive abilities. Detecting and overcoming confusion could thus improve the well-being and cognitive performance of people with cognitive impairment. The second objective of this paper is, therefore, to develop a tool to detect confusion. We conducted two experiments and obtained a machine learning model based on brain signals to recognize four levels of confusion (90% accuracy). In addition, we created another model to recognize the cognitive function related to the confusion (82% accuracy).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

So, Florence. „Modelling causality in law = Modélisation de la causalité en droit“. Thesis, 2020. http://hdl.handle.net/1866/25170.

Der volle Inhalt der Quelle
Annotation:
L'intérêt en apprentissage machine pour étudier la causalité s'est considérablement accru ces dernières années. Cette approche est cependant encore peu répandue dans le domaine de l’intelligence artificielle (IA) et du droit. Elle devrait l'être. L'approche associative actuelle d’apprentissage machine révèle certaines limites que l'analyse causale peut surmonter. Cette thèse vise à découvrir si les modèles causaux peuvent être utilisés en IA et droit. Nous procédons à une brève revue sur le raisonnement et la causalité en science et en droit. Traditionnellement, les cadres normatifs du raisonnement étaient la logique et la rationalité, mais la théorie duale démontre que la prise de décision humaine dépend de nombreux facteurs qui défient la rationalité. À ce titre, des statistiques et des probabilités étaient nécessaires pour améliorer la prédiction des résultats décisionnels. En droit, les cadres de causalité ont été définis par des décisions historiques, mais la plupart des modèles d’aujourd’hui de l'IA et droit n'impliquent pas d'analyse causale. Nous fournissons un bref résumé de ces modèles, puis appliquons le langage structurel de Judea Pearl et les définitions Halpern-Pearl de la causalité pour modéliser quelques décisions juridiques canadiennes qui impliquent la causalité. Les résultats suggèrent qu'il est non seulement possible d'utiliser des modèles de causalité formels pour décrire les décisions juridiques, mais également utile car un schéma uniforme élimine l'ambiguïté. De plus, les cadres de causalité sont utiles pour promouvoir la responsabilisation et minimiser les biais.
The machine learning community’s interest in causality has significantly increased in recent years. This trend has not yet been made popular in AI & Law. It should be because the current associative ML approach reveals certain limitations that causal analysis may overcome. This research paper aims to discover whether formal causal frameworks can be used in AI & Law. We proceed with a brief account of scholarship on reasoning and causality in science and in law. Traditionally, normative frameworks for reasoning have been logic and rationality, but the dual theory has shown that human decision-making depends on many factors that defy rationality. As such, statistics and probability were called for to improve the prediction of decisional outcomes. In law, causal frameworks have been defined by landmark decisions but most of the AI & Law models today do not involve causal analysis. We provide a brief summary of these models and then attempt to apply Judea Pearl’s structural language and the Halpern-Pearl definitions of actual causality to model a few Canadian legal decisions that involve causality. Results suggest that it is not only possible to use formal causal models to describe legal decisions, but also useful because a uniform schema eliminates ambiguity. Also, causal frameworks are helpful in promoting accountability and minimizing biases.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie