Siga este link para ver outros tipos de publicações sobre o tema: Intelligence artificielle générative.

Teses / dissertações sobre o tema "Intelligence artificielle générative"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Intelligence artificielle générative".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Lacan, Alice. "Transcriptomics data generation with deep generative models". Electronic Thesis or Diss., université Paris-Saclay, 2025. http://www.theses.fr/2025UPASG010.

Texto completo da fonte
Resumo:
Cette thèse explore l'utilisation de modèles génératifs profonds pour améliorer la génération de données transcriptomiques, répondant aux défis de rareté des données dans la classification de phénotypes de cancers. Nous évaluons la capacité des Autoencodeurs Variationnels (VAEs), des Réseaux Antagonistes Génératifs (GANs) et des modèles de diffusion (DDPM/DDIM) à équilibrer réalisme et diversité sur des données tabulaires de haute dimension. Nous avons d'abord adapté des métriques d'évaluation, supervisées et non supervisées. Nous avons ensuite intégré un moduled'auto-attention basé sur les connaissances du domaine dans notre GAN (AttGAN), améliorantle compromis fidélité-diversité. Une contribution notable est l'augmentation de la performance de classification avec un nombre minimal de vraies données augmenté de données générées. Nous proposons également une première adaptation des modèles de diffusion pour l'expression des gènes, ainsi qu'une méthodologie d'analyse d'interpolation offrant des perspectives sur la diversité des données et l'identification de biomarqueurs. Enfin, nous présentons GMDA (Modélisation Générativeavec Alignement de Densités), un modèle génératif alternatif aux GANs, permettant une exploration contrôlée de l'espace des données, une stabilité et une architecture frugale. Cette thèse offre ainsi des perspectives pour la génération de données transcriptomiques et tabulaires au sens large
This thesis explores deep generative models to improve synthetic transcriptomics data generation, addressing data scarcity in phenotypes classification tasks. We focus on Variational Autoencoders (VAEs), Generative Adversarial Networks (GANs), and diffusion models (DDPM/DDIM), assessing their ability to balance realism and diversity in high-dimensional tabular datasets. First, we adapt quality metrics for gene expression and introduce a knowledge-based self-attention module within GANs (AttGAN) to improve the fidelity-diversity trade-off. A main contribution is boosting classification performance using minimal real samples augmented with synthetic data. Secondly, another contribution was the first adaptation of diffusion models to transcriptomic data, demonstrating competitiveness with VAEs and GANs. We also introduce an interpolation analysis bringing perspectives on data diversity and the identification of biomarkers. Finally, we present GMDA (Generative Modeling with Density Alignment), a resource efficient alternative to GANs that balances realism and diversity by aligning locally real and synthetic sample densities. This framework allows controlled exploration of instance space, stable training, and frugality across datasets. Ultimately, this thesis provides comprehensiveinsights and methodologies to advance synthetic transcriptomics data generation
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Régin, Florian. "Programmation par contraintes générative". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4052.

Texto completo da fonte
Resumo:
La Programmation Par Contraintes (PPC) est une méthode pour résoudre des problèmes combinatoires, qui encapsule des techniques venant de l'intelligence artificielle, d'informatique et de recherche opérationnelle. Le Model Checking (MC) est une technique formelle qui permet de prouver automatiquement si un système donné satisfait une spécification. Pour traiter les problèmes de PC qui ont souvent beaucoup d'états et de transitions, les solveurs de PPC sont plus lents ou utilisent plus de mémoire que les solveurs de MC (appelés model checkers). Ces derniers sont parfois capables de pousser l'exponentiel (en temps/espace), comparés aux solveurs de PPC. Cette thèse a pour but de répondre à deux questions : Comment créer une technique de PPC qui peut résoudre les problèmes de MC aussi ou plus efficacement que les modèles checkers ? Comment utiliser cette technique sur des problèmes de PPC classiques aussi ou plus efficacement que les solveurs de PPC traditionnel ? Nous avons répondu à la première question en créant GenCP, une technique de PPC inspirée par Generative Constraint Satisfaction Problem (GCSP) et par le MC à-la-volée (OTF). Pour répondre à la deuxième question, nous avons raffiné GenCP et nous avons démontré ses capacités contre la PPC traditionnelle sur des problèmes classiques de la PPC, comme le problème du NQueens. La Programmation Par Contrainte Générative est un terme que nous crée pour se référer à n'importe quelle technique de PPC qui ressemble à GenCP/GCSP. L'inconvénient majeur des problèmes de MC est le problème de l'explosion des états. Plusieurs variantes du MC ont été créées pour résoudre ce problème. OTF est la variante du MC qui obtient les meilleurs résultats comparés à des solveurs de PPC sur des problèmes de MC. OTF ne commence avec aucun état et crée/détruit des états à-la-volée pendant la recherche de solutions. GCSP a été créée pour résoudre des problèmes de configuration (qui ressemblent aux problèmes de MC). La PPC implique trois concepts principaux : les variables qui représentent les objets du problème, les domaines qui représentent les valeurs associées aux variables et les contraintes qui représentent des propriétés associées à une ou plusieurs variables. En PPC traditionnelle, ces concepts doivent être définis avant la recherche de solutions. En GCSP, les domaines doivent être définis avant la recherche de solutions et les variables/domaines sont générés pendant la recherche de solutions. GCSP est plus efficace que la PPC traditionnelle sur les problèmes de MC, mais moins efficace que OTF. Nous avons conçu GenCP pour être un mixte entre GCSP et OTF. Dans la mesure de nos connaissances, GenCP est la première technique de PPC capable de ne commencer la recherche de solutions avec aucun des concepts de la PPC définis, GenCP génère les concepts pendant la recherche de solutions. GenCP a de meilleurs résultats que GCSP et la PPC traditionnelle sur les problèmes de MC, et des résultats équivalents aux modèles checkers. GenCP a été raffinée grâce à OTF. Le raffinage consiste à traiter simultanément la génération de domaines et des contraintes et la propagation. La version raffinée de GenCP génère des domaines qui sont garantis de satisfaire les contraintes, et sont donc souvent de plus petites tailles que la version non raffinée. La version raffinée a prouvé être efficace en obtenant de meilleurs résultats que la PPC traditionnelle sur des problèmes classiques de PPC : NQueens, All Interval, Graceful Graphs et Langford Number. Pour mieux montrer les avantages de GenCP par rapport à la PPC traditionnelle, nous avons introduit GenCPML, une nouvelle hybridation entre la PPC et le Machine Learning (ML), où les domaines sont créés à la volée pendant la recherche de solutions par un modèle de ML. Sur certains problèmes, GenCPML arrive à obtenir de meilleurs résultats que la PPC seule et le ML seul
Constraint Programming (CP) is a method for solving combinatorial problems, encapsulating techniques from artificial intelligence, computer science and operations research. Model Checking (MC) is a formal technique for automatically proving whether a given system satisfies a specification. To handle CP problems, which often have many states and transitions, CP solvers are slower or use more memory than MC solvers (called model checkers). The latter are sometimes able to push the exponential (in time/space), compared to CP solvers. This thesis aims to answer two questions: How can we create a CP technique that can solve MC problems as efficiently or more efficiently than model checkers? How can this technique be used on classical CP problems as efficiently or more efficiently than traditional CP solvers? We answered the first question by creating GenCP, a CP technique inspired by the Generative Constraint Satisfaction Problem (GCSP) and the On-the-fly MC (OTF). To answer the second question, we refined GenCP and demonstrated its capabilities against traditional CP on classic CP problems, such as the NQueens problem. Generative Constraint Programming is a made-up term to refer to any CP technique that resembles GenCP/GCSP. The major drawback of MC problems is the state explosion problem. Several variants of MC have been created to solve this problem. OTF is the variant of MC that achieves the best results compared with CP solvers on MC problems. OTF doesn't start with any states and creates/destroys states on the fly during the search for solutions. GCSP was created to solve configuration problems (which resemble MC problems). GCSP involves three main concepts: variables, which represent the objects of the problem; domains, which represent the values associated with the variables; and constraints, which represent properties associated with one or more variables. In traditional CP, these concepts must be defined prior to the search for solutions. In GCSP, domains must be defined prior to the solution search, and variables/domains are generated during the solution search. GCSP is more efficient than traditional CP on MC problems, but less efficient than OTF. We designed GenCP to be a mix between GCSP and OTF. To the best of our knowledge, GenCP is the first CP technique capable of starting the solution search with none of the CP concepts defined; GenCP generates the concepts during the solution search. GenCP outperforms GCSP and traditional CP on MC problems, and is equivalent to model checkers. GenCP has been refined using OTF. Refining consists of simultaneously processing domain and constraint generation and propagation. The refined version of GenCP generates domains that are guaranteed to satisfy the constraints, and are therefore often smaller in size than the unrefined version. The refined version has proven to be efficient, achieving better results than traditional CP on classical CP problems: NQueens, All Interval, Graceful Graphs and Langford Number. To further demonstrate the advantages of GenCP over traditional CP, we introduced GenCPML, a new hybridization between CP and Machine Learning (ML), where domains are created on the fly during the search for solutions by an ML model. On some problems, GenCPML manages to achieve better results than CP alone and ML alone
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Haidar, Ahmad. "Responsible Artificial Intelligence : Designing Frameworks for Ethical, Sustainable, and Risk-Aware Practices". Electronic Thesis or Diss., université Paris-Saclay, 2024. https://www.biblio.univ-evry.fr/theses/2024/interne/2024UPASI008.pdf.

Texto completo da fonte
Resumo:
L'intelligence artificielle (IA) transforme rapidement le monde, redéfinissant les relations entre technologie et société. Cette thèse explore le besoin essentiel de développer, de gouverner et d'utiliser l'IA et l'IA générative (IAG) de manière responsable et durable. Elle traite des risques éthiques, des lacunes réglementaires et des défis associés aux systèmes d'IA, tout en proposant des cadres concrets pour promouvoir une Intelligence Artificielle Responsable (IAR) et une Innovation Numérique Responsable (INR).La thèse commence par une analyse approfondie de 27 déclarations éthiques mondiales sur l'IA pour identifier des principes dominants tels que la transparence, l'équité, la responsabilité et la durabilité. Bien que significatifs, ces principes manquent souvent d'outils pratiques pour leur mise en œuvre. Pour combler cette lacune, la deuxième étude de la recherche présente un cadre intégrateur pour l'IAR basé sur quatre dimensions : technique, IA pour la durabilité, juridique et gestion responsable de l'innovation.La troisième partie de la thèse porte sur l'INR à travers une étude qualitative basée sur 18 entretiens avec des gestionnaires de secteurs divers. Cinq dimensions clés sont identifiées : stratégie, défis spécifiques au numérique, indicateurs de performance organisationnels, impact sur les utilisateurs finaux et catalyseurs. Ces dimensions permettent aux entreprises d'adopter des pratiques d'innovation durable et responsable tout en surmontant les obstacles à leur mise en œuvre.La quatrième étude analyse les risques émergents liés à l'IAG, tels que la désinformation, les biais, les atteintes à la vie privée, les préoccupations environnementales et la suppression d'emplois. À partir d'un ensemble de 858 incidents, cette recherche utilise une régression logistique binaire pour examiner l'impact sociétal de ces risques. Les résultats soulignent l'urgence d'établir des cadres réglementaires renforcés, une responsabilité numérique des entreprises et une gouvernance éthique de l'IA.En conclusion, cette thèse apporte des contributions critiques aux domaines de l'INR et de l'IAR en évaluant les principes éthiques, en proposant des cadres intégratifs et en identifiant des risques émergents. Elle souligne l'importance d'aligner la gouvernance de l'IA sur les normes internationales afin de garantir que les technologies d'IA servent l'humanité de manière durable et équitable
Artificial Intelligence (AI) is rapidly transforming the world, redefining the relationship between technology and society. This thesis investigates the critical need for responsible and sustainable development, governance, and usage of AI and Generative AI (GAI). The study addresses the ethical risks, regulatory gaps, and challenges associated with AI systems while proposing actionable frameworks for fostering Responsible Artificial Intelligence (RAI) and Responsible Digital Innovation (RDI).The thesis begins with a comprehensive review of 27 global AI ethical declarations to identify dominant principles such as transparency, fairness, accountability, and sustainability. Despite their significance, these principles often lack the necessary tools for practical implementation. To address this gap, the second study in the research presents an integrative framework for RAI based on four dimensions: technical, AI for sustainability, legal, and responsible innovation management.The third part of the thesis focuses on RDI through a qualitative study of 18 interviews with managers from diverse sectors. Five key dimensions are identified: strategy, digital-specific challenges, organizational KPIs, end-user impact, and catalysts. These dimensions enable companies to adopt sustainable and responsible innovation practices while overcoming obstacles in implementation.The fourth study analyzes emerging risks from GAI, such as misinformation, disinformation, bias, privacy breaches, environmental concerns, and job displacement. Using a dataset of 858 incidents, this research employs binary logistic regression to examine the societal impact of these risks. The results highlight the urgent need for stronger regulatory frameworks, corporate digital responsibility, and ethical AI governance. Thus, this thesis provides critical contributions to the fields of RDI and RAI by evaluating ethical principles, proposing integrative frameworks, and identifying emerging risks. It emphasizes the importance of aligning AI governance with international standards to ensure that AI technologies serve humanity sustainably and equitably
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Hadjeres, Gaëtan. "Modèles génératifs profonds pour la génération interactive de musique symbolique". Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS027.

Texto completo da fonte
Resumo:
Ce mémoire traite des modèles génératifs profonds appliqués à la génération automatique de musique symbolique. Nous nous attacherons tout particulièrement à concevoir des modèles génératifs interactifs, c'est-à-dire des modèles instaurant un dialogue entre un compositeur humain et la machine au cours du processus créatif. En effet, les récentes avancées en intelligence artificielle permettent maintenant de concevoir de puissants modèles génératifs capables de générer du contenu musical sans intervention humaine. Il me semble cependant que cette approche est stérile pour la production artistique dans le sens où l'intervention et l'appréciation humaines en sont des piliers essentiels. En revanche, la conception d'assistants puissants, flexibles et expressifs destinés aux créateurs de contenus musicaux me semble pleine de sens. Que ce soit dans un but pédagogique ou afin de stimuler la créativité artistique, le développement et le potentiel de ces nouveaux outils de composition assistée par ordinateur sont prometteurs. Dans ce manuscrit, je propose plusieurs nouvelles architectures remettant l'humain au centre de la création musicale. Les modèles proposés ont en commun la nécessité de permettre à un opérateur de contrôler les contenus générés. Afin de rendre cette interaction aisée, des interfaces utilisateurs ont été développées ; les possibilités de contrôle se manifestent sous des aspects variés et laissent entrevoir de nouveaux paradigmes compositionnels. Afin d'ancrer ces avancées dans une pratique musicale réelle, je conclue cette thèse sur la présentation de quelques réalisations concrètes (partitions, concerts) résultant de l'utilisation de ces nouveaux outils
This thesis discusses the use of deep generative models for symbolic music generation. We will be focused on devising interactive generative models which are able to create new creative processes through a fruitful dialogue between a human composer and a computer. Recent advances in artificial intelligence led to the development of powerful generative models able to generate musical content without the need of human intervention. I believe that this practice cannot be thriving in the future since the human experience and human appreciation are at the crux of the artistic production. However, the need of both flexible and expressive tools which could enhance content creators' creativity is patent; the development and the potential of such novel A.I.-augmented computer music tools are promising. In this manuscript, I propose novel architectures that are able to put artists back in the loop. The proposed models share the common characteristic that they are devised so that a user can control the generated musical contents in a creative way. In order to create a user-friendly interaction with these interactive deep generative models, user interfaces were developed. I believe that new compositional paradigms will emerge from the possibilities offered by these enhanced controls. This thesis ends on the presentation of genuine musical projects like concerts featuring these new creative tools
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Abdelghani, Rania. "Guider les esprits de demain : agents conversationnels pour entraîner la curiosité et la métacognition chez les jeunes apprenants". Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0152.

Texto completo da fonte
Resumo:
La curiosité épistémique (CE), i.e. le désir d’explorer une information pour le plaisir qu’elle procure, est un phénomène étudié dans divers domaines. Plusieurs chercheurs ont souligné son rôle fondamental dans le développement cognitif et la promotion d’un apprentissage continu. De plus, la CE est considérée comme clé pour cultiver un esprit capable de s’adapter aux incertitudes du monde. Ces recherches ont suscité un grand intérêt pour la CE en éducation, la considérant essentielle pour permettre aux individus d’être actifs et maîtres de leur apprentissage. Ce sont des propriétés cruciales pour relever certains des défis éducatifs: offrir aux élèves un soutien adapté à leurs compétences et motivations, et les aider à être des apprenants autonomes et indépendants dans des environnements dynamiques et incertains. Malgré son importance, l’implémentation de la CE dans les salles de classe reste limitée. Notamment, l’une des principales expressions de la CE—le questionnement— est presque absente dans la plupart des établissements: les élèves sont souvent amenés à répondre aux questions des enseignants plutôt qu’à poser les leurs. Et lorsqu’ils posent des questions, elles sont généralement de bas niveau et, contrairement aux questions curieuses, ne cherchent pas de nouvelles informations majorantes aux connaissances antérieures. Cette thèse propose donc de développer des technologies éducatives qui visent à favoriser l’apprentissage dirigé par la CE, en entraînant les comportements de questionnement curieux et les compétences qui lui sont liées. Pour cela, nous proposons des interventions pour entraîner trois dimensions:1) Les compétences linguistiques de questionnement: On implémente un agent conversationnel pour aider les élèves à générer des questions curieuses lors de tâches de lecture-compréhension. L’agent fournit des indices spécifiques pour faciliter l’utilisation des mots interrogatifs composés et des constructions interrogatives. Différentes structures d’indices (phrase vs. série de mots-clés) et leurs modes de génération (manuellement vs. par GPT-3) sont étudiées. 2) Les compétences métacognitives (MC) liées à la CE: On crée des vidéos animées pour donner des connaissances déclaratives sur les compétences MC liées à la CE: l’autoréflexion, faire des hypothèses, formuler des questions et évaluer les nouvelles informations. On propose également des sessions pour pratiquer ces compétences lors de tâches de lecture-compréhension, en utilisant des indices donnés par des agents conversationnels conçus pour entraîner la MC procédurale. 3) Les perceptions sociales: On crée des vidéos animées pour expliquer la CE et sa mise en pratique pour corriger les idées négatives qu’ont les apprenants sur ce concept. Plus de 150 élèves français âgés de 9 à 11 ans ont été recrutés pour tester l’entraînement de ces dimensions. Combinées, ces dernières ont amélioré la sensibilité MC des élèves et leur perception de la curiosité. Ces deux facteurs ont, à leur tout, facilité les comportements de questionnement divergent. Cela a également conduit à un progrès d’apprentissage plus fort et à des expériences d’apprentissage positives et soutenables. Mais malgré ces résultats, nos méthodes présentent certaines limites, en particulier leur courte durée. Cette thèse encourage donc le travail sur des solutions plus durables afin d’examiner les effets à long terme sur la CE. Enfin, cette thèse souligne la nécessité de continuer à explorer les recherches sur le questionnement et la MC à l’âge de l’intelligence artificielle générative (IAG). Bien que la IAG facilite l’accès à l’information, elle nécessite encore de bonnes capacités de questionnement et de MC, pour prévenir les mésuages et/ou faciliter leur détection. Nous proposons un Framework liant l’utilisation efficace de la IAG en éducation, les compétences de questionnement et de MC, et la littératie en IAG. Nous présentons également une étude comportementale pour tester ces relations
Epistemic curiosity—the desire to actively seek information for its inherent pleasure—is a complex phenomenon extensively studied across various domains. Several researchers in psychology, neuroscience, and computer science have repeatedly highlighted its foundational role in cognitive development and in fostering lifelong learning. Further, epistemic curiosity is considered key for cultivating a flexible mindset capable of adapting to the world’s uncertainties. These insights have spurred significant interest in the educational field, recognizing curiosity as essential for helping individuals be active and in control of their learning. These properties are crucial for addressing some of today’s major educational challenges, namely offering students individualized support to suit their competencies and motivations, and helping them become able to learn autonomously and independently in their dynamic and uncertain environments. Despite this well-documented importance of curiosity in education, its practical implementation and promotion in the classroom remains limited. Notably, one of the primary expressions of curiosity— question-asking (QA)—is nearly absent in most of today’s educational settings. Several reports show that students often spend a lot of time answering teachers’ questions rather than asking their own. And when they do ask questions, they are typically low-level and memory-based, as opposed to curious questions that seek novel information. In this context, this thesis aims to develop educational technologies that can foster children’s curiosity-driven learning by practicing curious QA behaviors, and their related metacognitive (MC) skills. Ultimately, we implemented interventions to train three dimensions: 1) Linguistic QA Skills: We implement a conversational agent to train the ability to formulate curious questions using compound questioning words and correct interrogative constructions. It helps children generate curious questions during reading-comprehension tasks, by providing specific cues. The effectiveness of different cue structures (a sentence vs. series of keywords) and implementations (hand-generated vs. GPT-3-generated content) is studied. 2) Curiosity-related metacognitive Skills: We create animated videos to give declarative knowledge about curiosity and its related MC skills: the ability to self reflect, make educated guesses, formulate efficient questions, and evaluate newly-acquired information. We also propose sessions to practice these skills during reading-comprehension tasks using specific cues given by conversational agents we designed to train procedural MC. 3) Social Perceptions and beliefs: We create animated videos to address the negative constructs learners tend to have about curiosity. They explain the importance of curiosity and how to control it during learning. Over 150 French students aged 9 to 11 were recruited to test these trainings of the three dimensions. Combined, these latter enhanced students’ MC sensitivity and perception of curiosity. At their turn, these factors facilitated students’ divergent QA behaviors which, at their turn, led to stronger learning progress and positive, affordable learning experiences. But despite the positive results, our methods had limitations, particularly their short duration. We suggest testing longer-lasting interventions to examine their long-term effects on curiosity. Finally, this thesis highlights the need to continue exploring QA and MC research in the age of Generative Artificial Intelligence (GAI). Indeed, while GAI facilitates access to information, it still requires good QA abilities and MC monitoring to prevent misinformation and facilitate its detection. We thus propose a framework to link efficient GAI use in education to QA and MC skills, and GAI literacy. We also present a behavioral study we intend to conduct to test this framework
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Hadjeres, Gaëtan. "Modèles génératifs profonds pour la génération interactive de musique symbolique". Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS027/document.

Texto completo da fonte
Resumo:
Ce mémoire traite des modèles génératifs profonds appliqués à la génération automatique de musique symbolique. Nous nous attacherons tout particulièrement à concevoir des modèles génératifs interactifs, c'est-à-dire des modèles instaurant un dialogue entre un compositeur humain et la machine au cours du processus créatif. En effet, les récentes avancées en intelligence artificielle permettent maintenant de concevoir de puissants modèles génératifs capables de générer du contenu musical sans intervention humaine. Il me semble cependant que cette approche est stérile pour la production artistique dans le sens où l'intervention et l'appréciation humaines en sont des piliers essentiels. En revanche, la conception d'assistants puissants, flexibles et expressifs destinés aux créateurs de contenus musicaux me semble pleine de sens. Que ce soit dans un but pédagogique ou afin de stimuler la créativité artistique, le développement et le potentiel de ces nouveaux outils de composition assistée par ordinateur sont prometteurs. Dans ce manuscrit, je propose plusieurs nouvelles architectures remettant l'humain au centre de la création musicale. Les modèles proposés ont en commun la nécessité de permettre à un opérateur de contrôler les contenus générés. Afin de rendre cette interaction aisée, des interfaces utilisateurs ont été développées ; les possibilités de contrôle se manifestent sous des aspects variés et laissent entrevoir de nouveaux paradigmes compositionnels. Afin d'ancrer ces avancées dans une pratique musicale réelle, je conclue cette thèse sur la présentation de quelques réalisations concrètes (partitions, concerts) résultant de l'utilisation de ces nouveaux outils
This thesis discusses the use of deep generative models for symbolic music generation. We will be focused on devising interactive generative models which are able to create new creative processes through a fruitful dialogue between a human composer and a computer. Recent advances in artificial intelligence led to the development of powerful generative models able to generate musical content without the need of human intervention. I believe that this practice cannot be thriving in the future since the human experience and human appreciation are at the crux of the artistic production. However, the need of both flexible and expressive tools which could enhance content creators' creativity is patent; the development and the potential of such novel A.I.-augmented computer music tools are promising. In this manuscript, I propose novel architectures that are able to put artists back in the loop. The proposed models share the common characteristic that they are devised so that a user can control the generated musical contents in a creative way. In order to create a user-friendly interaction with these interactive deep generative models, user interfaces were developed. I believe that new compositional paradigms will emerge from the possibilities offered by these enhanced controls. This thesis ends on the presentation of genuine musical projects like concerts featuring these new creative tools
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

El, Mernissi Karim. "Une étude de la génération d'explication dans un système à base de règles". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066332/document.

Texto completo da fonte
Resumo:
Le concept de “Business Rule Management System” (BRMS) a été introduit pour faciliter la création, la vérification, le déploiement et l'exécution des politiques commerciales propres à chaque compagnie. Basée sur une approche symbolique, l'idée générale est de permettre aux utilisateurs métier de gérer les changements des règles métier dans le système sans avoir besoin de recourir à des compétences techniques. Il s'agit donc de fournir à ces derniers la possibilité de formuler des politiques commerciales et d'automatiser leur traitement tout en restant proche du langage naturel. De nos jours, avec l'expansion de ce type de systèmes, il faut faire face à des logiques de décision de plus en plus complexes et à de larges volumes de données. Il n'est pas toujours facile d'identifier les causes conduisant à une décision. On constate ainsi un besoin grandissant de justifier et d'optimiser les décisions dans de courts délais qui induit l'intégration à ses systèmes d'une composante d'explication évoluée. Le principal enjeu de ces recherches est de fournir une approche industrialisable de l'explication des processus de décision d'un BRMS et plus largement d'un système à base de règles. Cette approche devra être en mesure d'apporter les informations nécessaires à la compréhension générale de la décision, de faire office de justification auprès d'entités internes et externes ainsi que de permettre l'amélioration des moteurs de règles existants. La réflexion se portera tant sur la génération des explications en elles-mêmes que sur la manière et la forme sous lesquelles elles seront délivrées
The concept of “Business Rule Management System” (BRMS) has been introduced in order to facilitate the design, the management and the execution of company-specific business policies. Based on a symbolic approach, the main idea behind these tools is to enable the business users to manage the business rule changes in the system without requiring programming skills. It is therefore a question of providing them with tools that enable to formulate their business policies in a near natural language form and automate their processing. Nowadays, with the expansion of intelligent systems, we have to cope with more and more complex decision logic and large volumes of data. It is not straightforward to identify the causes leading to a decision. There is a growing need to justify and optimize automated decisions in a short time frame, which motivates the integration of advanced explanatory component into its systems. Thus, the main challenge of this research is to provide an industrializable approach for explaining the decision-making processes of business rules applications and more broadly rule-based systems. This approach should be able to provide the necessary information for enabling a general understanding of the decision, to serve as a justification for internal and external entities as well as to enable the improvement of existing rule engines. To this end, the focus will be on the generation of the explanations in themselves as well as on the manner and the form in which they will be delivered
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Boulic-Bouadjio, Audren. "Génération multi-agents de réseaux sociaux". Thesis, Toulouse 1, 2021. http://www.theses.fr/2021TOU10003.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Bonnefoi, Pierre-François. "Techniques de satisfaction de contraintes pour la modélisation déclarative : application à la génération concurrente de scènes". Limoges, 1999. http://www.theses.fr/1999LIMO0045.

Texto completo da fonte
Resumo:
La synthese d'image est un domaine en pleine expansion, chaque jour de nouvelles images sont obtenues avec un realisme toujours accru. Il existe de nombreux algorithmes de visualisation, dont la qualite ne cesse d'augmenter. Si les moyens de visualisation s'ameliorent, il n'en va pas de meme pour la conception des scenes. La conception d'une scene est un processus difficile, peu intuitif quelque soit le modele de representation choisi. Il est en effet obligatoire de specifier precisement toutes les constituantes de la scene. La solution est de recourir a une approche declarative, ou l'utilisateur dispose d'un outil intelligent susceptible de transcrire une description plus ou moins generale effectuee par l'utilisateur, en une ou plusieurs scenes correspondantes. Cette description correspond a la definition des constituants de la scene de maniere plus ou moins detaillee et a l'etablissement de relations sur et entre ces elements. Un modeleur declaratif est caracterise par la nature de la description que l'on fournit en entree (le langage qui la definit), le domaine de representation des scenes solutions et la methode de generation des scenes solutions. L'obtention des scenes solutions se fait par resolution de systemes de contraintes. Le modele de contraintes choisi est celui des contraintes sur domaine fini (clp(fd)) et ces contraintes sont formulees sous une forme dite primitive afin d'en uniformiser le traitement. Les methodes de resolution sont celles utilisees pour les csp (constraint satisfaction problem) et s'appuient sur les techniques de consistance d'arc et l'utilisation de differentes heuristiques. La description d'une scene peut etre faite de maniere hierarchique. Cette structure hierarchique est mise a profit au niveau du processus de generation de scene afin d'en diminuer le cout en temps. Afin d'obtenir un modeleur declaratif puissant, la parallelisation de la generation d'une scene est effectuee. Elle est realisee de maniere transparente pour l'utilisateur, soit de facon automatique a partir de la description fournie en entree du modeleur. La mise en uvre du modeleur declaratif a ete faite egalement dans un soucis d'en preserver l'extensibilite afin de permettre l'etude de nouvelles possibilites quant a l'amelioration de la modelisation declarative.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Ndiaye, Seydina Moussa. "Apprentissage par renforcement en horizon fini : Application à la génération de règles pour la conduite de culture". Toulouse 3, 1999. http://www.theses.fr/1999TOU30010.

Texto completo da fonte
Resumo:
Le point essentiel de la première partie de la thèse a été d'adapter au cadre de l'horizon fini les méthodes d'apprentissage par renforcement (AR) existantes. Nous avons considéré essentiellement deux d'entre elles basées sur le principe des différences temporelles, le Q-Learning et le R-Learning, qui différent sur la fonction d'évaluation. Toutes les études faites dans ce domaine concernent des problèmes en horizon infini. Les résultats obtenus nous ont permis d'établir un lien entre le critère 1-pondéré (Q-Learning) et le critère moyen (R-Learning) en horizon fini. La réécriture du R-Learning en horizon fini montre une équivalence entre le critère moyen et le critère fini. La méthode de l'ODE (ordinary differential equation) a été utilisée pour analyser la vitesse de convergence de ces algorithmes en horizon fini. Nous avons montré que le R-Learning pouvait être vu comme une version à gain matriciel du Q-Learning. Le second problème a été la représentation de l'espace de résolution en AR. Généralement les algorithmes d'AR sont appliqués sur des espaces discrets alors que dans notre problème de conduite de culture nous avons à faire avec des espaces mixtes (discrets et continus). Une solution est d'utiliser la méthode de représentation par CMAC (cerebellar model articulation controller) communément utilisée en AR. Cependant, bien que donnant des résultats satisfaisants, ce mode de représentation n'est pas adéquat pour notre application parce qu'il ne fournit pas une caractérisation intelligible pour l'utilisateur agronome de la notion de stratégie. Une représentation par un ensemble de règles de décision de la forme si alors est préférable. La solution envisagée est d'apprendre directement des stratégies de conduite de culture sous forme de règles de décision. Pour cela, des techniques d'algorithmes génétiques (AG) sont utilisées pour modifier et apprendre la structure optimale des règles de décision.
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Faiz, Rim. "Modélisation formelle des connaissances temporelles à partir de textes en vue d'une génération automatique de programmes". Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090023.

Texto completo da fonte
Resumo:
L'objectif de notre travail correspond à une réflexion méthodologique sur la modélisation des connaissances temporelles dans le domaine juridique. Le but final est d'extraire une modélisation formelle par traduction d'un texte en langage naturel dans un formalisme formel de représentation des connaissances, puis d'en déduire automatiquement un programme. L'analyse de corpus de textes de lois nous a permis de mettre en évidence que le problème essentiel au niveau de la représentation de ces types de textes n'est pas seulement lie à la logique déontique, mais aussi à la représentation du temps, c'est-à-dire à la logique temporelle. Les notions de date et de délai qui posent des problèmes d'imputation et de déclenchement d'ordre sont, en effet, relativement importantes en droit. En effet, la représentation du temps (délai, date, etc. ) est fondamentale dans la détermination d'une décision en matière de prestations. Certains problèmes relatifs à l'utilisation du temps nous ont permis d'étudier d'une manière conceptuelle l'incorporation de fonctions temporelles dans notre modèle, dans le but de représenter les relations temporelles entre les concepts. Nous avons représenté, en plus du positionnement des entités temporelles les unes par rapport aux autres, les relations de ces entités dans un repère absolu, les dates de début de ces entités, leurs dates de fin et leurs durées, mais aussi le positionnement dans le temps, la granularité du temps, etc. Nous avons également établi une méthodologie permettant de montrer le mécanisme de passage d'un texte en langage naturel à une spécification formelle dans un langage ayant la lisibilité du langage naturel. Le processus de traduction formelle s'effectue en trois étapes: l'étape de traduction du texte en langage naturel à sa représentation littérale semi-formelle, l'étape de passage de cette représentation littérale à une représentation formelle mais ambiguë et incomplète et enfin l'étape de désambiguïsation résolvant les problèmes d'ambiguïté et d'incomplétude. Une vue globale de l'ensemble a été représentée dans le formalisme SADT. Ce processus de traduction formelle, qui est une aide au passage des textes juridiques en langage naturel vers des programmes opérationnels pour implémenter des systèmes d'information juridiques, représente pour notre méthode un outil intéressant pour la conception et la validation des textes juridiques en particulier pour les points difficiles et complexes. Un prototype Temdeo (temporel et déontique) a été conçu permettant le passage automatique de la spécification formelle au programme informatique. Ce système permet aux juristes d'être plus explicite sur les buts ou les alternatives, de procéder à une analyse et calcul sur le temps à partir de textes. Cette analyse est d'autant plus rapide, automatique et correcte qu'elle va leur permettre d'automatiser certaines actions en minimisant le risque d'erreurs
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Niquil, Yves. "Acquisition d'exemples en discrimination : spécification des exemples par génération de scenarios". Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090063.

Texto completo da fonte
Resumo:
La qualité de prédiction des intentions produites par un processus de discrimination à partir d'exemples est fortement liée au choix de ces exemples. Dans beaucoup de cas, l'acquisition des exemples représente l'une des difficultés majeures de telles opérations de discrimination. En particulier il est souvent délicat, pour l'expert ou pour toute autre source d'exemples, de produire spécifiquement les nouveaux exemples qui seraient susceptibles d'améliorer la qualité de prédiction de l'intention. Nous proposons ici une méthode pour guider l'acquisition des exemples. Cette méthode consiste à spécifier le plus souplement possible les exemples qui seraient susceptibles d'améliorer le plus fortement la qualité de prédiction de l'intention. On tentera pour cela de générer, à partir de l'intention produite par le processus de discrimination et des exemples qui ont servi à la produire, des scenarios pour de nouveaux exemples, c'est-a-dire des contraintes sur l'acquisition des nouveaux exemples. Nous montrons que l'on peut dresser une typologie des nouveaux exemples, fondée sur leur utilité. On distingue deux types de recherche de nouveaux exemples: la recherche interne, consistant à rechercher les zones vides d'exemples de l'espace de description, et qui a pour utilité de découvrir de nouveaux conjoints de l'intention ou d'éclater les conjoints existants; la recherche interstitielle, qui vise à rechercher de nouveaux exemples susceptibles de provoquer une adaptation des conjoints de l'intention. Nous montrons également que certaines des méthodes développées en vue d'aider un processus de discrimination à partir d'exemples peuvent également, avec des adaptations mineures, servir à aider un processus de discrimination à partir de descriptions de concept. Les scenarios visent alors à guider l'acquisition de nouvelles descriptions de concept. Les méthodes présentées sont appliquées à une série de domaines réels, dont une application industrielle, concernant l'aide à la modélisation de politiques de sécurité sur des réseaux de télécommunication
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Elferkh, Jrad Zeina. "Apport des techniques de l'intelligence artificielle dans la négociation dynamique de niveaux de service : proposition d'une interface utilisateur pour l'Internet de nouvelle génération". Paris 13, 2006. http://www.theses.fr/2006PA132005.

Texto completo da fonte
Resumo:
L'évolution considérable de l'Internet en terme de nombre de fournisseurs de services et d'usage nécessite, de la part de l'utilisateur, une meilleure connaissance, à la fois de ses besoins et des offres disponibles. L'Internet actuel basé sur un réseau ‘'best-effort'', c'est-à-dire ne présentant aucune L'évolution considérable de l'Internet en terme de nombre de fournisseurs de services et d'usage nécessite, de la part de l'utilisateur, une meilleure connaissance, à la fois de ses besoins et des offres garantie sur la qualité de la communication, n'est plus suffisant aujourd'hui. Avec l'utilisation de plus en plus importante d'applications temps réel, principalement vidéo et audio, l'Internet se doit d'offrir des garanties de service, notamment en terme de débit, de délai et de taux de perte de l'information. Cette nouvelle génération d'Internet s'appuie, en grande partie, sur l'architecture DiffServ. Dans ce contexte, l'utilisateur doit négocier un certain niveau de service en fonction de ses besoins avant de transmettre ses données. Ce processus de négociation est complexe parce que l'utilisateur doit fournir les paramètres techniques dont il a besoin. C'est dans ce contexte général que se situent nos travaux de thèse. Nous proposons d'introduire un ``Assistant Individuel de Négociation'' (NIA : Negociation Individual Assistant) dans le terminal de l'utilisateur. Cet assistant l'aidera, à choisir dans un premier temps le meilleur fournisseur, puis à (re)négocier dynamiquement les paramètres techniques du SLA. . . Cette thèse porte donc sur la modélisation et la conception d'une interface intelligente, personnalisée et ayant pour objectif de permettre aux utilisateurs d'accéder à l'Internet et de demander des services en fonction de leurs besoins. . .
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Launay, Jean-Pierre. "Génération de code de protocole de communication par système expert". Paris 9, 1995. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1995PA090030.

Texto completo da fonte
Resumo:
Les documents de spécification de protocoles de communication sont principalement écrits en langage naturel (norme OSI ou RFC internet). L'élaboration de langages formels intermédiaires (techniques formelles de description) a permis de structurer le cycle de développement de logiciel associé : à partir d'une spécification du protocole ayant été réécrite dans un tel langage, il est possible de générer automatiquement du code. Cependant, on connait peu de choses sur le processus (manuel) de reformulation du document initial vers une telle spécification formelle, et par voie de conséquence, il est difficile d'avoir la conviction de l'équivalence entre les deux niveaux de description. L'objectif de la thèse est de définir un langage formel intégrant différents types de représentations, et qui soit plus proche du langage naturel employé par le spécificateur, de sorte que l'on puisse qualifier de traduction le passage entre les deux niveaux de description
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Peureux, Fabien. "Génération de tests aux limites à partir de spécifications B en programmation logique avec contraintes ensemblistes". Besançon, 2002. http://www.theses.fr/2002BESA2046.

Texto completo da fonte
Resumo:
Les travaux présentés dans cette thèse proposent une méthode originale de génération automatique de tests fonctionnels aux limites accompagnée d'un environnement baptisé BZ-Testing-Tools. Le but de notre démarche est de générer des jeux de tests à partir d'une machine abstraite B du système sous test produite spécialement pour la phase de test. Cette méthode repose sur la réécriture de la spécification B en un système de contraintes et la partition du domaine des variables de la spécification, ce qui permet d'exhiber l'ensemble des comportements du système. A partir de chaque comportement, des entrées de test aux limites sont calculées au moyen d'un solveur spécifique utilisant des techniques de Programmation Logique avec Contraintes. Des séquences de tests sont alors générées par parcours du graphe d'atteignabilité de la spécification. La vérification des résultats de l'exécution est effectuée par comparaison des états de sortie avec ceux obtenus par animation du modèle abstrait
The work presented in this thesis defines a functional test case generation method based on an original approach using formal methods. This method is fully supported by a tool-set called BZ-Testing-Tools. Our goal is to test some implementation from a B abstract machine of the system under test, which is not derived from the formal model. The test generation process works by translating the formal specifications of the system under test into an equivalent constraint system. A domain partition of the state variables of the specifications is performed to derive all the possible behaviours of the system. From each behaviour, test objectives are performed through a computation of boundary goals by a specific solver using Constraint Logic Programming. Then test cases are generated, by searching for a sequence of operations that reaches the boundary goal from the initial state. Finally, the formal specifications are used as an oracle to determinate the expected output for a given input
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Godbout, Mathieu. "Approches par bandit pour la génération automatique de résumés de textes". Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69488.

Texto completo da fonte
Resumo:
Ce mémoire aborde l'utilisation des méthodes par bandit pour résoudre la problématique de l'entraînement de modèles de générations de résumés extractifs. Les modèles extractifs, qui bâtissent des résumés en sélectionnant des phrases d'un document original, sont difficiles à entraîner car le résumé cible correspondant à un document n'est habituellement pas constitué de manière extractive. C'est à cet effet que l'on propose de voir la production de résumés extractifs comme différents problèmes de bandit, lesquels sont accompagnés d'algorithmes pouvant être utilisés pour l'entraînement. On commence ce document en présentant BanditSum, une approche tirée de la litérature et qui voit la génération des résumés d'un ensemble de documents comme un problème de bandit contextuel. Ensuite, on introduit CombiSum, un nouvel algorithme qui formule la génération du résumé d'un seul document comme un bandit combinatoire. En exploitant la formule combinatoire, CombiSum réussit à incorporer la notion du potentiel extractif de chaque phrase à son entraînement. Enfin, on propose LinCombiSum, la variante linéaire de CombiSum qui exploite les similarités entre les phrases d'un document et emploie plutôt la formulation en bandit linéaire combinatoire.
This thesis discusses the use of bandit methods to solve the problem of training extractive abstract generation models. The extractive models, which build summaries by selecting sentences from an original document, are difficult to train because the target summary of a document is usually not built in an extractive way. It is for this purpose that we propose to see the production of extractive summaries as different bandit problems, for which there exist algorithms that can be leveraged for training summarization models.In this paper, BanditSum is first presented, an approach drawn from the literature that sees the generation of the summaries of a set of documents as a contextual bandit problem. Next,we introduce CombiSum, a new algorithm which formulates the generation of the summary of a single document as a combinatorial bandit. By exploiting the combinatorial formulation,CombiSum manages to incorporate the notion of the extractive potential of each sentence of a document in its training. Finally, we propose LinCombiSum, the linear variant of Com-biSum which exploits the similarities between sentences in a document and uses the linear combinatorial bandit formulation instead
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

El, Mernissi Karim. "Une étude de la génération d'explication dans un système à base de règles". Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066332.

Texto completo da fonte
Resumo:
Le concept de “Business Rule Management System” (BRMS) a été introduit pour faciliter la création, la vérification, le déploiement et l'exécution des politiques commerciales propres à chaque compagnie. Basée sur une approche symbolique, l'idée générale est de permettre aux utilisateurs métier de gérer les changements des règles métier dans le système sans avoir besoin de recourir à des compétences techniques. Il s'agit donc de fournir à ces derniers la possibilité de formuler des politiques commerciales et d'automatiser leur traitement tout en restant proche du langage naturel. De nos jours, avec l'expansion de ce type de systèmes, il faut faire face à des logiques de décision de plus en plus complexes et à de larges volumes de données. Il n'est pas toujours facile d'identifier les causes conduisant à une décision. On constate ainsi un besoin grandissant de justifier et d'optimiser les décisions dans de courts délais qui induit l'intégration à ses systèmes d'une composante d'explication évoluée. Le principal enjeu de ces recherches est de fournir une approche industrialisable de l'explication des processus de décision d'un BRMS et plus largement d'un système à base de règles. Cette approche devra être en mesure d'apporter les informations nécessaires à la compréhension générale de la décision, de faire office de justification auprès d'entités internes et externes ainsi que de permettre l'amélioration des moteurs de règles existants. La réflexion se portera tant sur la génération des explications en elles-mêmes que sur la manière et la forme sous lesquelles elles seront délivrées
The concept of “Business Rule Management System” (BRMS) has been introduced in order to facilitate the design, the management and the execution of company-specific business policies. Based on a symbolic approach, the main idea behind these tools is to enable the business users to manage the business rule changes in the system without requiring programming skills. It is therefore a question of providing them with tools that enable to formulate their business policies in a near natural language form and automate their processing. Nowadays, with the expansion of intelligent systems, we have to cope with more and more complex decision logic and large volumes of data. It is not straightforward to identify the causes leading to a decision. There is a growing need to justify and optimize automated decisions in a short time frame, which motivates the integration of advanced explanatory component into its systems. Thus, the main challenge of this research is to provide an industrializable approach for explaining the decision-making processes of business rules applications and more broadly rule-based systems. This approach should be able to provide the necessary information for enabling a general understanding of the decision, to serve as a justification for internal and external entities as well as to enable the improvement of existing rule engines. To this end, the focus will be on the generation of the explanations in themselves as well as on the manner and the form in which they will be delivered
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Tientcheu, Joseph. "Couplage fonctionnel homme-machine : des communications interactives et de la génération des faits d'émotion". Paris 8, 2003. http://www.theses.fr/2003PA082328.

Texto completo da fonte
Resumo:
Le texte présenté ci-dessus concerne une approche des communications par rapport à plusieurs sciences. La problématique est celle de l'interface homme-machine dans toutes ses composantes dans le cadre des médiations. L'hypothèse est que les nouvelles sciences nous apparaissent souvent comme une décongélation et qu'il convient de visiter ou de revisiter certaines sciences (psychologie, philosophie, intelligence artificielle) qui peuvent servir de fondements à notre vision des choses. La première partie plante le décors de la problématique à travers certains concepts et invariants qui constituent le premier socle de notre approche. La deuxième partie focalise sur ce que l'Homme a en particulier et en exclusivité quant aux communications ayant un sens. La troisième partie nous dit en quoi nous ressemblons ou divergeons par rapport aux machines pour les communications. La quatrième partie nous décrit quelques outils fondamentaux qui rendent fécond notre univers de recherche. La dernière et cinquième partie est une prospective vers un essai de modélisation sur un mode complexe et nous montre ce que l'intelligence artificielle peut nous apporter dans une démarche systémique tendant vers une écologie de la communication
This text is a mediologic approach of communication by comparison with many other sciences. It develops a theory based upon human and computer interface with the help of psychology, philosophy and Artificial Intelligency which can help us to get a new vision on hypermedia communications. The first part illustrates how somes parameters and concepts involve in our process construction. The second part describes in what HUMAN being is particular, the third part shows some common points and differences beetwen human and the computer about communications. The fourth part represents the staging tools concerning the rich feeld of our commitment. The end is a reflexion about systemic construction wich can helps us to built an ecologic communications approach
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Fahlaoui, Ouafae. "Système expert de génération automatique de Grafcet à partir d'une spécification lexicale libre du cahier des charges". Paris 11, 1987. http://www.theses.fr/1987PA112204.

Texto completo da fonte
Resumo:
Le système wab constitue une bonne application de l'intelligence artificielle à la conception des automatismes logiques. Il permet la traduction du cahier de charges rédigé en langage libre en un outil de description normalisé: le grafcet. Il est conçu suivant une structure de système expert : l'interface de communication homme/machine ; la base des connaissances; le mécanisme de raisonnement. Les performances du système wab pourraient être améliorés par l'utilisation de versions récentes de prolog.
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Giroire, Hélène. "Un système à base de connaissances pour la génération d'exercices dans des domaines liés au monde réel". Paris 6, 1989. http://www.theses.fr/1989PA066210.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Wang, Dong Hue. "Systèmes multi-agents adaptatifs avec contraintes temps-réel : De la spécification formelle à la vérification et à la génération de code". Evry-Val d'Essonne, 2005. http://www.theses.fr/2005EVRY0011.

Texto completo da fonte
Resumo:
La conception de systèmes réactifs répond à des impératifs de correction logique (le système fait ce qu'il doit) et de correction temporelle (le système se conforme à un ensemble de contraintes temporelles). Nous proposons dans cet article une approche globale de conception de systèmes réactifs adaptatifs, c'est à dire adaptant dynamiquement leur architecture en fonction du contexte. Pour représenter le comportement des agents composant le système, nous utilisons le formalisme des automates temporisés, ce qui permet d'évaluer à priori les propriétés du système (en termes de correction logique et temporelle), grâce à des techniques de model-checking et de simulation. Des outils de génération automatique de code, que nous avons développés, nous permettent ensuite de produire rapidement, à partir du modèle, un prototype multi-agents opérationnel qui satisfait les mêmes propriétés
The design of reactive systems must comply with logical correctness (the system does what it supposed to do) and timeliness (the system has to satisfy a set of temporal constraints) criteria. In this paper, we propose a global approach for the design of adaptative reactive systems, i. E. Systems that dynamically adapt their architecture depending on the context. We use the timed automata formalism for the design of the agents' behaviour. This allows evaluating beforehand the properties of the system (regarding logical correctiness and timeliness), thanks to model-checking and simulation techniques. This model is enhanced to tools that we developed for the automatic generation of code, allowing to produce very quickly a running multi-agent prototype satisfying the properties of model
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Hankach, Pierre. "Génération automatique de textes par satisfaction de contraintes". Paris 7, 2009. http://www.theses.fr/2009PA070027.

Texto completo da fonte
Resumo:
Nous nous intéressons dans cette thèse à la construction d'un système de génération automatique - un logiciel informatique capable de transformer une représentation formelle de l'information en un texte en langage naturel. Dans notre approche, nous définissons la génération comme un problème de satisfaction de contraintes (CSP). Le système résultant garantit un traitement intégré des opérations de la génération car les différentes dépendances sont prises en compte et aucune priorité n'est donnée à un type d'opération par rapport aux autres. Pour définir le problème de satisfaction de contraintes, nous représentons les opérations de construction du texte par des variables de décision. Les opérations individuelles qui réalisent un même type d'expressions minimales dans le texte sont groupées ensemble et constituent une tâche de la génération. Nous classons les variables de décision selon les types d'opérations qu'elles représentent (e. G. Variables de sélection du contenu, variables de structuration du document. . . ). Les règles linguistiques régissant les opérations sont représentées par des contraintes sur les variables. Une contrainte peut être définie sur des variables d'un ou plusieurs type(s), marquant la dépendance entre les opérations correspondantes. La production d'un texte consiste en la résolution du système global des contraintes, c'est-à-dire trouver une affectation complète des variables qui ne viole pas les contraintes. Dans le cadre de la définition de la grammaire de contraintes, nous formulons notamment la partie qui régit les opérations de structuration du document. Nous modélispns par des contraintes la structure rhétorique développée par la SORT afin d'aboutir à des textes cohérents à la sortie du générateur. Auparavant, afin d'augmenter les capacités de génération de notre système, nous étendons cette structure rhétorique pour couvrir les textes non canoniques. En plus de la définition de ces contraintes pour la cohérence, nous formulons un ensemble de contraintes qui permettent de façonner la macrostructure en fonction des buts communicatifs afin de favoriser leur réalisation. Enfin, nous proposons une solution au problème de la complexité de calcul de la génération de textes de grande taille. Cette solution repose sur la génération de ces textes par paquet de propositions. Le problème de génération du texte global est ainsi défini comme plusieurs problèmes de génération de parties du texte. Ces parties sont de taille limitée et la complexité associée à leur génération reste raisonnable. Le partitionnement proposé est motivé par des considérations linguistiques
We address in this thesis the construction of a natural language generation System - computer software that transforms a formal representation of information into a text in natural language. In our approach, we define the generation problem as a constraint satisfaction problem (CSP). The implemented System ensures an integrated processing of generation operations as their different dependencies are taken into account and no priority is given to any type of operation over the others. In order to define the constraint satisfaction problem, we represent the construction operations of a text by decision variables. Individual operations that implement the same type of minimal expressions in the text form a generation task. We classify decision variables according to the type of operations they represent (e. G. Content selection variables, document structuring variables. . . ). The linguistic rules that govern the operations are represented as constraints on the variables. A constraint can be defined over variables of the same type or different types, capturing the dependency between the corresponding operations. The production of a text consists of resolving the global System of constraints, that is finding an evaluation of the variables that satisfies all the constraints. As part of the grammar of constraints for generation, we particularly formulate the constraints that govern document structuring operations. We model by constraints the rhetorical structure of SORT in order to yield coherent texts as the generator's output. Beforehand, in order to increase the generation capacities of our System, we extend the rhetorical structure to cover texts in the non-canonical order. Furthermore, in addition to defining these coherence constraints, we formulate a set of constraints that enables controlling the form of the macrostructure by communicative goals. Finally, we propose a solution to the problem of computational complexity of generating large texts. This solution is based on the generation of a text by groups of clauses. The problem of generating a text is therefore divided into many problems of reduced complexity, where each of them is concerned with generating a part of the text. These parts are of limited size so the associated complexity to their generation remains reasonable. The proposed partitioning of generation is motivated by linguistic considerations
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Naanaa, Wady. "Résolution de problèmes de satisfaction de contraintes intégrant la flexibilité et la symétrie : application à la génération de structures moléculaires". Lyon 1, 1996. http://www.theses.fr/1996LYO10320.

Texto completo da fonte
Resumo:
Dans ce memoire, nous introduisons une procedure systematique pour la resolution de problemes de satisfaction de contraintes binaires (csps). Cette procedure integre deux strategies de recherche. Nous proposons des extensions au formalisme csp standard. Ces extensions permettent la relaxation des csps surcontraints et la resolution de csps ayant une structure ambigue. Nous proposons egalement une methode, pour le traitement de la symetrie inherente aux csps. Cette methode s'appuie sur les automorphismes de graphe simple. Nous validons les methodes et procedures proposees sur le probleme de l'identification des structures moleculaires qui est un probleme central en chimie analytique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Franceschi, Jean-Yves. "Apprentissage de représentations et modèles génératifs profonds dans les systèmes dynamiques". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS014.

Texto completo da fonte
Resumo:
L'essor de l'apprentissage profond trouve notamment sa source dans les avancées scientifiques qu'il a permises en termes d'apprentissage de représentations et de modèles génératifs. Dans leur grande majorité, ces progrès ont cependant été obtenus sur des données textuelles et visuelles statiques, les données temporelles demeurant un défi pour ces méthodes. Compte tenu de leur importance pour l'automatisation croissante de multiples tâches, de plus en plus de travaux en apprentissage automatique s'intéressent aux problématiques d'évolution temporelle. Dans cette thèse, nous étudions ainsi plusieurs aspects de la temporalité et des systèmes dynamiques dans les réseaux de neurones profonds pour l'apprentissage non supervisé de représentations et de modèles génératifs. Premièrement, nous présentons une méthode générale d'apprentissage de représentations non supervisée pour les séries temporelles prenant en compte des besoins pratiques d'efficacité et de flexibilité. Dans un second temps, nous nous intéressons à l'apprentissage pour les séquences structurées de nature spatio-temporelle, couvrant les vidéos et phénomènes physiques. En les modélisant par des équations différentielles paramétrisées par des réseaux de neurones, nous montrons la corrélation entre la découverte de représentations pertinentes d'un côté, et de l'autre la fabrique de modèles prédictifs performants sur ces données. Enfin, nous analysons plus généralement dans une troisième partie les populaires réseaux antagonistes génératifs dont nous décrivons la dynamique d'apprentissage par des équations différentielles, nous permettant d'améliorer la compréhension de leur fonctionnement
The recent rise of deep learning has been motivated by numerous scientific breakthroughs, particularly regarding representation learning and generative modeling. However, most of these achievements have been obtained on image or text data, whose evolution through time remains challenging for existing methods. Given their importance for autonomous systems to adapt in a constantly evolving environment, these challenges have been actively investigated in a growing body of work. In this thesis, we follow this line of work and study several aspects of temporality and dynamical systems in deep unsupervised representation learning and generative modeling. Firstly, we present a general-purpose deep unsupervised representation learning method for time series tackling scalability and adaptivity issues arising in practical applications. We then further study in a second part representation learning for sequences by focusing on structured and stochastic spatiotemporal data: videos and physical phenomena. We show in this context that performant temporal generative prediction models help to uncover meaningful and disentangled representations, and conversely. We highlight to this end the crucial role of differential equations in the modeling and embedding of these natural sequences within sequential generative models. Finally, we more broadly analyze in a third part a popular class of generative models, generative adversarial networks, under the scope of dynamical systems. We study the evolution of the involved neural networks with respect to their training time by describing it with a differential equation, allowing us to gain a novel understanding of this generative model
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Molinet, Benjamin. "Génération et évaluation d'explications argumentatives en langage naturel appliquées au domaine médical". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4063.

Texto completo da fonte
Resumo:
L'Argument Mining, un domaine en pleine expansion du traitement automatique du langage naturel (TALN) et des modèles informatiques d'argumentation, vise à reconnaître automatiquement les structures d'argumentation (c'est-à-dire les composants et les relations) dans les ressources textuelles en langage naturel. Dans le domaine médicale, l'Argument Mining s'est avérée bénéfique en fournissant des méthodes pour détecter automatiquement les structures argumentatives afin de soutenir la médecine fondée sur des preuves. L'importance de ces approches repose sur le fait que, malgré la précision des modèles neuronaux dans la prédiction de diagnostic médical, l'explication de leurs résultats reste problématique. Cette thèse aborde cette question ouverte et se concentre sur la génération et l'évaluation d'explications argumentatives en langage naturel pour les prédictions de diagnostic, afin d'aider les cliniciens dans la prise de décision et l'apprentissage. Tout d'abord, j'ai proposé un nouveau pipeline complet pour générer automatiquement des explications en langage naturel d'examens (QCM) médicaux sur les diagnostics en s'appuyant sur une ontologie médicale et des entités cliniques à partir des textes d'examen. J'ai défini un système état de l'art de reconnaissance et de classification des entités médicales nommées (NERC) pour détecter les symptômes exprimés par les patients et les résultats médicaux que j'aligne sur les termes de l'ontologie afin de justifier le diagnostic d'un cas clinique fourni aux résidents en médecine. Le module NERC, appelé SYMEXP, permet à notre système de générer des explications argumentatives en langage naturel basées sur des templates afin de justifier pourquoi la bonne réponse est correcte et pourquoi les autres options proposées ne le sont pas. Deuxièmement, j'ai proposé un cadre d'évaluation des explications basées sur l'argumentation, appelé ABEXA, pour extraire automatiquement la structure argumentative d'un QCM médicale et mettre en évidence un ensemble de critères personnalisables pour caractériser l'explication clinique et l'argumentation du document. ABEXA aborde la question de l'évaluation des explications d'un point de vue argumentatif en définissant un ensemble de patterns sur un graphe argumentatif généré automatiquement. Troisièmement, j'ai contribué à la conception et au développement de la suite de logiciels ANTIDOTE, qui propose différents modules d'intelligence artificielle explicative guidée par l'argumentation pour la médecine. Notre système offre les fonctionnalités suivantes : analyse argumentative multilingue pour le domaine médical, explication, extraction et génération de diagnostics cliniques, modèles linguistiques multilingues pour le domaine médical, et le premier benchmark multilingue de QCM médicaux. En conclusion, dans cette thèse, j'explore comment l'intelligence artificielle combinée à la théorie de l'argumentation pourrait conduire à des systèmes de soins de santé plus transparents. Nous appliquons nos résultats au domaine critique de la médecine en montrant tout leur potentiel en termes de soutien à l'éducation, par exemple, des étudiants en médecine
Argument(ation) mining, a rapidly growing area of Natural Language Processing (NLP) and computational models of argument, aims at the automatic recognition of argument structures (i.e., components and relations) in natural language textual resources. In the healthcare domain, argument mining has proven beneficial in providing methods to automatically detect argumentative structures to support Evidence-Based Medicine (EBM). The importance of these approaches relies on the fact that, despite the accuracy of neural models in medical diagnosis, explanation of their outcomes remains problematic. The thesis tackles this open issue and focuses on generation and assessment of natural language argumentative explanations for diagnosis predictions, supporting clinicians in decision making and learning. First, I proposed a novel complete pipeline to automatically generate natural language explanations of medical question answering exams for diagnoses relying on a medical ontology and clinical entities from exam texts. I defined a state-of-the-art medical named entity recognition and classification (NERC) system to detect layperson symptoms and medical findings that I align to ontology terms so as to justify a diagnosis of a clinical case provided to medical residents. NERC module, called SYMEXP, allows our system to generate template-based natural language argumentative explanations to justify why the correct answer is correct and why the other proposed options are not. Second, I proposed an argument-based explanation assessment framework, called ABEXA, to automatically extract the argumentative structure of a medical question answering document and highlight a set of customisable criteria to characterise the clinical explanation and the document argumentation. ABEXA tackles the issue of explanation assessment from the argumentative viewpoint by defining a set of graph rules over an automatically generated argumentative graph. Third, I contributed to the design and development of the ANTIDOTE software tool, proposing different modules for argumentation-driven explainable Artificial Intelligence for digital medicine. Our system offers the following functionalities: multilingual argumentative analysis for the medical domain, explanation, extraction and generation of clinical diagnoses, multilingual large language models for the medical domain, and the first multilingual benchmark for medical question-answering. In conclusion, in this thesis, I explore how artificial intelligence combined with the argumentation theory could lead to more transparent healthcare systems. We apply our results to the critical domain of medicine showing all their potential in terms of support for education, for example, of clinical residents
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Ben, ameur Ayoub. "Artificial intelligence for resource allocation in multi-tenant edge computing". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS019.

Texto completo da fonte
Resumo:
Dans cette thèse, nous considérons le Edge Computing (EC) comme un environnement multi-tenant où les Opérateurs Réseau (NOs) possèdent des ressources en périphérie déployées dans les stations de base, les bureaux centraux et/ou les boîtiers intelligents, les virtualisent, et permettent aux Fournisseurs de Services tiers (SPs) - ou tenants - de distribuer une partie de leurs applications en périphérie afin de répondre aux demandes des utilisateurs. Les SPs aux besoins hétérogènes coexistent en périphérie, allant des Communications Ultra-Fiables à Latence Ultra-Basse (URLLC) pour le contrôle des véhicules ou des robots, à la Communication de Type Machine Massive (mMTC) pour l'Internet des Objets (IoT) nécessitant un grand nombre de dispositifs connectés, en passant par les services multimédias tels que la diffusion vidéo et la Réalité Augmentée/Virtuelle (AR/VR), dont la qualité d'expérience dépend fortement des ressources disponibles. Les SPs orchestrent indépendamment leur ensemble de microservices, exécutés dans des conteneurs, qui peuvent être facilement répliqués, migrés ou arrêtés. Chaque SP peut s'adapter aux ressources allouées par le NO, en décidant s'il doit exécuter des microservices sur les appareils, les nœuds en périphérie ou dans le cloud.L'objectif de cette thèse est de promouvoir l'émergence de déploiements réels du ``véritable" EC dans de vrais réseaux, en montrant l'utilité que les NOs peuvent tirer de l'EC. Nous croyons que cela peut contribuer à encourager l'engagement concret et les investissements des NOs dans l'EC. À cette fin, nous proposons de concevoir de nouvelles stratégies basées sur les données qui allouent efficacement les ressources entre les SPs hétérogènes, en périphérie, appartenant au NO, afin d'optimiser ses objectifs pertinents, tels que la réduction des coûts, la maximisation des revenus et l'amélioration de la Qualité de Service (QoS) perçue par les utilisateurs finaux, en termes de latence, de fiabilité et de débit, tout en répondant aux exigences des SPs.Cette thèse présente une perspective sur la manière dont les NOs, les seuls propriétaires de ressources en périphérie, peuvent extraire de la valeur grâce à la mise en œuvre de l'EC dans un environnement multi-tenant. En promouvant cette vision de l'EC et en la soutenant par des résultats quantitatifs et une analyse approfondie, cette thèse fournit principalement aux NOs des conclusions susceptibles d'influencer les stratégies de décision concernant le déploiement futur de l'EC. Cela pourrait favoriser l'émergence de nouvelles applications à faible latence et à forte intensité de données, telles que la réalité augmentée haute résolution, qui ne sont pas envisageables dans le cadre actuel du Cloud Computing (CC).Une autre contribution de la thèse est qu'elle propose des solutions basées sur des méthodes novatrices exploitant la puissance de l'optimisation basée sur les données. En effet, nous adaptons des techniques de pointe issues de l'Apprentissage par Renforcement (RL) et de la prise de décision séquentielle au problème pratique de l'allocation des ressources en EC. Ce faisant, nous parvenons à réduire le temps d'apprentissage des stratégies adoptées à des échelles compatibles avec la dynamique de l'EC, grâce à la conception soignée de modèles d'estimation intégrés au processus d'apprentissage. Nos stratégies sont conçues de manière à ne pas violer les garanties de confidentialité essentielles pour que les SPs acceptent d'exécuter leurs calculs en périphérie, grâce à l'environnement multi-tenant
We consider in this thesis Edge Computing (EC) as a multi-tenant environment where Network Operators (NOs) own edge resources deployed in base stations, central offices and/or smart boxes, virtualize them and let third party Service Providers (SPs) - or tenants - distribute part of their applications in the edge in order to serve the requests sent by the users. SPs with heterogeneous requirements coexist in the edge, ranging from Ultra-Reliable Low Latency Communications (URLLC) for controlling cars or robots, to massive Machine Type Communication (mMTC) for Internet of Things (IoT) requiring a massive number of connected devices, to media services, such as video streaming and Augmented/Virtual Reality (AR/VR), whose quality of experience is strongly dependant on the available resources. SPs independently orchestrate their set of microservices, running on containers, which can be easily replicated, migrated or stopped. Each SP can adapt to the resources allocated by the NO, deciding whether to run microservices in the devices, in the edge nodes or in the cloud.We aim in this thesis to advance the emergence of real deployments of the“true” EC in real networks, by showingthe utility that NOs can collect thanks to EC. We believe that thiscan contribute to encourage concrete engagement and investments engagement of NOs in EC. For this, we point to design novel data-driven strategiesthat efficiently allocate resources between heterogeneous SPs, at the edge owned by the NO, in order to optimize its relevant objectives, e.g., cost reduction, revenue maximization and better Quality of Service (QoS) perceived by end users, in terms of latency, reliability and throughput, while satisfying the SPs requirements.This thesis presents a perspective on how NOs, the sole owners of resources at the far edge (e.g., at base stations), can extract value through the implementation of EC within a multi-tenant environment.By promoting this vision of EC and by supporting it via quantitativeresults and analysis, this thesis provides, mainly to NOs, findings that can influence decision strategies about the future deployment of EC. This might foster the emergence of novel low-latency and data-intensive applications, such as high resolution augmented reality, which are not feasible in the current Cloud Computing (CC) setting.Another contribution of the thesis it that it provides solutions based on novel methods that harness the power of data-driven optimization.We indeed adapt cutting-edge techniques from Reinforcement Learning (RL) and sequential decision making to the practical problem of resource allocation inEC. In doing so, we succeed in reducing the learning time of the adopted strategies up to scales that are compatible with the EC dynamics, via careful design of estimation models embedded in the learning process. Our strategies are conceived in order not to violate the confidentiality guarantees that are essential for SPs to accept running their computation at the EC, thanks to the multi-tenant setting
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Rarivomanana, Jens A. "Système CADOC : génération fonctionnelle de test pour les circuits complexes". Phd thesis, Grenoble INPG, 1985. http://tel.archives-ouvertes.fr/tel-00319028.

Texto completo da fonte
Resumo:
Le système CADOC est un outil de conception assisté pour circuits VLSI, basé sur le langage CADOC-LD. Présentation du langage CADOC-LD en tenant compte de l'étude du langage de description de matériel CHDL. Application à partir du langage CADOC-LD basée sur les techniques d'exécution symbolique temporisée et de l'intelligence artificielle
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Audemard, Gilles. "Résolution du problème SAT et génération de modèles finis en logique du premier ordre". Aix-Marseille 1, 2001. http://www.theses.fr/2001AIX11036.

Texto completo da fonte
Resumo:
Dans la première partie de cette thèse nous traitons du problème SAT. Nous proposons un lagorithme permettant de détecter des mono-littéraux que la procédure de DAVIS et PUTNAM (DP) n'exploite pas. Cet algorithme est combiné avec la procédure DP créant ainsi une méthode que nous avons nommé AVAL. L'étude expérimentale que nous avons menée a mis en avant une avalanche de propagation de mono-littéraux donnant lieu à cette appellation. Dans la deuxième partie, nous abordons la génération de modèles finis pour les théories multi-types de la logique du premier ordre. Nous avons essayé d'améliorer la propagation des contraintes de diverses manières. La première utilise un pré-traitement qui modifie la syntaxe de la théorie. La deuxième est un algorithme de type "look-ahead" qui détecte les valeurs de domaines incompatibles et induit une heuristique de type UP. La dernière crée, à partir de la syntaxe de la théorie, un ordre de préférence sur les symboles fonctionnels que nous utilisons pour mettre au point des heuristiques optimisant la propagation. Les problèmes exprimés sous forme de théories multi-types contiennent souvent un grand nombre de symétries. Il est nécessaire d'en supprimer une partie pour avoir un générateur de modèles finis efficace. Certains utilisent l'heuristique LNH pour supprimer les isomorphismes triviaux. Nous proposons une extension de cette dernière, nommée XLNH , qui ne génère que les interprétations non symétriques d'une fonction unaire. Elle détecte ensuite statiquement certains isomorphismes sans sur-coût de temps. Nous avons ensuite étudié un cadre plus général de la symétrie, nous montrons de nouvelles propriétés concernant les symétries et étudions un algorithme qui permet de les détecter et de les exploiter dynamiquement. Nous montrons, notamment, que les symétries supprimées par les heuristiques LNH et XLNH sont des cas particuliers de ce cadre d'étude.
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Arantes, Júnior Wilmondes Manzi de. "P. A. S. Pluggable Alert System : un système pour la génération et l'affichage d'alertes médicales adaptées à l'utilisateur". Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0025/these.pdf.

Texto completo da fonte
Resumo:
Ce travail concerne la conception et le développement d’un système de détection d’alertes médicales adaptables au contexte de consultation dans le cadre des réseaux de soins. Ces alertes sont créées à l’aide de variables linguistiques associées à des niveaux d’importance (alerte si âge = âgé; important et température = très-chaud; très-important) et dont les rapports d’influence (le poids dépend de l’âge) sont modélisés par un graphe orienté pondéré. Chaque alerte déclenchée présente deux indices de qualité – dits d’applicabilité et de confiance – qui indiquent dans quelle mesure le patient est concerné et jusqu’à quel point elle est digne de confiance. Notre système est aussi capable de traiter de façon transparente les informations manquantes en s’appuyant sur une base historique utilisée pour prédire le valeurs inconnues. Au niveau de l’affichage, un module multi-agents se charge d’adapter les alertes déclenchées au contexte, qui est représenté, entre autres, par les caractéristiques du professionnel de santé, le dispositif d’affichage et l’urgence. L’adaptation est alors menée par trois agents intelligents – le patient, le médecin et l’alerte – qui négocient sur la qualité requise pour chaque dimension de l’interface finale : le contenu, le graphisme et la sécurité. Ensuite, des appels d’offre correspondants sont diffusés dans trois sociétés d’agents de service exécuteurs de tâches qui représentant ces trois dimensions et ceux qui les gagnants collaborent pour construire l’interface de l’alerte. Finalement, les tests réalisés sur le module de détection – qui fera l’objet d’un dépôt de brevet – se sont montrés très satisfaisants
We propose a system that is able to detect and trigger user-defined medical alerts in the context of healthcare networks. Such alerts are created by using fuzzy linguistic variables associated with importance levels (e. G. Alert if age = elderly; important and air-temperature = very-hot; very-important) and whose dependency relationships (e. G. The weight depends on the age) are modeled through a weighted oriented graph. Each alert the system triggers has two quality indicators – an applicability level and a trust level – which state to which extent the patient is concerned and how reliable it is. Our system is also able to transparently infer missing information by using an historical database containing previously reported similar cases. Finally, a multi-agents display module adapts each alert to the context, which is represented by the patient (elderly, etc. ), the healthcare user (physician, etc. ), the display device (PC, PDA, etc. ), the place (hospital, etc. ) and the urgency of the alert itself (very urgent, etc. ). The adaptation process is controlled by three intelligent agents – the patient, the physician and the alert – which negotiate to agree on the min-max quality levels required for the three dimensions of display: contents (information that will be shown), graphics (graphic components that will be used) and security (protection mechanisms to use). Then, the corresponding task announcements are broadcasted within three societies of reactive agents (which have not cognitive capabilities and simply perform tasks) representing these dimensions and the winning ones collaborate to build the interface of the alert. The final system will be integrated into the hospital information system provided by the company that has sponsored my research and will be patented as soon as possible
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Caudron, Didier. "Utilisation de techniques de résolution de problèmes pour la planification de séquences de redémarrage de processus continus". Compiègne, 1990. http://www.theses.fr/1990COMPD306.

Texto completo da fonte
Resumo:
Après avoir présenté les principales caractéristiques et difficultés liées aux problèmes de planification d'opérations pendant les périodes de démarrage, nous proposons une représentation en terme de modes de fonctionnement des unités de production chimiques de type continues. Cette représentation a été élaborée après entretiens avec les opérateurs, elle est basée sur le concept général de région opératoire. Un mode de fonctionnement est défini comme un chemin de fluide autorisé pendant les périodes de démarrage. Une méthode permet de proposer une séquence de modes de fonctionnement ainsi que les conditions de transition qui permettent de passer d'un mode à un autre. Pour finir nous présentons des mécanismes permettant lors de l'exécution du plan de fournir les actions à mener sur le processus pour passer d'un mode à l'autre.
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Santoni, Williams Alexius. "Apprentissage par mémorisation d'expériences dans la résolution des problèmes". Compiègne, 1989. http://www.theses.fr/1989COMPD160.

Texto completo da fonte
Resumo:
Le travail que nous présentons est composé de deux études. La première partie porte sur les mécanismes propres à l'apprentissage en général, nous y étudions un ensemble de caractéristiques nécessaires à la mise en oeuvre des systèmes capables d'apprendre. Nous arguons que pour parvenir à ce but il faut être en mesure de mémoriser ses expériences passées, suite à cela nous présentons une recompilation et caractérisation des recherches sur l'apprentissage dans le domaine de l'intelligence artificielle. La deuxième partie concerne la mise en oeuvre d'un système qui apprend des comportements procéduraux par mémorisation des expériences dans la résolution des problèmes. Nous utilisons la technique du Morcellement (Rosenbloom, 1983) et de génération automatique des sous-buts (Laird, 1983). Le Morcellement étant une méthode de choix des informations pertinentes à la description d'une situation rencontrée et la génération automatique des sous-buts est une méthode générale de résolution des problèmes qui permet, entre autres, d'utiliser le Morcellement. Le résultat est un système semblable à SOAR (Laird, Rosenbloom, Newell 1986a).
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Ciguene, Richardson. "Génération automatique de sujets d'évaluation individuels en contexte universitaire". Electronic Thesis or Diss., Amiens, 2019. http://www.theses.fr/2019AMIE0046.

Texto completo da fonte
Resumo:
Ce travail de thèse s'intéresse à l'évaluation des apprentissages et notamment à la génération automatique de sujets d'évaluations dans les universités. Nous nous appuyons sur une base de questions sources pour créer les questions des sujets grâce à des algorithmes qui sont en mesure de construire des tests d'évaluation différenciés. Ces recherches ont permis d'élaborer une métrique qui mesure cette différenciation et de proposer des algorithmes visant à maximiser la différenciation totale sur des collections de tests, tout en minimisant le nombre de patterns nécessaires. Les performances en moyenne de ces derniers dépendent du nombre de patterns disponibles dans la base source (en regard du nombre d'items souhaités dans les tests), et de la taille des collections générées. On s'est focalisé sur la différenciation possible dans de très petites collections de sujets, et propose des pistes méthodologiques pour optimiser la distribution de ces sujets différenciés à des cohortes d'étudiants en respectant les contraintes de l'enseignant. La suite de ce travail sera éventuellement de prendre en compte le niveau de difficulté d'un Test comme nouvelle contrainte, en s'appuyant en partie sur les données statistiques et sémantiques récoltées après chaque Épreuve. Le but est de pouvoir maximiser la différenciation en gardant l'équité entre les Tests d'une Collection, pour une distribution optimisée lors des Épreuves
This PhD work focuses on the evaluation of learning and especially the automatic generation of evaluation topics in universities. We rely on a base of source questions to create topic questions through algorithms that are able to construct differentiated assessment tests. This research has made it possible to develop a metric that measures this differentiation and to propose algorithms aimed at maximizing total differentiation on test collections, while minimizing the number of necessary patterns. The average performance of the latter depends on the number of patterns available in the source database (compared to the number of items desired in the tests), and the size of the generated collections. We focused on the possible differentiation in very small collections of subjects, and proposes methodological tracks to optimize the distribution of these differentiated subjects to cohorts of students respecting the constraints of the teacher. The rest of this work will eventually take into account the level of difficulty of a test as a new constraint, relying in part on the statistical and semantic data collected after each test. The goal is to be able to maximize the differentiation by keeping the equity between the Tests of a Collection, for an optimized distribution during the Events
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Jeyasothy, Adulam. "Génération d'explications post-hoc personnalisées". Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS027.

Texto completo da fonte
Resumo:
La thèse se place dans le domaine de l'IA explicable (XAI, eXplainable AI). Nous nous concentrons sur les méthodes d'interprétabilité post-hoc qui visent à expliquer à un utilisateur la prédiction pour une donnée d'intérêt spécifique effectuée par un modèle de décision entraîné. Pour augmenter l'interprétabilité des explications, cette thèse étudie l'intégration de connaissances utilisateur dans ces méthodes, et vise ainsi à améliorer la compréhensibilité de l'explication en générant des explications personnalisées adaptées à chaque utilisateur. Pour cela, nous proposons un formalisme général qui intègre explicitement la connaissance via un nouveau critère dans les objectifs d'interprétabilité. Ce formalisme est ensuite décliné pour différents types connaissances et différents types d'explications, particulièrement les exemples contre-factuels, conduisant à la proposition de plusieurs algorithmes (KICE, Knowledge Integration in Counterfactual Explanation, rKICE pour sa variante incluant des connaissances exprimées par des règles et KISM, Knowledge Integration in Surrogate Models). La question de l'agrégation des contraintes de qualité classique et de compatibilité avec les connaissances est également étudiée et nous proposons d'utiliser l'intégrale de Gödel comme opérateur d'agrégation. Enfin nous discutons de la difficulté à générer une unique explication adaptée à tous types d'utilisateurs et de la notion de diversité dans les explications
This thesis is in the field of eXplainable AI (XAI). We focus on post-hoc interpretability methods that aim to explain to a user the prediction for a specific data made by a trained decision model. To increase the interpretability of explanations, this thesis studies the integration of user knowledge into these methods, and thus aims to improve the understandability of the explanation by generating personalized explanations tailored to each user. To this end, we propose a general formalism that explicitly integrates knowledge via a new criterion in the interpretability objectives. This formalism is then declined for different types of knowledge and different types of explanations, particularly counterfactual examples, leading to the proposal of several algorithms (KICE, Knowledge Integration in Counterfactual Explanation, rKICE for its variant including knowledge expressed by rules and KISM, Knowledge Integration in Surrogate Models). The issue of aggregating classical quality and knowledge compatibility constraints is also studied, and we propose to use Gödel's integral as an aggregation operator. Finally, we discuss the difficulty of generating a single explanation suitable for all types of users and the notion of diversity in explanations
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Membrado, Miguel. "Génération d'un système conceptuel écrit en langage de type semi-naturel en vue d'un traitment des données textuelles : application au langage médical". Paris 11, 1989. http://www.theses.fr/1989PA112004.

Texto completo da fonte
Resumo:
Cet ouvrage présente l'étude et la réalisation d'un système de traitement de données à visée générale (DOXIS), pouvant manipuler sous une même forme des données structurées, des données textuelles ou des connaissances. Le domaine de recherche concerné est l'intelligence artificielle, cadre au sein duquel est proposée une représentation des connaissances originale, permettant de créer des dictionnaires contenant des définitions conceptuelles rédigées dans un langage de type semi-naturel, formant la base de connaissances du système. L'objectif appliqué est en particulier de pouvoir mettre en œuvre un système documentaire "intelligent". La puissance du langage de déclaration permet de traiter une partie des ambiguïtés du langage, plus particulièrement les polysémies contextuelles, d'aborder les métonymies, de résoudre un certain nombre de types de paraphrases, de déclarer les connaissances au sein de polyhiérarchies, elles­mêmes divisées en environnements sémantiques, ainsi que de gérer les connaissances incomplètes. L'analyse et la recherche de documents se déroule en deux phases distinctes l'extraction conceptuelle, et la comparaison structurelle. La première étape fait l'objet de cette thèse, et sert à retrouver un ensemble pertinent de textes par rapport à une question, permettant ensuite de lancer la seconde étape. Celle-ci ne sera elle-même abordée que dans ses grandes lignes. Le but final des travaux est de retrouver la connaissance non pas au niveau du dictionnaire, mais au niveau des textes eux-mêmes
We present our research and our own realization on a KBMS (Knowledge Based Management System) aiming at processing any kind of data, especially textual data, and the related knowledge. In this field of applied Artificial Intelligence, we propose a way for representing knowledge : to describe it in a semi-natural language able as well to describe structures or relations as rules. Knowledge is managed as conceptual definitions figuring in a dictionary which represents the knowledge base. The power of this language allows to process a lot of ambiguities, especially those coming from contextual polysemia, to deal with metonymia or incomplete knowledge, and to solve several kinds of paraphrases. Simultaneous polyhierarchies as well as chunks are taken into account. The system has been specially studied for automatic processing of medical reports. An application to neuro­ radiology has been taken as example. But it could be applied as well to any other field, included outside Medecine to any professional field. Text analysis is realized in two steps : first a conceptual extraction, secondly a structural analysis. The first step only is taken into account in this thesis. It aims at retrieving pertinent documents, matching them to the given question by comparison between concepts, not between character strings. An overview of the second step will be presented. The final goal is to be able to retrieve the knowledge contained into the texts, i. E. The data themselves, and to manage it in respect to the knowledge represented into the dictionaries
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Gotlieb, Arnaud. "Contributions à la génération de tests à base de contraintes". Habilitation à diriger des recherches, Université Européenne de Bretagne, 2011. http://tel.archives-ouvertes.fr/tel-00699260.

Texto completo da fonte
Resumo:
Ces dernières années, les recherches en matière de Test Logiciel ont conduit au développement de techniques de résolution de contraintes dédiées, dans ce qui est appelé ''le test à base de contraintes''. Notre approche dans ce domaine vise à explorer l'apport de la Programmation par Contraintes à la génération automatique de test pour les programmes impératifs. Nous nous sommes intéressés à la résolution de problèmes combinatoires difficiles issus de la génération de données de test, en développant des techniques de propagation de contraintes et de filtrage, adaptées au traitement des constructions des langages de programmation. Notre habilitation tente de faire une première synthèse de ce sujet au travers de cinq contributions: l'hybridation de techniques de résolution de contraintes pour la génération automatique de cas de test, la génération probabiliste de cas de test à l'aide d'opérateurs à contrainte probabiliste, les contraintes sur un modèle mémoire pour les programmes manipulant les pointeurs, la résolution de contraintes sur les expressions portant sur les nombres à virgule flottante, et le test de programmes à contraintes. Nous illustrons également ces contributions par leur application à la vérification de logiciels critiques, et dressons quelques perspectives à ces travaux.
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Daher, Tony. "Gestion cognitive des réseaux radio auto-organisant de cinquième génération". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT023.

Texto completo da fonte
Resumo:
L’optimisation de l’opération des réseaux mobiles a toujours été d'un très grand intérêt pour les opérateurs, surtout avec une augmentation rapide du trafic mobile, des attentes qualité de service encore plus élevées des utilisateurs, et l’émergence de nouveaux services requérant des contraintes spécifiques et différentes. Le concept de gestion autonome des réseaux (SON) a été introduit par la 3rd Generation Partnership Project comme étant une solution prometteuse pour simplifier l’opération et la gestion des réseaux complexes. Aujourd’hui, plusieurs fonctions SON sont déjà déployées dans les réseaux. Cependant, les actions conduites par les fonctions SON dans le réseau dépendent de la configuration de l’algorithme même de ces fonctions, et aussi du contexte du réseau et de l’environnement ou cette fonction est déployée. D’autre part, un réseau radio mobile auto-organisant serait idéalement un réseau où toutes les fonctions autonomes (SON) fonctionnent de manière coordonnée et cohérente pour répondre à des objectifs de haut niveau de l’opérateur. L’entité autonome serait donc le réseau capable de s’autogérer pour répondre à une stratégie globale de l’opérateur, exprimée en termes d’objectifs de haut niveau de l’opérateur. A cette fin, nous proposons dans cette thèse une approche qu'on appel « Cognitive Policy Based SON Management » (C-PBSM). Le C-PBSM est capable d’apprendre des configurations optimales des fonctions SON selon les exigences de l’opérateur. Il a également la capacité d’améliorer sa décision au cours du temps en apprenant de son expérience passée, et de s’adapter avec les changements de l’environnement. Nous étudions plusieurs approches pour mettre en place la boucle cognitive en se basant sur l’apprentissage par renforcement (RL). Nous analysons la convergence et la scalabilité de ces approches et proposons des solutions adaptées. Nous prenons en compte la non stationnarité des réseaux, notamment la variation de trafic. Nous proposons également des solutions pour mettre en œuvre un apprentissage collaboratif et un transfert des connaissances. Une architecture SDN (software defined networks) est proposée pour le déploiement des agents d’apprentissage dans le réseau
The pressure on operators to improve the network management efficiency is constantly growing for many reasons: the user traffic that is increasing very fast, higher end users expectations, emerging services with very specific requirements. Self-Organizing Networks (SON) concept was introduced by the 3rd Generation Partnership Project as a promising solution to simplify the operation and management of complex networks. Many SON modules are already being deployed in today’s networks. Such networks are known as SON enabled networks, and they have proved to be useful in reducing the complexity of network management. However, SON enabled networks are still far from realizing a network that is autonomous and self-managed as a whole. In fact, the behavior of the SON functions depends on the parameters of their algorithm, as well as on the network environment where it is deployed. Besides, SON objectives and actions might be conflicting with each other, leading to incompatible parameter tuning in the network. Each SON function hence still needs to be itself manually configured, depending on the network environment and the objectives of the operator. In this thesis, we propose an approach for an integrated SON management system through a Cognitive Policy Based SON Management (C-PBSM) approach, based on Reinforcement Learning (RL). The C-PBSM translates autonomously high level operator objectives, formulated as target Key Performance Indicators (KPIs), into configurations of the SON functions. Furthermore, through its cognitive capabilities, the C-PBSM is able to build its knowledge by interacting with the real network. It is also capable of adapting with the environment changes. We investigate different RL approaches, we analyze the convergence time and the scalability and propose adapted solutions. We tackle the problem of non-stationarity in the network, notably the traffic variations, as well as the different contexts present in a network. We propose as well an approach for transfer learning and collaborative learning. Practical aspects of deploying RL agents in real networks are also investigated under Software Defined Network (SDN) architecture
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Durand, Philippe. "Contributions à la génération et à l'amendement de plans d'actions : application à la conception de gammes d'usinage dans un contexte CIM". Phd thesis, Grenoble INPG, 1988. http://tel.archives-ouvertes.fr/tel-00330034.

Texto completo da fonte
Resumo:
Présentation de concepts issus de la cotation volumique qui répondent aux besoins d'un système CFAO integré allant de la conception à la fabrication. Validation de ces concepts et des méthodes par implantation d'un logiciel de conception automatique de gammes d'usinage appelé Gagmat
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Cripwell, Liam. "Controllable and Document-Level Text Simplification". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0186.

Texto completo da fonte
Resumo:
La simplification de texte est une tâche qui consiste à réécrire un texte pour le rendre plus facile à lire et à comprendre pour un public plus large, tout en exprimant toujours le même sens fondamental. Cela présente des avantages potentiels pour certains utilisateurs (par exemple, les locuteurs non natifs, les enfants, les personnes ayant des difficultés de lecture), tout en étant prometteur en tant qu'étape de prétraitement pour les tâches de Traitement Automatique des Langues (TAL) en aval. Les progrès récents dans les modèles génératifs neuronaux ont conduit au développement de systèmes capables de produire des sorties très fluides. Cependant, étant donné la nature de "boîte noire" (black box) de ces systèmes de bout en bout, l'utilisation de corpus d'entraînement pour apprendre implicitement comment effectuer les opérations de réécriture nécessaires. Dans le cas de la simplification, ces ensembles de données comportent des limitation en termes à la fois de quantité et de qualité, la plupart des corpus étant soit très petits, soit construits automatiquement, soit soumis à des licences d'utilisation strictes. En conséquence, de nombreux systèmes ont tendance à être trop conservateurs, n'apportant souvent aucune modification au texte original ou se limitant à la paraphrase de courtes séquences de mots sans modifications structurelles substantielles. En outre, la plupart des travaux existants sur la simplification du texte se limitent aux entrées au niveau de la phrase, les tentatives d'application itérative de ces approches à la simplification au niveau du document ne parviennent en effet souvent pas à préserver de manière cohérente la structure du discours du document. Ceci est problématique, car la plupart des applications réelles de simplification de texte concernent des documents entiers. Dans cette thèse, nous étudions des stratégies pour atténuer la conservativité des systèmes de simplification tout en favorisant une gamme plus diversifiée de types de transformation. Cela implique la création de nouveaux ensembles de données contenant des instances d'opérations sous-représentées et la mise en œuvre de systèmes contrôlables capables d'être adaptés à des transformations spécifiques et à différents niveaux de simplicité. Nous étendons ensuite ces stratégies à la simplification au niveau du document, en proposant des systèmes capables de prendre en compte le contexte du document environnant. Nous développons également des techniques de contrôlabilité permettant de planifier les opérations à effectuer, à l'avance et au niveau de la phrase. Nous montrons que ces techniques permettent à la fois des performances élevées et une évolutivité des modèles de simplification
Text simplification is a task that involves rewriting a text to make it easier to read and understand for a wider audience, while still expressing the same core meaning. This has potential benefits for disadvantaged end-users (e.g. non-native speakers, children, the reading impaired), while also showing promise as a preprocessing step for downstream NLP tasks. Recent advancement in neural generative models have led to the development of systems that are capable of producing highly fluent outputs. However, these end-to-end systems often rely on training corpora to implicitly learn how to perform the necessary rewrite operations. In the case of simplification, these datasets are lacking in both quantity and quality, with most corpora either being very small, automatically constructed, or subject to strict licensing agreements. As a result, many systems tend to be overly conservative, often making no changes to the original text or being limited to the paraphrasing of short word sequences without substantial structural modifications. Furthermore, most existing work on text simplification is limited to sentence-level inputs, with attempts to iteratively apply these approaches to document-level simplification failing to coherently preserve the discourse structure of the document. This is problematic, as most real-world applications of text simplification concern document-level texts. In this thesis, we investigate strategies for mitigating the conservativity of simplification systems while promoting a more diverse range of transformation types. This involves the creation of new datasets containing instances of under-represented operations and the implementation of controllable systems capable of being tailored towards specific transformations and simplicity levels. We later extend these strategies to document-level simplification, proposing systems that are able to consider surrounding document context and use similar controllability techniques to plan which sentence-level operations to perform ahead of time, allowing for both high performance and scalability. Finally, we analyze current evaluation processes and propose new strategies that can be used to better evaluate both controllable and document-level simplification systems
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Duffaut, Olivier. "Problématique multi-modèle pour la génération d'arbres de test : application au domaine de l'automobile". Toulouse, ENSAE, 1994. http://www.theses.fr/1994ESAE0005.

Texto completo da fonte
Resumo:
Ce travail concerne l'étude d'un système multi-modèle d'aide à la génération d'arbres de test. Son application a été menée sur les systèmes électroniques de commande embarqués sur véhicules automobiles. Le travail présenté met en évidence les problèmes actuels du développement manuel des arbres de test et propose une solution basée sur l'utilisation conjointe de plusieurs modèles du système traité. Dans l'architecture présentée, chaque modèle est considéré comme une entité indépendante qui participe à la construction de l'arbre de test en rendant des services. Ce processus est supervisé par une autre entité qui est dépositaire de la stratégie globale de test. Trois modèles ont été développés : un modèle fonctionnel, un modèle de comportement électrique normal et un modèle de comportement électrique anormal. La connaissance utilisée, les technique de génération de test et les services renuds dans un cadre multi-modèle sont décrits pour chaque modèle. Un maquette informatique a été réalisée. / Les arbres de test fournis ont été testés sur un système d'injection de carburant et évalués par rapport aux arbres de test existants.
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Bourcier, Frédéric. "Représentation des connaissances pour la résolution de problèmes et la génération d'explications en langue naturelle : contribution au projet AIDE". Compiègne, 1996. http://www.theses.fr/1996COMPD903.

Texto completo da fonte
Resumo:
Dans le cadre du projet AIDE dont l'objectif est la conception d'un générateur de systèmes experts explicatifs, nous nous sommes intéressés à la représentation explicite du sens de textes explicatifs et au mécanisme permettant de les générer en langue naturelle. Notre étude sur la représentation du sens d'explications nous a conduits à contribuer au développement de la représentation générale des connaissances. Dans ce but, nous avons été amenés a étendre un formalisme de type réseaux sémantiques. Nous avons ainsi adjoint une nouvelle construction nous permettant notamment de représenter l'expression de connaissances sémantiques par des connaissances linguistiques (syntaxiques, morphologiques et lexicales), que nous avons incorporées dans le cadre d'un résolveur de problèmes de contrôle de procédés (SEFOR). Nous avons également introduit la notion d'ensemble, de façon à distinguer des collections d'objets. Enfin, nous avons défini une structure de représentation sémantique servant à représenter d'une part des propositions définitionnelles et d'autre part des explications, en tenant compte de leur intention communicative et de leur contenu informationnel. Pour valider l'ensemble de l'architecture des connaissances du générateur en tenant compte des nouvelles constructions, nous avons conçu et associé à un module de construction d'explications (Gréboval 94), un module de génération en langue naturelle. Ce dernier, suite à une phase de traduction sémantique, applique différentes phases de génération : syntaxique et morpho-lexicale, pour produire une phrase en français.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Nesvijevskaia, Anna. "Phénomène Big Data en entreprise : processus projet, génération de valeur et Médiation Homme-Données". Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1247.

Texto completo da fonte
Resumo:
Le Big Data, phénomène sociotechnique porteur de mythes, se traduit dans les entreprises par la mise en place de premiers projets, plus particulièrement des projets de Data Science. Cependant, ils ne semblent pas générer la valeur espérée. La recherche-action menée au cours de 3 ans sur le terrain, à travers une étude qualitative approfondie de cas multiples, pointe des facteurs clés qui limitent cette génération de valeur, et notamment des modèles de processus projet trop autocentrés. Le résultat est (1) un modèle ajusté de dispositif projet data (Brizo_DS), ouvert et orienté sur les usages, dont la capitalisation de connaissances, destiné à réduire les incertitudes propres à ces projets exploratoires, et transposable à l’échelle d’une gestion de portefeuille de projets data en entreprise. Il est complété par (2) un outil de documentation de la qualité des données traitées, le Databook, et par (3) un dispositif de Médiation Homme-Données, qui garantissent l’alignement des acteurs vers un résultat optimal
Big Data, a sociotechnical phenomenon carrying myths, is reflected in companies by the implementation of first projects, especially Data Science projects. However, they do not seem to generate the expected value. The action-research carried out over the course of 3 years in the field, through an in-depth qualitative study of multiple cases, points to key factors that limit this generation of value, including overly self-contained project process models. The result is (1) an open data project model (Brizo_DS), orientated on the usage, including knowledge capitalization, intended to reduce the uncertainties inherent in these exploratory projects, and transferable to the scale of portfolio management of corporate data projects. It is completed with (2) a tool for documenting the quality of the processed data, the Databook, and (3) a Human-Data Mediation device, which guarantee the alignment of the actors towards an optimal result
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Tsang, Jean Patrick. "Planification par combinaison de plans : application à la génération de gammes d'usinage". Grenoble INPG, 1987. http://tel.archives-ouvertes.fr/tel-00325043.

Texto completo da fonte
Resumo:
Etude de l'automatisation de la conception de gammes d'usinage. Il s'agit d'un problème de planification sous contraintes en intelligence artificielle qui a été résolu en employant, d'une part, une stratégie de planification par combinaison opportuniste de plans en conjonction avec un algorithme de traitement d'échecs " par compromis" et, d'autre part, une modélisation "par entités" du problème. Ces méthodes et modèles ont donné lieu à la réalisation du systeme propel, un générateur de plan d'actions général, et à son application à la conception automatique de gammes d'usinage
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Benabbou, Azzeddine. "Génération dynamique de situations critiques en environnements virtuels : dilemme et ambiguïté". Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2432.

Texto completo da fonte
Resumo:
Nos travaux traitent de la génération dynamique de situations critiques en environnements virtuels. Parmi les dimensions qui caractérisent les situations critiques, nous nous intéressons particulièrement aux dilemmes et aux situations ambiguës. L’enjeu informatique de nos travaux consiste à générer automatiquement des dilemmes et des situations ambiguës à partir de modèles qui ne sont pas destinés, à priori, pour décrire ces deux types de situations. Un dilemme est souvent défini comme étant une situation à choix difficile, où l’individu doit choisir entre deux options, ou plus, qui présentent toutes des inconvénients. L’ambiguïté quant à elle, se réfère aux situations qui sont sujettes à plusieurs interprétations. Dans le cadre de nos travaux, nous proposons tout d’abord un modèle formel de ces deux notions en se reposant sur des théories issues des sciences humaines et sociales. A partir de cette formalisation, nous proposons un ensemble d’algorithmes et de techniques de génération qui raisonnent sur des modèles de connaissances—manipulés par les experts du domaine — qui ne sont pas destinés, à priori, pour la description des dilemmes ou des situations ambiguës. Le raisonnement sur ces modèles sémantiques permet d’inférer de nouvelles connaissances. Elles permettent d’identifier les entités (e.g. actions, événements, objets) susceptibles de créer, si combinées ensemble, des situations qui vérifient les propriétés énoncées dans la formalisation des dilemmes et de l’ambiguïté
Our work is related to dynamic generation of critical situations in virtual environments. We focus on two particular types of critical situations: dilemmas and ambiguous situations. The challenge of this work is to generate automatically these situations using models that are not intended to describe dilemmas and ambiguous situations. A dilemma is defined as a situation that includes a difficult choice. It refers to a situation where individuals have to choose between two, or more, inconvenient options. Ambiguity refers to situations that can be interpreted in different ways. In the context of this thesis, we propose a formal model for the two notions that is inspired by humanities and social sciences. Using this formalization, we propose a set of algorithms and generation technics that use knowledge models — manipulated by domain experts — that are not intended to describe dilemmas and ambiguous situations. The use of these models enables the generation engine to infer new knowledge used to extract the entities (e.g. actions, events, objects) that can potentially produce situations that meet the properties defined in the dilemma and ambiguity formalization. In order to propose a content adapted to each learner, it is necessary to take into consideration the value system of each person in the dilemma generation process. Thus, we propose to operationalize the theory of universal values of Schwartz. Concerning the ambiguity, it is necessary to take into account the level of knowledge of the learner regarding the world variables. Thus, we propose to model the mental representation of the learner. In order to consider the uncertainties in this representation, we propose to use the belief functions theory that is well-suited for this matter
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Wang, Yaohui. "Apprendre à générer des vidéos de personnes". Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4116.

Texto completo da fonte
Resumo:
Les réseaux antagonistes génératifs (GAN) ont suscité une attention croissante en raison de leurs capacités à modéliser des distributions de données visuelles complexes, ce qui leur permet de générer et de traduire des images réalistes. Bien que la génération de vidéos réalistes soit la suite naturelle, elle est nettement plus difficile en ce qui concerne leur complexité et leur calcul, associés à la modélisation simultanée de l'apparence, ainsi que du mouvement de la personne dans la vidéo. Plus précisément, en inférant et en modélisant la distribution de vidéos, les modèles génératifs sont confrontés à trois défis principaux : (a) générer un nouveau mouvement et conserver l'apparence de la personne, (b) modéliser la cohérence spatio-temporelle, ainsi que (c) comprendre la représentation latente de la vidéo.Dans cette thèse, nous proposons un certain nombre d'approches novatrices pour générer des vidéos de haute qualité visuelle et interpréter l'espace latent de la représentation de la vidéo dans ces modèles génératifs. Nous introduisons tout d'abord une méthode, qui apprend à générer conditionnellement des vidéos basées sur une seule image en entrée. Notre modèle proposé permet une génération de vidéo contrôlable en fournissant diverses catégories de mouvement. Deuxièmement, nous présentons un modèle, qui est capable de produire des vidéos à partir de vecteurs de bruit en dissociant l'apparence et le mouvement dans l'espace latent. Nous démontrons que les deux facteurs peuvent être manipulés de manière conditionnelle et inconditionnelle. Troisièmement, nous introduisons un modèle génératif inconditionnel de vidéos qui permet l'interprétation de l'espace latent. Nous mettons l'accent sur l'interprétation et la manipulation du mouvement. Nous montrons que la méthode proposée est capable de découvrir des représentations du mouvement sémantiquement significatives, qui à leur tour permettent le contrôle des vidéos générées. Enfin, nous décrivons une nouvelle approche pour combiner la modélisation générative avec l'apprentissage contrastif pour la réidentification de personnes en mode non supervisé. Nous exploitons les données générées en tant qu'augmentation de données et montrons que ces données peuvent améliorer la précision de la ré-identification
Generative Adversarial Networks (GANs) have witnessed increasing attention due to their abilities to model complex visual data distributions, which allow them to generate and translate realistic images. While realistic \textit{video generation} is the natural sequel, it is substantially more challenging w.r.t. complexity and computation, associated to the simultaneous modeling of appearance, as well as motion. Specifically, in inferring and modeling the distribution of human videos, generative models face three main challenges: (a) generating uncertain motion and retaining of human appearance, (b) modeling spatio-temporal consistency, as well as (c) understanding of latent representation. In this thesis, we propose three novel approaches towards generating high-visual quality videos and interpreting latent space in video generative models. We firstly introduce a method, which learns to conditionally generate videos based on single input images. Our proposed model allows for controllable video generation by providing various motion categories. Secondly, we present a model, which is able to produce videos from noise vectors by disentangling the latent space into appearance and motion. We demonstrate that both factors can be manipulated in both, conditional and unconditional manners. Thirdly, we introduce an unconditional video generative model that allows for interpretation of the latent space. We place emphasis on the interpretation and manipulation of motion. We show that our proposed method is able to discover semantically meaningful motion representations, which in turn allow for control in generated results. Finally, we describe a novel approach to combine generative modeling with contrastive learning for unsupervised person re-identification. Specifically, we leverage generated data as data augmentation and show that such data can boost re-identification accuracy
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Henry-Chatelain, Catherine. "Génération de méta-faits pour la modélisation du raisonnement en diagnostic médical : application du diagnostic de l'infection néonatale". Compiègne, 1987. http://www.theses.fr/1987COMPD068.

Texto completo da fonte
Resumo:
Le thème de ce travail est le développement d'un système expert relatif au diagnostic de l'infection materno-fœtale chez le nouveau né. Cette étude s'insère dans le cadre de développement d'un générateur de système expert utilisable en mode diagnostic et en mode simulation. Après avoir présenté les différentes étapes de réalisation d'un système expert d'une part et les principaux modes de représentation des connaissances à travers la description de systèmes experts en médecine d'autre part, nous décrivons le générateur de système expert et son interface langage naturel à partir desquels nous avons réalisé ce développement. Nous décrivons ensuite ce qu'est l'infection materno-fœtale afin de soulever tous les problèmes posés par son diagnostic. Ceux-ci sont décomposés et formulés de façon telle que l'expertise se retrouve sous forme de règles de raisonnement simples. Nous proposons alors un modèle général de représentation des connaissances, fondé ici sur les critères d'infection, ainsi qu'un module de génération automatique de méta-faits qui, à partir de la description directe de faits initiaux, permet d'en déduire de nouveaux dans des termes compatibles avec ceux utilisés dans le raisonnement du médecin. La mise en œuvre pratique du module est largement détaillée. L'ensemble des différents méta-faits générés est proposé, l'analyse de ceux ci ainsi que le choix des règles déclenchables sont explicités, un exemple de consultation est donné. Les résultats obtenus lors de la phase d'évaluation réalisée au sein d'un service de réanimation pédiatrique sont enfin présentés
The theme of this work is the development of an expert system for materno-foetal diagnosis in newborn babies. The study is part of the development of an essential expert system usable in either the diagnostic or simulation mode. Firstly, we present the various stages of an expert system development and also the main modes of knowledge representation via expert system description in the medical field. Secondly, we describe the essential expert system and its natural language interface with which its development has been conducted. Following this, we describe the main feature of materno-foetal infections, so as to highlight the various problems associated with their diagnosis. These are broken down and formulated in such a way that the analysis is in the form of fairly simple reasoning process. We put forward a general-purpose model of knowledge representation, based here upon infection criteria, as well as a meta-knowledge automatic generation module ; the latter, using the direct description of the basic facts allows us to deduce new data, in terms compatible with those used by doctors. The practical use of the module is described in considerable detail. The whole of the various generated meta-knowledge is reported, as is its analysis and the choice of triggerable rules. An example of a consultation is given. Results are presented for the evaluation phase, which was conducted in a pediatric reanimation unit
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Ghosh, Aishik. "Simulation of the ATLAS electromagnetic calorimeter using generative adversarial networks and likelihood-free inference of the offshell Higgs boson couplings at the LHC". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASP058.

Texto completo da fonte
Resumo:
Depuis la découverte du boson de Higgs en 2012, les expériences du LHC testent les prévisions du modèle standard avec des mesures de haute précision. Les mesures des couplages du boson de Higgs hors résonance permettront d'éliminer certaines dégénérescences qui ne peuvent pas être résolues avec les mesures sur résonance, comme la sonde de la largeur du boson de Higgs, ce qui pourrait donner des indications pour la nouvelle physique. Une partie de cette thèse se concentre sur la mesure des couplages hors résonance du boson de Higgs produit par la fusion du boson vecteur et se décomposant en quatre leptons. Ce canal de désintégration offre une occasion unique de sonder le boson de Higgs dans son régime hors résonance grâce à des sections efficaces augmentées au-delà de 2Mz (deux fois la masse du boson Z) de la région des quatre leptons. L'importante interférence quantique entre le signal et les processus de fond rend le concept d'"étiquettes de classe" mal défini, et pose un défi aux méthodes traditionnelles et aux modèles génériques de classification par apprentissage machine utilisés pour optimiser une mesure de la force du signal. Une nouvelle famille de stratégies d'inférence sans fonction de vraisemblance basées sur l'apprentissage machine, qui exploitent des informations supplémentaires pouvant être extraites du simulateur, a été adaptée à un problème de mesure de la force du signal. L'étude montre des résultats prometteurs par rapport aux techniques de base sur un ensemble de données de simulation rapide avec Delphes. Dans ce contexte, on a également introduit le réseau aspiration, un algorithme d'adverse amélioré pour la formation tout en maintenant l'invariance par rapport aux caractéristiques choisies. Les mesures de l'expérience ATLAS reposent sur de grandes quantités de données simulées précisément. Le logiciel de simulation actuel de Geant4 est trop coûteux en termes de calculs pour supporter la grande quantité de données simulées nécessaires aux analyses futures prévues. Autre partie de cette thèse se concentre sur une nouvelle approche de la simulation rapide utilisant un réseau advers génératif (GAN). La simulation de gerbe en cascade du calorimètre complexe d'ATLAS est la partie la plus lente de la chaîne de simulation utilisant Geant4. Son remplacement par un réseau de neurones qui a appris la distribution de probabilité des gerbes de particules en fonction des propriétés des particules incidentes et de la géométrie locale du détecteur augmente la vitesse de simulation de plusieurs ordres de grandeur, même sur des CPU à cœur unique, et ouvre la porte à une accélération supplémentaire sur les GPU. L'intégration dans le logiciel ATLAS permet pour la première fois de faire des comparaisons réalistes avec des simulations rapides paramétrées "à la main''. L'étude est réalisée sur une petite section du détecteur (0,20<|η|<0,25) en utilisant des photons et compare les distributions en utilisant des échantillons simulés par le modèle autonome ainsi qu'après intégration dans le logiciel ATLAS avec des échantillons Geant4 entièrement simulés. Des leçons importantes sur les mérites et les inconvénients des différentes stratégies, profitent à l'objectif ultime de simuler l'ensemble du calorimètre ATLAS avec des modèles générateurs profonds. L'étude révèle également un problème inhérent à le GAN de Wasserstein basé sur une pénalité de gradient, et propose une solution
Since the discovery of the Higgs boson in 2012, experiments at the LHC have been testing Standard Model predictions with high precision measurements. Measurements of the off-shell couplings of the Higgs boson will remove certain degeneracies that cannot be resolved with the current on-shell measurements, such as probing the Higgs boson width, which may lead to hints for new physics. One part of this thesis focuses on the measurement of the off-shell couplings of the Higgs boson produced by vector boson fusion and decaying to four leptons. This decay channel provides a unique opportunity to probe the Higgs in its off-shell regime due to enhanced cross-sections beyond 2Mz (twice the mass of the Z boson) region of the four lepton mass. The significant quantum interference between the signal and background processes renders the concept of `class labels' ill-defined, and poses a challenge to traditional methods and generic machine learning classification models used to optimise a signal strength measurement. A new family of machine learning based likelihood-free inference strategies, which leverage additional information that can be extracted from the simulator, were adapted to a signal strength measurement problem. The study shows promising results compared to baseline techniques on a fast simulated Delphes dataset. Also introduced in this context is the aspiration network, an improved adversarial algorithm for training while maintaining invariance with respect to chosen features. Measurements in the ATLAS experiment rely on large amounts of precise simulated data. The current Geant4 simulation software is computationally too expensive to sustain the large amount of simulated data required for planned future analyses. The other part of this thesis focuses on a new approach to fast simulation using a Generative Adversarial Network (GAN). The cascading shower simulation of the complex ATLAS calorimeter is the slowest part of the simulation chain using Geant4. Replacing it with a neural network that has learnt the probability distribution of the particle showers as a function of the incident particle properties and local detector geometry increases the simulation speed by several orders of magnitude, even on single core CPUs, and opens to door the further speed up on GPUs. The integration into the ATLAS software allows for the first time to make realistic comparisons to hand-designed fast simulation frameworks. The study is performed on a small section of the detector (0,20<|η|<0,25) using photons and compares distributions using samples simulated by the model standalone as well as after integration into the ATLAS software against fully simulated Geant4 samples. Important lessons on the merits and demerits of various strategies, benefit the ultimate goal of simulating the entire ATLAS calorimeter with a few deep generative models. The study also reveals an inherent problem with the popular gradient penalty based Wasserstein GAN, and proposes a solution
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Hati, Yliess. "Expression Créative Assistée par IA : Le Cas de La Colorisation Automatique de Line Art". Electronic Thesis or Diss., Reims, 2023. http://www.theses.fr/2023REIMS060.

Texto completo da fonte
Resumo:
La colorisation automatique de dessins encrés est une tâche complexe pour la vision par ordinateur. Contrairement aux images en niveaux de gris, les encrages manquent d’informations sémantiques telles que les ombrages et les textures, rendant la tâche encore plus difficile.Cette thèse repose sur des travaux connexes et explore l’utilisation de architec- tures génératives modernes telles que les GAN (Réseaux Génératifs Antagonistes) et les MDD (Modèles de Diffusion par Débruitage) pour à la fois améliorer la qualité des techniques précédentes et mieux capturer l’intention de colorisa- tion de l’utilisateur à travers trois contributions : PaintsTorch, StencilTorch et StablePaint.Ces travaux amènent à la définition et l’implémentation d’un procédé itératif et interactif basé sur des coups de pinceau colorés et des masques fournis par l’utilisateur final pour favoriser la collaboration entre l’Homme et la Machine en faveur de processus de travail naturels et émergents inspirés de la peinture digitale
Automatic lineart colorization is a challenging task for Computer Vision. Con- trary to grayscale images, linearts lack semantic information such as shading and texture, making the task even more difficult.This thesis dissertation is built upon related works and explores the use of modern generative Artificial Intelligence (AI) architectures such as Generative Adversarial Networks (GANs) and Denoising Diffusion Models (DDMs) to both improve the quality of previous techniques, as well as better capturing the user colorization intent throughout three contributions: PaintsTorch, StencilTorch and StablePaint.As a result, an iterative and interactive framework based on colored strokes and masks provided by the end user is built to foster Human-Machine collaboration in favour of natural, and emerging workflows inspired by digital painting processes
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Ozcelik, Furkan. "Déchiffrer le langage visuel du cerveau : reconstruction d'images naturelles à l'aide de modèles génératifs profonds à partir de signaux IRMf". Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES073.

Texto completo da fonte
Resumo:
Les grands esprits de l'humanité ont toujours été curieux de la nature de l'esprit, du cerveau et de la conscience. Par le biais d'expériences physiques et mentales, ils ont tenté de répondre à des questions difficiles sur la perception visuelle. Avec le développement des techniques de neuro-imagerie, les techniques de codage et de décodage neuronaux ont permis de mieux comprendre la manière dont nous traitons les informations visuelles. Les progrès réalisés dans les domaines de l'intelligence artificielle et de l'apprentissage profond ont également influencé la recherche en neuroscience. Avec l'émergence de modèles génératifs profonds tels que les autoencodeurs variationnels (VAE), les réseaux adversariaux génératifs (GAN) et les modèles de diffusion latente (LDM), les chercheurs ont également utilisé ces modèles dans des tâches de décodage neuronal telles que la reconstruction visuelle des stimuli perçus à partir de données de neuro-imagerie. La présente thèse fournit deux bases théoriques dans le domaine de la reconstruction des stimuli perçus à partir de données de neuro-imagerie, en particulier les données IRMf, en utilisant des modèles génératifs profonds. Ces bases théoriques se concentrent sur des aspects différents de la tâche de reconstruction visuelle que leurs prédécesseurs, et donc ils peuvent apporter des résultats précieux pour les études qui suivront. La première étude dans la thèse (décrite au chapitre 2) utilise un modèle génératif particulier appelé IC-GAN pour capturer les aspects sémantiques et réalistes de la reconstruction visuelle. La seconde étude (décrite au chapitre 3) apporte une nouvelle perspective sur la reconstruction visuelle en fusionnant les informations décodées à partir de différentes modalités (par exemple, le texte et l'image) en utilisant des modèles de diffusion latente récents. Ces études sont à la pointe de la technologie dans leurs domaines de référence en présentant des reconstructions très fidèles des différents attributs des stimuli. Dans nos deux études, nous proposons des analyses de régions d'intérêt (ROI) pour comprendre les propriétés fonctionnelles de régions visuelles spécifiques en utilisant nos modèles de décodage neuronal. Les relations statistiques entre les régions d'intérêt et les caractéristiques latentes décodées montrent que les zones visuelles précoces contiennent plus d'informations sur les caractéristiques de bas niveau (qui se concentrent sur la disposition et l'orientation des objets), tandis que les zones visuelles supérieures sont plus informatives sur les caractéristiques sémantiques de haut niveau. Nous avons également observé que les images optimales de ROI générées à l'aide de nos techniques de reconstruction visuelle sont capables de capturer les propriétés de sélectivité fonctionnelle des ROI qui ont été examinées dans de nombreuses études antérieures dans le domaine de la recherche neuroscientifique. Notre thèse tente d'apporter des informations précieuses pour les études futures sur le décodage neuronal, la reconstruction visuelle et l'exploration neuroscientifique à l'aide de modèles d'apprentissage profond en fournissant les résultats de deux bases théoriques de reconstruction visuelle et d'analyses de ROI. Les résultats et les contributions de la thèse peuvent aider les chercheurs travaillant dans le domaine des neurosciences cognitives et avoir des implications pour les applications d'interface cerveau-ordinateur
The great minds of humanity were always curious about the nature of mind, brain, and consciousness. Through physical and thought experiments, they tried to tackle challenging questions about visual perception. As neuroimaging techniques were developed, neural encoding and decoding techniques provided profound understanding about how we process visual information. Advancements in Artificial Intelligence and Deep Learning areas have also influenced neuroscientific research. With the emergence of deep generative models like Variational Autoencoders (VAE), Generative Adversarial Networks (GAN) and Latent Diffusion Models (LDM), researchers also used these models in neural decoding tasks such as visual reconstruction of perceived stimuli from neuroimaging data. The current thesis provides two frameworks in the above-mentioned area of reconstructing perceived stimuli from neuroimaging data, particularly fMRI data, using deep generative models. These frameworks focus on different aspects of the visual reconstruction task than their predecessors, and hence they may bring valuable outcomes for the studies that will follow. The first study of the thesis (described in Chapter 2) utilizes a particular generative model called IC-GAN to capture both semantic and realistic aspects of the visual reconstruction. The second study (mentioned in Chapter 3) brings new perspective on visual reconstruction by fusing decoded information from different modalities (e.g. text and image) using recent latent diffusion models. These studies become state-of-the-art in their benchmarks by exhibiting high-fidelity reconstructions of different attributes of the stimuli. In both of our studies, we propose region-of-interest (ROI) analyses to understand the functional properties of specific visual regions using our neural decoding models. Statistical relations between ROIs and decoded latent features show that while early visual areas carry more information about low-level features (which focus on layout and orientation of objects), higher visual areas are more informative about high-level semantic features. We also observed that generated ROI-optimal images, using these visual reconstruction frameworks, are able to capture functional selectivity properties of the ROIs that have been examined in many prior studies in neuroscientific research. Our thesis attempts to bring valuable insights for future studies in neural decoding, visual reconstruction, and neuroscientific exploration using deep learning models by providing the results of two visual reconstruction frameworks and ROI analyses. The findings and contributions of the thesis may help researchers working in cognitive neuroscience and have implications for brain-computer-interface applications
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Caillon, Antoine. "Hierarchical temporal learning for multi-instrument and orchestral audio synthesis". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS115.

Texto completo da fonte
Resumo:
Les progrès récents en matière d'apprentissage automatique ont permis l'émergence de nouveaux types de modèles adaptés à de nombreuses tâches, ce grâce à l'optimisation d'un ensemble de paramètres visant à minimiser une fonction de coût. Parmi ces techniques, les modèles génératifs probabilistes ont permis des avancées notables dans la génération de textes, d'images et de sons. Cependant, la génération de signaux audio musicaux reste un défi. Cela vient de la complexité intrinsèque des signaux audio, une seule seconde d'audio brut comprenant des dizaines de milliers d'échantillons individuels. La modélisation des signaux musicaux est plus difficile encore, étant donné que d'importantes informations sont structurées sur différentes échelles de temps, allant du micro (timbre, transitoires, phase) au macro (genre, tempo, structure). La modélisation simultanée de toutes ces échelles implique l'utilisation de larges architectures de modèles, rendant impossible leur utilisation en temps réel en raison de la complexité de calcul. Dans cette thèse, nous proposons une approche hiérarchique de la modélisation du signal audio musical, permettant l'utilisation de modèles légers tout en offrant différents niveaux de contrôle à l'utilisateur. Notre hypothèse principale est que l'extraction de différents niveaux de représentation d'un signal audio permet d'abstraire la complexité des niveaux inférieurs pour chaque étape de modélisation. Dans un premier temps, nous proposons un modèle audio combinant Auto Encodeur Variationnel et Réseaux Antagonistes Génératifs, appliqué directement sur la forme d'onde brute et permettant une synthèse audio neuronale de haute qualité à 48 kHz, tout en étant 20 fois plus rapide que le temps réel sur CPU. Nous étudions ensuite l'utilisation d'approches autoregressives pour modéliser le comportement temporel de la représentation produite par ce modèle audio bas niveau, tout en utilisant des signaux de conditionnement supplémentaires tels que des descripteurs acoustiques ou le tempo. Enfin, nous proposons une méthode pour utiliser tous les modèles proposés directement sur des flux audio, ce qui les rend utilisables dans des applications temps réel que nous avons développées au cours de cette thèse. Nous concluons en présentant diverses collaborations créatives menées en parallèle de ce travail avec plusieurs compositeurs et musiciens, intégrant directement l'état actuel des technologies proposées au sein de pièces musicales
Recent advances in deep learning have offered new ways to build models addressing a wide variety of tasks through the optimization of a set of parameters based on minimizing a cost function. Amongst these techniques, probabilistic generative models have yielded impressive advances in text, image and sound generation. However, musical audio signal generation remains a challenging problem. This comes from the complexity of audio signals themselves, since a single second of raw audio spans tens of thousands of individual samples. Modeling musical signals is even more challenging as important information are structured across different time scales, from micro (e.g. timbre, transient, phase) to macro (e.g. genre, tempo, structure) information. Modeling every scale at once would require large architectures, precluding the use of resulting models in real time setups for computational complexity reasons.In this thesis, we study how a hierarchical approach to audio modeling can address the musical signal modeling task, while offering different levels of control to the user. Our main hypothesis is that extracting different representation levels of an audio signal allows to abstract the complexity of lower levels for each modeling stage. This would eventually allow the use of lightweight architectures, each modeling a single audio scale. We start by addressing raw audio modeling by proposing an audio model combining Variational Auto Encoders and Generative Adversarial Networks, yielding high-quality 48kHz neural audio synthesis, while being 20 times faster than real time on CPU. Then, we study how autoregressive models can be used to understand the temporal behavior of the representation yielded by this low-level audio model, using optional additional conditioning signals such as acoustic descriptors or tempo. Finally, we propose a method for using all the proposed models directly on audio streams, allowing their use in realtime applications that we developed during this thesis. We conclude by presenting various creative collaborations led in parallel of this work with several composers and musicians, directly integrating the current state of the proposed technologies inside musical pieces
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Scordamaglia, Sabine. "Définition et évaluation d'un système expert d'aide à la planification des données prévisionnelles commerciales". Compiègne, 1990. http://www.theses.fr/1990COMPD232.

Texto completo da fonte
Resumo:
L'étude consiste à spécifier et à valider un système d'aide à la définition des données prévisionnelles concernant des projets caractérisés par des produits de type professionnel et par une durée d'avant vente très longue. L'expertise concernée étant purement subjective, le transfert de connaissances a été appréhendé à partir d'une méthode empruntée à une théorie psychologique, la "Personal Construct Theory", méthode qui génère automatiquement des règles à partir d'exemples représentatifs. Une maquette mettant en pratique l'approche théorique choisie a été réalisée en PROLOG II et PASCAL sous matériel VAX et validée avec les ingénieurs commerciaux, futurs utilisateurs.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia