Дисертації з теми "Explicabilité de l'intelligence artificielle"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Explicabilité de l'intelligence artificielle.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Explicabilité de l'intelligence artificielle".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Ben, Gamra Siwar. "Contribution à la mise en place de réseaux profonds pour l'étude de tableaux par le biais de l'explicabilité : Application au style Tenebrisme ("clair-obscur")." Electronic Thesis or Diss., Littoral, 2023. http://www.theses.fr/2023DUNK0695.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La détection de visages à partir des images picturales du style clair-obscur suscite un intérêt croissant chez les historiens de l'art et les chercheurs afin d'estimer l'emplacement de l'illuminant et ainsi répondre à plusieurs questions techniques. L'apprentissage profond suscite un intérêt croissant en raison de ses excellentes performances. Une optimisation du Réseau "Faster Region-based Convolutional Neural Network" a démontré sa capacité à relever efficacement les défis et à fournir des résultats prometteurs en matière de détection de visages à partir des images clai-obscur. Cependant, ces réseaux sont caractérisés comme des "boites noires" en raison de la complexité inhérentes et de la non-linéarité de leurs architectures. Pour aborder ces problèmes, l'explicabilité devient un domaine de recherche actif pour comprendre les modèles profonds. Ainsi, nous proposons une nouvelle méthode d'explicabilité itérative basée sur des perturbations guidées pour expliquer les prédictions
Face detection from Tenebrism paintings is of growing interest to art historians and researchers in order to estimate the illuminant location, and thereby answer several technical questions. Deep learning is gaining increasing interest due to is high performance capabilities. An optimization of Faster Region based Convolutional Neural Network has demonstrated its ability to effectively address challenges and deliver promising face detection results from Tenebrism paintings. However, deep neural networks are often characterized as "black box" because of the inherent complexity and non-linearity of their architectures. To tackle these issues, eXplainable Artificial Intelligence (XAI) is becoming an active researcj area to understand deep models. So, we propose a novel iterative XAI method based on guided perturbations to explain model's application
2

Schmitt, Michel. "Des Algorithmes morphologiques à l'intelligence artificielle." Phd thesis, École Nationale Supérieure des Mines de Paris, 1989. http://pastel.archives-ouvertes.fr/pastel-00001572.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se propose d'examiner sous un angle particulier quelques aspects de la morphologie mathématique. Nous montrons d'abord comment la notion de convergence d'ensembles fermés et celle d'ensemble aléatoire fermé peuvent être employées en géométrie algorithmique. Nous exposons ensuite une nouvelle technique permettant l'écriture d'algorithmes morphologiques efficace en imagerie binaire au moyen d'un codage de contours sous forme de chaînes et lacets. Les algorithmes concernés sont entre autres l'érosion, la dilatation, la fonction distance, tant dans le cas euclidien que géodésique, la fonction de propagation, en métrique hexagonale et dodécagonale, le labeling, la reconstruction. . . Nous abordons aussi les mesures morphologiques telles que variation diamétrale, diamètre de Ferret, périmètre, nombre d'Euler. . . L'emploi des transformations est alors illustré par la résolution complète d'un problème particulier en sciences des matériaux où nous discutons les qualités respectives d'une dizaine de solutions différentes. Enfin, un essai de formalisation de l'emploi des transformations morphologiques a abouti à l'écriture d'un système de programmation automatique.
3

Schmitt, Michel. "Des Algorithmes morphologiques à l'intelligence artificielle." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37618487h.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Merabet, Samir. "Vers un droit de l'intelligence artificielle." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0528.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Récente dans l’histoire des inventions technologiques, l’intelligence artificielle s’est néanmoins rapidement imposée dans la société, bouleversant à cette occasion l’économie comme le marché de l’emploi. Toutes les professions semblent exposées à la concurrence des agents artificiels ; rares sont les domaines d’activités épargnés. Pourtant, il apparaît que ces deux formes d’intelligences ne peuvent pas être tenues pour équivalentes. Si l’intelligence artificielle emprunte certains aspects de l’intelligence humaine, de nombreux autres lui font défaut. La conscience, la raison comme les émotions sont étrangères aux machines, même intelligentes. Dans ces circonstances, l’application à un système informatique intelligent de règles pensées en considération des personnes humaines peut s’avérer inadaptée. En effet, la confrontation entre le droit et l’intelligence artificielle révèle l’existence d’un paradigme sur lequel se fonde le droit positif. Le droit français s’appuie pour une large part sur la subjectivité inhérente à la personne humaine. Toutes les branches du droit semblent concernées, le droit civil comme le droit pénal ou encore le droit de la propriété intellectuelle. L’objet de cette étude est donc de dissiper les doutes qui entourent la nature de l’intelligence artificielle en vue de la distinguer clairement de l’intelligence humaine. Le constat de l’absence d’identité de ces deux formes d’intelligences induit la reconnaissance d’un ordre public de l’Humanité qui permet la préservation d’un domaine exclusif de l’intelligence humaine. Il est alors utile de formuler des principes généraux du droit de l’intelligence artificielle applicables en toutes circonstances
Even if its appearance is recent among technological inventions history, artificial intelligence has nevertheless quickly established itself, disrupting economy and the job market. Yet, upon assessment, it seems that these two forms of intelligence cannot be regarded as equivalent. Even if artificial intelligence borrows some aspects of human intelligence, many others are missing. Conscience, reason and emotions are unknown to machines, even intelligent ones. Yet, law rests upon such qualities. Hence, applying rules created for human to intelligent computer systems may be inappropriate. Indeed, the confrontation between law and artificial intelligence reveals the existence of a paradigm on which positive law is based. To a large extent, French law relies on the subjectivity proper to humans. All branches of law appear to be concerned, civil law as well as criminal law or intellectual property law. Therefore, the legal regime of artificial intelligence seems very uncertain. Consequently, the purpose of this study is to clear up the doubts surrounding the nature of artificial intelligence in order to neatly distinguish it from human intelligence. Eventually, the acknowledgment of the fundamental difference opposing these two forms of intelligence should lead to the recognition of a new public order of humanity and the preservation of an exclusive field for human intelligence
5

Merabet, Samir. "Vers un droit de l'intelligence artificielle." Electronic Thesis or Diss., Aix-Marseille, 2018. https://buadistant.univ-angers.fr/login?url=https://bibliotheque.lefebvre-dalloz.fr/secure/isbn/9782247201235.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Récente dans l’histoire des inventions technologiques, l’intelligence artificielle s’est néanmoins rapidement imposée dans la société, bouleversant à cette occasion l’économie comme le marché de l’emploi. Toutes les professions semblent exposées à la concurrence des agents artificiels ; rares sont les domaines d’activités épargnés. Pourtant, il apparaît que ces deux formes d’intelligences ne peuvent pas être tenues pour équivalentes. Si l’intelligence artificielle emprunte certains aspects de l’intelligence humaine, de nombreux autres lui font défaut. La conscience, la raison comme les émotions sont étrangères aux machines, même intelligentes. Dans ces circonstances, l’application à un système informatique intelligent de règles pensées en considération des personnes humaines peut s’avérer inadaptée. En effet, la confrontation entre le droit et l’intelligence artificielle révèle l’existence d’un paradigme sur lequel se fonde le droit positif. Le droit français s’appuie pour une large part sur la subjectivité inhérente à la personne humaine. Toutes les branches du droit semblent concernées, le droit civil comme le droit pénal ou encore le droit de la propriété intellectuelle. L’objet de cette étude est donc de dissiper les doutes qui entourent la nature de l’intelligence artificielle en vue de la distinguer clairement de l’intelligence humaine. Le constat de l’absence d’identité de ces deux formes d’intelligences induit la reconnaissance d’un ordre public de l’Humanité qui permet la préservation d’un domaine exclusif de l’intelligence humaine. Il est alors utile de formuler des principes généraux du droit de l’intelligence artificielle applicables en toutes circonstances
Even if its appearance is recent among technological inventions history, artificial intelligence has nevertheless quickly established itself, disrupting economy and the job market. Yet, upon assessment, it seems that these two forms of intelligence cannot be regarded as equivalent. Even if artificial intelligence borrows some aspects of human intelligence, many others are missing. Conscience, reason and emotions are unknown to machines, even intelligent ones. Yet, law rests upon such qualities. Hence, applying rules created for human to intelligent computer systems may be inappropriate. Indeed, the confrontation between law and artificial intelligence reveals the existence of a paradigm on which positive law is based. To a large extent, French law relies on the subjectivity proper to humans. All branches of law appear to be concerned, civil law as well as criminal law or intellectual property law. Therefore, the legal regime of artificial intelligence seems very uncertain. Consequently, the purpose of this study is to clear up the doubts surrounding the nature of artificial intelligence in order to neatly distinguish it from human intelligence. Eventually, the acknowledgment of the fundamental difference opposing these two forms of intelligence should lead to the recognition of a new public order of humanity and the preservation of an exclusive field for human intelligence
6

Farcis, Louis. "Cellule MRAM neuromorphique pour l'Intelligence Artificielle." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La constante évolution de la société en termes de besoin computationnel tend vers les applications d'intelligence artificiel qui étaient autrefois réservés exclusivement à l'Homme. Le développement d'algorithme reposant sur l'apprentissage profond a rendu possible le dépassement des capacités du cerveau humain dans ces domaines de prédilections comme la reconnaissance d'images et de paroles, la prise de décision et les problèmes d'optimisation. Pourtant, les réseaux de neurones artificiels capable de résoudre ces problèmes repose de manière intensive sur d'énorme quantité de donnés et requiert de nombreuses opérations en parallèle. Quand ces algorithmes tournent sur des architectures classiques de type Van Neumann où l'unité de calcul est séparée de l'unité mémoire, la latence du réseau et son énergie consommée augmente exponentiellement avec sa taille. De ce constat, la communauté scientifique commença a développé des schémas informatiques inspiré du cerveau afin de surpasser les limitations observées. En particulier, les réseaux de neurones impulsionnels ont été prédit par W. Maass en 1997 comme étant un candidat adapté à la maximisation du dispersement des opérations dans le réseau tout en démontrant des performances égales, sinon meilleures, aux premières générations de réseaux de neurones. Jusqu'à maintenant, des circuits intégrés orienté vers une application donnée (ASICs) ont été développé par des industriels tel que Intel ou IBM pour émuler des réseaux de neurones impulsionnels, se basant sur des technologies courantes CMOS. Le nombre de transistors nécessaire pour accomplir certaines fonctionnalités critique propre aux réseaux de neurones, comme les neurones impulsionnels, sont toujours très important, ce qui n'est pas souhaitable dans une stratégie de réduction de miniaturisation poussées.Dans ce contexte, de nouvelles solutions ont été proposé pour reproduire les caractéristiques synaptiques et neuronales tout essayant de réduire un maximum l'empreinte physique et la consommation énergétique. En outre, différent type de nano-synapses reposant sur des mémoires émergeantes non-volatile ont exploré des poids synaptiques multi-niveaux ainsi que la reproduction des fonctions mémoires court-terme et long-terme. Parmi elles, les solutions basées sur une technologie spintronique sont celle les plus matures d'un point de vue industriel puisque les mémoires à accès direct magnétique (MRAM), pouvant servir de synapses binaires, ont déjà atteint le marché international depuis une dizaine année. Pourtant, l'existence d'un neurone impulsionnel compatible avec une synapses spintroniques est toujours manquant dans la littérature actuelle.Cette thèse prend donc sa place dans ce contexte de développement de nouvelles solutions spintroniques afin d'émuler un neurone impulsionnel. Les jonctions tunnels magnétiques (JTMs) largement utilisées en spintronique pour leur endurance en tant que mémoire tout en démontrant des énergies d'écriture et de lecture très faible ainsi qu'une compatibilité "back-end of line" et CMOS. La solution élaborée dans ce présent manuscrit prends l'avantage des JTMs pour concevoir un neurone impulsionnel basé sur la dynamique "windmill". Le concept de JTM à double couche libre est modélisé, nano fabriqué et caractérisé électriquement pour donner une perspective constructive sur son potentiel utilisation en tant que neurone impulsionnel
The rapid evolution of the society in term computational needs tends to target application that were once human exclusive. Development of deep learning algorithm made possible overpassing some capabilities in the task the human brain were performing the best as for instance image and speech recognition, decision making and optimization problems. However, The Artificial Neural Networks (ANNs) capable of solving these tasks use intensively massive amount of data and requires multiple operations at the same time. When running ANN algorithms in a classical Von Neumann architecture where the computing unit is separated by the memory, latency and high energy consumption starts to rise exponentially with the size of the emulated neural network. From this observation, the scientific community starts looking at brain inspired computing sheme to overcome the current limitation. In particular, spiking neural networks (SNNs) were early predicted by W. Maass in 1997 to be a suitable candidate to leverage the sparsity of the network while showing egal if not better results than the first generations of ANN. Up until now, some Application Specific Integrated Circuits (ASICs) were proposed by company such as Intel and IBM to emulate SNN with CMOS-based based technology. The number of transistors needed to accomplish some critical functionality like spiking neurons in these solution is still very large and not suitable for downscaling strategies. In this context, new hardware solutions were proposed to emulate the synaptic and neuronal features while reducing the footprint and the energy consumption. In particular, various types of nano-synapses based on emerging non-volatile memory (NVM) explored multi-level synaptic weights and short-term/long-term memory. Among them, the spintronic solutions are the most advanced in maturity compared to the other technology because magnetic-random-access-memory technology, which represents a binary synapse, has already reached the market for ten years. However, a spiking neuron compatible with spintronic-based synapse is still missing in the literature.The thesis takes place in this context of developing new solutions with spintronics in order to emulate spiking neurons. Magnetic tunnel Junctions (MTJs) have been widely used in spintronics as memory unit because of their high endurance while demonstrating relatively small energy for writing and reading operation and are BEOL CMOS compatible. The solution elaborate along the manuscript takes all the benefits of the MTJs to design a spiking neurons based on the windmill dynamics.The dual-free layer MTJ concept is modelled, designed, nano-patterned and electrically characterized to give a constructive outlook on how viable is this structure for emulation spiking neuron
7

Ringuet, Jean-Noël. "L'intelligence artificielle : reproduction ou simulation de l'esprit." Thesis, University of Ottawa (Canada), 1988. http://hdl.handle.net/10393/5502.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Pistilli, Giada. "Pour une éthique de l'intelligence artificielle conversationnelle." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUL038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette recherche vise à sonder les complexités éthiques de l'intelligence artificielle (IA) conversationnelle, en se concentrant spécifiquement sur les grands modèles de langage et les agents conversationnels. Ce manuscrit construit un cadre qui allie l'analyse empirique au discours philosophique. Notre objectif est de plaider de toute urgence en faveur d'une structure éthique bien fondée pour l'IA conversationnelle, en soulignant la nécessité d'impliquer toutes les parties prenantes, des développeurs aux utilisateurs finaux. Tout d'abord, nous défendons l'intégration de l'ingénierie et d'autres disciplines scientifiques avec la philosophie, facilitant ainsi une compréhension plus nuancée des dimensions éthiques qui sous-tendent l'IA. Cette approche collaborative permet un discours éthique plus riche et mieux informé. Deuxièmement, nous préconisons l'utilisation dynamique de cadres éthiques appliqués en tant que guides fondamentaux pour la définition des objectifs initiaux d'un système d'IA. Ces cadres servent d'outils évolutifs qui s'adaptent aux complexités éthiques rencontrées au cours du développement et du déploiement. Enfin, sur la base d'une recherche pratique et interdisciplinaire, nous plaidons en faveur de la priorisation de l'IA étroite et spécifique à une tâche par rapport à l'intelligence artificielle générale, une position qui repose sur la faisabilité accrue de la surveillance éthique et de la contrôlabilité technique.Avec cette recherche, nous souhaitons contribuer à la littérature sur l'éthique de l'IA, en enrichissant le discours académique à la fois en philosophie et en informatique
This research aims to probe the ethical intricacies of conversational Artificial Intelligence (AI), specifically focusing on Large Language Models and conversational agents. This manuscript constructs a framework that melds empirical analysis with philosophical discourse. We aim to urgently advocate for a well-founded ethical structure for conversational AI, highlighting the necessity to involve all stakeholders, from developers to end-users. Firstly, we champion the integration of engineering and other scientific disciplines with philosophy, facilitating a more nuanced understanding of the ethical dimensions underpinning AI. This collaborative approach allows for a richer, more informed ethical discourse. Secondly, we advocate for the dynamic use of applied ethical frameworks as foundational guides for setting the initial objectives of an AI system. These frameworks serve as evolving tools that adapt to the ethical complexities encountered during development and deployment. Lastly, grounded in hands-on, interdisciplinary research, we make an argument for the prioritization of narrow, task-specific AI over Artificial General Intelligence, a stance that is based on the enhanced feasibility of ethical oversight and technical controllability.With this research, we aim to contribute to the literature on AI ethics, enriching the academic discourse in both philosophy and computer science
9

Voyiatzis, Konstantinos. "Utilisation de l'intelligence artificielle pour les problèmes d'ordonnancement." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090102.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le présent travail s'attache à l'ordonnancement des pièces dans un système de fabrication du type "jobshop". Ce problème est un problème combinatoire dont la solution est incompatible avec la contrainte "temps réel". Nous montrons comment une approche "intelligence artificielle" peut conduire à un ordonnancement acceptable en temps réel. Le premier chapitre présente la structure de la mémoire artificielle que nous utilisons. Le second chapitre fournit un exemple d'utilisation de cette approche. L'annexe i rappelle les bases de la gestion de production. L'annexe ii donne les bases de la classification automatique utilisées dans certaines parties de ce travail. Enfin l'annexe iii contient le logiciel de simulation écrit en slam
The present work concerns the scheduling of the products in a production system from "jobshop" type. This problem is a combinatorial problem and has an incompatible solution with the "real time" contraint. We demonstrate in which way this approach "artificial intelligence" can conduct to an acceptable scheduling in real time. The first chapter presents the structure of the artificial memory we use. The second one tells us an example of utilization on this approach. The appendix i remains the basis of production managment. The appendix ii gives us the basis of the automatic classification used in severals parts of this work. And the appendix iii, contains the software of simulation written in slam
10

Laï, Claude. "Applications de l'intelligence artificielle à l'instrumentation en ligne." Aix-Marseille 2, 1987. http://www.theses.fr/1987AIX22024.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Laï, Claude. "Application de l'intelligence artificielle à l'instrumentation en ligne." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376068857.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Voyiatzis, Konstantinos. "Utilisation de l'intelligence artificielle pour les problèmes d'ordonnancement." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376106812.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
13

TOUCHAIS, ROLAND. "Enseignement assiste par ordinateur des algorithmes de l'intelligence artificielle." Paris 11, 1992. http://www.theses.fr/1992PA112024.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nos travaux concernent l'enseignement assiste par ordinateur des algorithmes de l'intelligence artificielle. Notre approche consiste a apporter a l'eleve un savoir-faire equivalent a celui de l'algorithme enseigne. Pour cela, l'eleve est confronte a une suite d'exercices. Cette forme d'enseignement a ete etudiee sur trois points: 1) l'interface utilisateur utilise le dessin destine a l'echange d'objets structures. Ceci nous conduit a definir les editeurs specifiques, les elements de base de l'interface; 2) pour la pedagogie, le systeme utilise des exercices par retournement (l'eleve recherche les donnees a partir des resultats fournis par le systeme). Pour resoudre ces exercices, le systeme utilise des algorithmes associes; 3) un mecanisme de propagation d'informations utilisant la structure de l'algorithme enseigne et quelques choix pedagogiques automatiques permettent l'adaptation du systeme a chaque eleve. Un prototype partiel de ces specifications a ete implemente et utilise dans trois enseignements: le filtrage, la classification conceptuelle et l'introduction de frequences
14

PERSON, PATRICK. "Les reseaux bayesiens : un nouvel outil de l'intelligence artificielle." Paris 6, 1991. http://www.theses.fr/1991PA066607.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'intelligence artificielle a longtemps prefere aux probabilites d'autres approches numeriques pour le traitement de l'incertain. L'empirisme de certaines de ces approches, en particulier dans le cas des systemes experts, et d'autre part les recents travaux de pearl permettant de diminuer la complexite des calculs, ont suscite un regain d'interet pour les probabilites. C'est dans ce contexte que sont exposes les reseaux bayesiens, dans lesquels les calculs sont effectues localement et ou l'information se propage de nud en nud dans un arbre representatif du probleme a traiter. L'extension de la structure du reseau au cas d'un graphe comportant un cycle fait l'objet d'une nouvelle methode, qui est presentee puis mise en uvre dans le cadre d'un logiciel de construction de reseaux bayesiens
15

Rommel, Yves. "Apport de l'intelligence artificielle à l'aide à la décision multicritère." Paris 9, 1989. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1989PA090004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse a pour objet de montrer quel peut être l'apport de l'intelligence artificielle (IA) à l'aide à la décision multicritère. Les techniques d'IA utilisées concernent globalement les modes de représentation des connaissances de type déclaratif, les techniques déductives de résolution des problèmes ainsi que les techniques "inductives" d'apprentissage symbolique des connaissances. Les recherches ont été menées selon deux directions opposées quant à la démarche de modélisation suivie: - la première direction a consisté à définir quel pouvait être l'apport de l'IA dans le cadre de l'analyse multicritère "classique" : à savoir, en se plaçant en aval d'un tableau de performances et selon les approches opérationnelles pour l'agrégation des préférences couramment admises (approche du critère de synthèse, approche du surclassement et approche interactive), comment substituer les algorithmes traditionnels par des techniques relevant de l’IA. Trois méthodes sont ainsi proposées selon les trois approches opérationnelles et permettent, en considérant parallèlement les difficultés rencontrées, de généraliser les résultats de l'apport de telle technique d’IA pour telle approche opérationnelle. - la seconde direction a consisté à considérer l'analyse multicritère dans le cadre de l'architecture et de la modélisation des systèmes- experts. Le pourquoi de cette recherche tient en ce que les systèmes- experts traitent par essence de problèmes de type multicritère. Ont ainsi été redécouvertes les démarches d'agrégation et de désagrégation des préférences, et ont été montrées les perspectives en matière de méthodes interactives
The aim of this thesis is to show the contribution of artificial intelligence technics (AI) to multicriteria decision making. The AI technics which have been used concern knowledge representation technics in a declarative manner, deductive technics of problem resolution and also "inductive" technics of machine learning. Research has been developped into two opposite directions relatively to the modelisation approach as follows: -the first direction consists of defining how much AI contributes to the traditional multicriteria analysis frame i. E. We consider here the multicriteria problems using a scores table and according to the three operational approaches to the aggregation of preferences (synthesis criterion, outranking and interactive procedure); - the second direction consists of considering multicriteria methodology within the expert-system architecture and modelisation framework. This rests on the fact that expert-systems naturally deal with multicriteria problems
16

Gaborieau, Patrice. "Le sens comme tâche ou Quand l'intelligence se fait artificielle." Rennes 2, 2001. http://www.theses.fr/2001REN20033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La grammaire générative fait problème en tant que théorie explicative d'une faculté de langage. Se plaçant dans la continuité du positivisme, elle ne prend pas en compte la circularité anthropologique du phénomène langagier : la déconstruction de son objet montre que celui-ci ressortit à des principes rationnels distincts. L'épistémologie galiléenne dont elle se revendique permet cependant de comprendre où se situe sa cohérence. Les sciences de la nature telles qu'elles sont apparues avec l'Epoque moderne se caractérisent en effet par leur structure immanente technique, liée à la mesure appareillée et à l'algébrisation. Il est dès lors probable que la grammaire générative, avant d'être explication, soit une production outillée de langage
Generative grammar causes problems as a theory of language. Working on the same lines as positivism, it does not consider the anthropological circularity of linguistic phenomenon : deconstructing its scientific object reveals that it comes under the heading of separate principles of human rationality. Galilean epistemology, to which it appeals, however, gives a way to show off its point of consistensy. As a matter of facts, Galilean nature sciences, as they appeared in the 17th century, are distinguished by their technical immanent structure, linked to measuring apparatus and algebra. It is therefore possible to formulate the assumption that generative grammar is a technically equipped 'production' of language, before being an explanatory theory
17

Neggaz, Mohamed Ayoub. "Accélérateurs Matériels pour l'Intelligence Artificielle. Etude de Cas : Voitures Autonomes." Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis les débbuts du défi DARPA, la conception de voitures autonomes suscite unintérêt croissant. Cet intéreêt grandit encore plus avec les récents succès des algorithmesd'apprentissage automatique dans les tâches de perception. Bien que laprécision de ces algorithmes soit irremplaçable, il est très diffcile d'exploiter leurpotentiel. Les contraintes en temps réel ainsi que les problèmes de fiabilité alourdissentle fardeau de la conception de plateformes matériels efficaces. Nous discutonsles différentes implémentations et techniques d'optimisation de ces plateformes dansce travail. Nous abordons le problème de ces accélérateurs sous deux perspectives: performances et fiabilité. Nous proposons deux techniques d'accélération qui optimisentl'utilisation du temps et des ressources. Sur le voletfiabilité, nous étudionsla résilience des algorithmes de Machine Learning face aux fautes matérielles. Nousproposons un outil qui indique si ces algorithmes sont suffisamment fiables pour êtreemployés dans des systèmes critiques avec de fortes critères sécuritaire ou non. Unaccélérateur sur processeur associatif résistif est présenté. Cet accélérateur atteint desperformances élevées en raison de sa conception en mémoire qui remédie au goulotd'étranglement de la mémoire présent dans la plupart des algorithmes d'apprentissageautomatique. Quant à l'approche de multiplication constante, nous avons ouvertla porte à une nouvelle catégorie d'optimisations en concevant des accélérateursspécifiques aux instances. Les résultats obtenus surpassent les techniques les plusrécentes en termes de temps d'exécution et d'utilisation des ressources. Combinés àl'étude de fiabilité que nous avons menée, les systèmes ou la sécurité est de prioritépeuvent profiter de ces accélérateurs sans compromettre cette dernière
Since the early days of the DARPA challenge, the design of self-driving cars is catching increasing interest. This interest is growing even more with the recent successes of Machine Learning algorithms in perception tasks. While the accuracy of thesealgorithms is irreplaceable, it is very challenging to harness their potential. Realtime constraints as well as reliability issues heighten the burden of designing efficient platforms.We discuss the different implementations and optimization techniques in this work. We tackle the problem of these accelerators from two perspectives: performance and reliability. We propose two acceleration techniques that optimize time and resource usage. On reliability, we study the resilience of Machine Learning algorithms. We propose a tool that gives insights whether these algorithms are reliable enough forsafety critical systems or not. The Resistive Associative Processor accelerator achieves high performance due to its in-memory design which remedies the memory bottleneck present in most Machine Learning algorithms. As for the constant multiplication approach, we opened the door for a new category of optimizations by designing instance specific accelerators. The obtained results outperforms the most recent techniques in terms of execution time and resource usage. Combined with the reliability study we conducted, safety-critical systems can profit from these accelerators without compromising its security
18

Vinurel, Jean-Jacques. "Une application de l'intelligence artificielle à l'enseignement assisté par ordinateur." Paris 6, 1986. http://www.theses.fr/1986PA066379.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail fait, dans une première partie, le point sur les didacticiels présents dans les établissements scolaires du second degré en France, puis sur le mouvement " E. I. A. O. ". Quatre applications sont ensuite présentées couvrant les différentes parties du programme de mathématique des classes de collège, réalisations utilisant les techniques de l'intelligence artificielle, adaptées aux contraintes des machines "8" bit" de l'éducation nationale. Les deux premières applications cherchent les erreurs dans les démarches des élèves de façon à pouvoir réexpliquer les bonnes règles de façon adaptée. Ces applications concernent les manipulations des fractions. Le troisième programme traite dans le même esprit des équations cartésiennes des droites. La quatrième application enseigne les démonstrations de la géométrie des triangles en relevant les différentes fautes dans l'application des théorèmes, le système étant de plus capable de guider l'élève sans lui donner toute la démonstration, ceci en tenant compte des étapes déjà trouvées par l'élève.
19

Vinurel, Jean-Jacques. "Une Application de l'intelligence artificielle à l'enseignement assisté par ordinateur." Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb376017298.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Souza, Marco Antonio Lucas de. "Intelligence artificielle et philosophie : les critiques de H. L. Dreyfus et J. Searle à l'intelligence artificielle." Thèse, Université du Québec à Trois-Rivières, 1992. http://depot-e.uqtr.ca/5367/1/000597800.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Dubois, Gilles. "Apport de l'intelligence artificielle à la coopération de systèmes d'information automatisée." Lyon 3, 1997. http://www.theses.fr/1997LYO33004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le developpement des technologies de gestion des donnees et de communication entre les systemes provoque la creation d'un nombre toujours plus important de systemes d'information repartis tant a l'echelle de l'organisation qu'a celle de la planete. L'interoperabilite entre ces systemes, autonomes et heterogenes, necessite la definition de processus cooperatifs capables de coordonner les echanges d'information et de reduire les conflits qui en resultent. Une structure federative a base d'objets de differentes granularites est proposee. Cette structure exploite des techniques d'intelligence artificielle pour resoudre les conflits d'ordre structurel et semantique. Une representation dynamique des sources d'information cooperantes permet de suivre leur evolution au cours du temps et assure une description semantique adaptee au traitement de requetes globales. L'autonomie des sources d'information locales est ainsi respectee. Un modele canonique oriente objet assure l'homogeneite de la representation des informations (donnees et connaissances) dans la federation. Une extension de l'architecture proposee exploite les interactions entre agents pour apporter une composante cognitive a la cooperation. Une complementarite entre la structure federative orientee objet et les systemes multi-agents est finalement argumentee. Les choix d'implantation d'un prototype en environnement oriente objet sont presentes
Recent advances in distributed systems, computer network and database technology have changed the information processing needs of organizations. Current information systems should integrate various heterogeneous sources of data and knowledge according to distributed logical and physical requirements. An automated information system is perceived as a set of autonomous components which work in a synergistic manner by exchanging information expertise and coordinating their activities. In order for this exchange to be judicious, the individual systems must agree on the meaning of their exchanged information to solve conflicts due to heterogeneity. We have chosen an object oriented model as canonical model. The object model overcomes component heterogeneity and respects the autonomy of local systems in a distributed context. The cooperation structure uses artificial intelligence techniques to solve both structural and semantic conflicts. A dynamic description of information sources deals with local evolution and is involved in global queries treatment. An extension of the proposal exploits agents interactions to bring cognitive capabilities to the cooperation structure. The contribution of multi-agent systems to information system cooperation is argued. Technical choices to implement a prototype in an object oriented environment are described
22

Wagner, Pierre. "Machine et pensée : l'importance philosophique de l'informatique et de l'intelligence artificielle." Paris 1, 1994. http://www.theses.fr/1994PA01A009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail a pour but d'évaluer l'importance philosophique de l'informatique et de l'intelligence artificielle, en procédant à l'étude des relations entre machine et pensée. Pour cela, on examine de manière successive les différents arguments qui sont développés dans la philosophie contemporaine pour ou contre les thèses mécanistes. Selon les versions les plus radicales de ces thèses, qui s'inspirent des travaux efféctués en intelligence artificielle, une machine peut penser et l'on peut concevoir un modèle mecanique de l'esprit à partir de notions empruntées à l'informatique. Au sujet de l'intelligence artificielle, l'analyse montre, d'une part, ce qu'une réflexion philosophique sur les rapports entre machine et pensée peut attendre des progrès realisés dans ce domaine, et interroge, d'autre part, la pertinence des rapprochements qui sont souvent proposés entre certaines philosophies de la tradition (comme celles de Descartes, Hobbes, Leibniz ou La Mettrie) et la manière dont l'intelligence artificielle conçoit l'esprit. On montre aussi que l'informatique en tant que telle soulève, au sujet des relations entre machine et pensée, certains problèmes qui lui sont propres, qui sont souvent occultes par le débat relatif au mécanisme et à l'intelligence artificielle, et qui ne méritent pourtant pas moins l'attention du philosophe. Ces problèmes sont posés à partir d'une étude des relations entre logique et informatique
The goal of this work is to value the philosophical importance of computer science and artificial intelligence, by studying the relations between machine and thought. The arguments raised for and against mechanism in the contemporary philosophy are examined successively. In this case, the theses of mechanical philosophy are based on computer science and on artificial intelligence. According to the strongest of these theses, a machine can think and a mechanical model of thought using ideas in computer science can be designed. With regard to artificial intelligence, the two main points examined are the following : fist, what can be expected from the progress made in this domain, by a philosophical investigation of the relations between machine and thought ? Second, is the parallel often drawn between philosophers as descartes, hobbes, leigniz or la mettrie on the one hand, and the representation of mind according to artificial intelligence on the other hand, a valid one ? On this last point, it is argued that the answer is no. As for computer science, it raises its own questions about machine and thought, questions that are often overlooked, and ignored by the debate on mechanism and artificial intelligence, while they no less deserve philosophical examination. These questions are raised by studying the relations between logic and computer science
23

Gaïti, Dominique. "L'utilisation des techniques de l'intelligence artificielle pour la gestion des reseaux." Paris 6, 1991. http://www.theses.fr/1991PA066493.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des l'instant ou l'on devient capable d'interconnecter entre eux des equipements terminaux, il devient necessaire de superviser le fonctionnement du reseau utilise, de signaler les pannes, de detecter les erreurs et les anomalies, d'evaluer le cout des communications et de recuperer des donnees statistiques. Cet ensemble de taches est defini par des organismes de normalisation tels que l'iso ou le ccitt mais reste difficile a mettre en place faute d'outils reellement adaptes. Ces outils, nous avons choisi de les rechercher dans le domaine de l'intelligence artificielle. En effet, l'elaboration d'environnements a base de connaissances est de plus en plus frequente dans le domaine du diagnostic notamment et ces applications font appel a des techniques bien maitrisees telles que les systemes experts ou les representations objets. En revanche, lorsqu'il s'agit de prendre en compte les aspects de temps reel, de distribution, d'heterogeneite ou d'informations volumineuses a traiter, les techniques classiques ne suffisent plus et il faut alors s'interesser a des domaines plus specialises tels que l'intelligence artificielle distribuee par exemple. Dans le cadre de notre travail, nous avons concu un systeme multi-agents qui repose sur des concepts developpes en intelligence artificielle distribuee. Les agents communiquent et cooperent afin de prendre en charge la gestion des applications et des reseaux dans une architecture distribuee. Un systeme de filtre selectionne les donnees pertinentes afin de ne traiter qu'une partie de la connaissance. L'ensemble est illustre par l'application numero vert
24

Claes, Gérard. "Contribution à l'application de l'intelligence artificielle pour l'enseignement assisté par ordinateur." Paris 11, 1988. http://www.theses.fr/1988PA112412.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le présent document est composé de trois parties qui correspondent aux trois phases de la démarche choisie pour élaborer un système d'autoformation : étude des besoins en pédagogie, conception d'une solution informatique et expérimentation. L'étude des besoins (chapitre 2) ne peut se faire sans la présentation du contexte ; ce qui est fait dans le premier chapitre. L'existant pédagogique est exposé ici en deux temps : la description des systèmes (chapitre 3) et la description des connaissances (chapitre 4). La solution informatique est exposée à partir de l'architecture générale dont les bases théoriques s'appuient sur le paradigme du Système de Traitement de l'Information (chapitre 5). Chaque concept particulier de l'architecture est ensuite développé : La coactivité (chapitre 6) permet au système d'autoformation de travailler en temps réel avec l’apprenant et son enseignement. L'interface (chapitre 7) s'adapte à de nombreuses situations grâce à sa structure modulaire. Le moteur d'enseignement est capable de traiter l'ensemble des tâches de base d'un enseignant (chapitre 8). L'intégrateur de connaissances (chapitre 9) autorise la description de plusieurs types et de plusieurs formes de connaissances pour définir les acteurs et objets qui participent à l'acte pédagogique. La base de données (chapitre 10) permet de ranger les connaissances. Le moteur d'enseignement peut ensuite les utiliser à sa guise. Cette description fonctionnelle et statique est suivie par une présentation plus dynamique du système d'autoformation : le déroulement d'une session (chapitre 11). La dernière partie est consacrée à la mise en pratique et aux premières évaluations des différents éléments du processus d'enseignement : le système d'autoformation au chapitre 12, les expérimentations avec les concepteurs au chapitre 13, les expérimentations avec les usagers au chapitre 14, et les matières enseignées au chapitre 15. Enfin, les conclusions permettent de faire un premier bilan sur ce type de système et de montrer les perspectives qui en découlent.
25

Bourseau, Patrick. "Modelisation des connaissances de l'ingenieur de procedes : application de l'intelligence artificielle." Paris 6, 1993. http://www.theses.fr/1993PA066039.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur la mise en oeuvre des techniques d'intelligence artificielle pour la modelisation des connaissances de l'ingenieur de procedes. Deux domaines sont plus particulierement explores, la modelisation qualitative du fonctionnement d'installations d'une part, et la representation et l'aide a la saisie d'un schema de procede d'autre part. Dans la premiere partie, nous indiquons que l'enjeu majeur de l'application de l'intelligence artificielle en genie des procedes est la representation des connaissances de l'ingenieur et l'automatisation de ses raisonnements. Nous relevons en particulier le role central du schema de procede dans les raisonnements de l'ingenieur. Nous presentons egalement les techniques de l'intelligence artificielle et ses applications en genie des procedes. Dans la deuxieme partie, nous presentons les formalismes proposes par la physique qualitative, puis nos travaux sur la modelisation qualitative d'installations chimiques. Nous concluons de nos travaux que les indeterminations inherentes a la modelisation qualitative ne permettent pas en general de retrouver le comportement d'une installation a partir des modeles de ses composants. Par contre, la modelisation qualitative d'une installation permet de tester et de valider la connaissance qu'un expert a du fonctionnement d'une installation industrielle. Dans la troisieme partie, nous presentons le logiciel spi developpe au laboratoire, dedie a la representation et l'aide a la saisie d'un schema de procede. Nous presentons egalement trois applications utilisant le logiciel spi. La modelisation des connaissances de l'ingenieur est une etape primordiale dans le developpement de methodes realistes de resolution de problemes, qui prennent en compte a la fois des traitements numeriques et symboliques. Nous avons montre dans nos travaux comment developper des representations qualitatives du fonctionnement d'une installation, ainsi que de sa structure et de sa topologie
26

Claes, Gérard. "Contribution à l'application de l'intelligence artificielle pour l'enseignement assisté par ordinateur." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376127000.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Neumann, Andreas. "Introduction d'outils de l'intelligence artificielle dans la prévision de pluie par radar." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1991. http://tel.archives-ouvertes.fr/tel-00520834.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de l'étude présentée est le développement d'un système de prévision de pluie par radar, qui est adapté aux besoins de l'hydrologie urbaine. Un système automatisé structuré, baptisé PROPHETIA, est présenté, dont le fonctionnement est basé sur l'observation des cellules de pluie. L'algorithme de PROPHETIA de prévision de pluie à partir d'une série d'images (I1 In), mesurées aux instants t1 tn, comprend quatre étapes: - identification et description des échos des cellules sur l'image actuelle In - appariement des cellules observées sur les images I1 In avec les échos sur l'image In - caractérisation des cellules dans l'intervalle (t1, tn) - prévision de pluie par extrapolation des caractéristiques dans l'avenir. Une technique de seuillage est appliquée pour l'identification des cellules. Pour leur appariement sur des images successives, une base de règles sous la forme d'un arbre de décision a été constituée par apprentissage automatique à partir d'exemples, qui ont été définis manuellement. La très bonne performance de la base de règles est mise en évidence par la comparaison avec les appariements manuels. La prévision de PROPHETIA repose dans un premier temps sur la seule caractéristique de l'advection des cellules. Les résultats de cette prévision sont analysés selon un nouveau critère hydrologique, baptisé TMP. La qualité atteinte par PROPHETIA est comparée à celle d'autres systèmes de prévision. PROPHETIA est surtout plus performant pour les pluies convectives. L'examen détaillé des erreurs de la prévision par PROPHETIA a révélé que leur origine provient de l'hypothèse d'absence de développement des cellules à l'horizon de la prévision. L'étude des facteurs influant sur le développement des cellules a mené à la proposition d'un modèle des cellules reliant le développement aux masses d'air alimentant la cellule. La localisation du développement des cellules de pluie convective de la base de données est possible et apporterait un gain de prévision si le taux de ce développement pouvait être prédit, comme cela a été démontré pour un échantillon de 12 pluies convectives. Or celui-ci dépend manifestement, comme l'étude des cycles de vie de quelques cellules l'a montré, de la possibilité de caractériser correctement les secteurs géographiques d'influence très différente sur la convection : une meilleure caractérisation de ces secteurs devrait être l'objectif qui suivrait celle-ci.
28

Racoceanu, Daniel. "Contribution à la Surveillance des Systèmes de Production en Utilisant l'Intelligence Artificielle." Habilitation à diriger des recherches, Université de Franche-Comté, 2006. http://tel.archives-ouvertes.fr/tel-00011708.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En suivant les principales tendances d'évolution des systèmes automatisés et de la productique, nos travaux de recherche se positionnent dans l'optique des mutations induites par l'intégration des Sciences et Technologies de l'Information et de la Communication dans ces disciplines. Dans ce contexte, la décentralisation de l'intelligence et sa migration vers les niveaux bas, génèrent une évolution vers des services nouveaux, à même de permette non seulement de garder des positions privilégiées en terme de parts de marché, mais aussi d'en gagner de nouvelles.
Nos contributions se sont orientées précisément vers la mise au point de systèmes de surveillance dynamiques intelligents, en abordant des problématiques liées à la détection dynamique et au diagnostic curatif et préventif. Les techniques de l'intelligence artificielle ont ainsi constituées la colonne vertébrale de nos études, avec des travaux allant de la conception théorique et le test de nouveaux outils de surveillance dynamique, jusqu'à la validation, le prototypage et l'exploitation industrielle des concepts développés.
Dans le domaine de la surveillance dynamique, une de nos contributions majeures correspond à l'introduction d'un réseau de neurones dynamique innovant, le Réseau Récurrent à base de Fonctions radiales (RRFR). En faisant appel aux propriétés dynamiques des architectures localement récurrentes, le RRFR se caractérise par une approche de reconnaissance locale – essentielle en surveillance industrielle –, tout en permettant – de part ses caractéristiques dynamiques intrinsèques – une détection précoce des paliers de dégradation et une robustesse vis-à-vis des fausses alarmes. L'existence d'une mémoire statique et d'une mémoire dynamique facilement paramétrables au sein de la même structure, confère au réseau une souplesse d'utilisation très intéressante, ainsi qu'un accès à des techniques d'apprentissage allégées. Par ailleurs, dans le but d'augmenter la rapidité et l'efficacité de l'apprentissage, une version améliorée de l'algorithme des k-moyennes, permet d'améliorer la robustesse des algorithmes et de se situer dans la zone optimale de « bonne généralisation ».
La prise en compte de l'incertain fait l'objet d'une deuxième partie de nos travaux, située dans la continuité de la première. Dans ce sens, l'utilisation de la logique floue en surveillance dynamique se montre très intéressante de part la proximité par rapport au raisonnement et à l'expérience des opérateurs et ingénieurs, ainsi que de part la possibilité d'assurer une traçabilité essentielle pour le retour d'expérience en maintenance. Un outil de type réseau de Petri flou dédié à la surveillance (RdPFS) des systèmes de production a ainsi constitué l'objet de cette étude. Cet outil, basé essentiellement sur la modélisation floue de la variable "instant d'apparition" de l'événement discret, est muni d'un mécanisme d'interfaçage intégré, inspiré des réseaux de Petri à synchronisations internes, permettant la communication entre les outils de modélisation, de surveillance et de reprise. Dans un tel système, l'utilisation de la logique floue offre une souplesse d'utilisation et une dimension prédictive très intéressante. Basé sur un modèle RdPFS construit à partir des règles logiques induites par l'arbre de défaillance du système surveillé, nous avons montré sa capacité d'analyse dynamique des défauts, en utilisant une approche temporelle floue.
Dans nos travaux les plus récents, les avantages des outils neuronaux dynamiques et de la logique floue ont été mis à l'œuvre conjointement dans le cadre de systèmes hybrides neuro-flous d'aide à la surveillance. L'outil hybride ainsi proposé comporte deux parties, une première pour la détection dynamique – utilisant le RRFR amélioré essentiellement au niveau des algorithmes d'apprentissage dynamiques – et une deuxième pour le diagnostic curatif et prédictif, utilisant un réseau neuro-flou construit à partir de l'arbre de défaillance et de l'AMDEC du système / sous-système surveillé. Il est à noter que ce type de système de surveillance dynamique utilise l'approche abductive de recherche de cause – élément indispensable pour un diagnostic efficace. Par ailleurs, l'apprentissage dynamique permet de commencer l'activité de surveillance dynamique même en l'absence de données très consistantes, en enrichissant et affinant les symptômes et les causes associées (respectivement les degrés de crédibilité de celles-ci) au fur et à mesure du fonctionnement du système, grâce aux algorithmes neuronaux incorporés.
Parmi les verrous technologiques abordés lors de nos contributions, une place importante est accordée à la surveillance dynamique par apprentissage en ligne, en traitant des problèmes liés à la rapidité et la flexibilité de l'apprentissage, au temps de réponse, au traitement de grands flux de données, ainsi qu'aux méthodes de validation utilisant le test sur des benchmarks et le prototypage industriel.
Dans ce sens, l'exploitation industrielle du réseau récurrent à fonctions de base radiales a représenté une étape importante de nos travaux. Elle nous a permis la mise en œuvre d'une application de surveillance dynamique en temps réel d'un système, en utilisant l'apprentissage dynamique distant via le web. Mettant en évidence l'intérêt des techniques développées dans la réorganisation de l'activité de surveillance grâce aux nouvelles technologies, cette exploitation industrielle a donné lieu à un brevet d'invention, déposé en collaboration avec une SSII bisontine.
La conception de l'outil de surveillance neuro-flou a été menée en utilisant des spécifications UML. Cette approche a été initiée (étude, normalisation, spécification) dans le cadre du projet Européen PROTEUS/ITEA et finalisée (prototypage) dans le cadre d'un projet financé par l'ANVAR. Essentiels pour l'industrialisation des systèmes proposés, l'information de départ est considérée sous un format industriel classique (ADD, AMDEC, ...) et la mise à jour est assurée par une réelle ouverture du système traduite par des liens permanents avec les systèmes d'acquisition (capteurs, SCADA, ...) et les systèmes de gestion (GMAO, ...).
Dans le domaine de la e-maintenance, un défi considérable est constitué par le besoin de normalisation des plates-formes de e-maintenance, dans l'objectif d'arriver à terme à une génération automatique de ces plateformes, et à un standard qui pourra constituer un guide pour tous les constructeurs d'équipement soucieux d'intégrer leur produit dans une plate-forme de ce type. Du point de vue scientifique, il s'agit d'arriver à une génération automatique ou interactive d'une telle plate-forme, en fonction des services participants et du contexte d'utilisation. L'objectif est très ambitieux, car générateur de nouveaux services et de nouvelles opportunités commerciales. Il constitue l'objectif principal du projet européen SHIVA, dans lequel se retrouvent les partenaires les plus actifs de PROTEUS, avec – mise a part des partenaires déjà existants comme Cegelec et Schneider – des partenaires industriels nouveaux, tout aussi prestigieux, comme la Division des Constructions Navales et Airbus.
Concernant les perspectives de nos travaux, s'inscrivant dans le cadre des mêmes tendances de décentralisation et de migration de l'intelligence vers les niveaux opérationnels, une direction d'étude intéressante est constituée par le domaine des réseaux de capteurs intelligents. Cette perspective pourra ainsi intégrer des tendances technologiques liées aux connecteurs intelligents (« smart connectors ») basés sur le multiplexage et sur les courants porteurs, afin de réduire le volume de câblage, des points de connexion et afin de mieux prendre en considération les contraintes de sûreté de fonctionnement de ce type de réseaux, contraintes qui – dans un avenir très proche – seront vraisemblablement déterminantes.
Par ailleurs, dans un contexte régional, lié à la création du pôle de compétitivité « microtechniques », la problématique de la fabrication des microsystèmes est une problématique présentant un intérêt croissant. En effet, de nombreux prototypes de microsystèmes sont proposés en phase de prototype, avec une création liée à une manière plutôt artisanale, tout à fait compréhensible – vu les technologies innovantes utilisées -, mais qui ne se prête pas à une commercialisation de ces produits. De ce fait, l'étude des microsystèmes de production semble être un domaine porteur et permettant de garder des emplois européens – souvent menacés par la délocalisation.
Enfin, le diagnostic à partir de l'imagerie médicale en utilisant les techniques de l'intelligence artificielle me semble un domaine où mes compétences en recherche (surveillance par IA) et en enseignement (traitement de l'image) peuvent se donner la main pour aborder une thématique nouvelle, présentant un grand intérêt dans le domaine des biotechnologies, dans lequel la France est bien engagée depuis un certain nombre d'années. Cette perspective correspond au projet de recherche propose dans le cadre de ma délégation CNRS au laboratoire IPAL – Image Perception, Access and Learning (actuellement FRE, UMI-CNRS a partir de 2006) de Singapour.
29

Lemaire, Alexis. "Application de l'hypercalculie et de l'informatique quantique gravifique à l'intelligence artificielle générale." Reims, 2010. http://www.theses.fr/2010REIMS020.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse permet la mise en oeuvre en théorie et pratique de nouvelles techniques d'intelligence artificielle générale, afin de résoudre les problèmes de téléchargement d'esprit, test d'immortalité et test de Turing. Elle utilise pour cela de très nombreux concepts innovants, scientifiques et originaux. Il s'agit ici bien plus qu'un simple décalage de paradigme, mais d'approches bien plus révolutionnaires. De très nombreux paradigmes classiquement acceptés sont désintégrés avec un succès considérable dans tous les domaines scientifiques: en sciences cognitives, dont les neurosciences, la psychologie, la psychiatrie et la philosophie, mais également concernant les fondations de la physique quantique et les mathématiques, que l'on retrouve à de plus grandes échelles avec la physique statistique et thermodynamique, la chimie, la biologie, la médecine, les neurosciences et sciences cognitives, et l'astrophysique. En particulier, une seconde dimension de temps est démontrée, expérimentalement vérifiée et confirmée par des rétrodictions et prédictions spectaculaires, en parfaite cohérence avec la théorie et les mathématiques, dans tous les domaines scientifiques. Une unification de la relativité et de la physique quantique est proposée et utilisée dans tous les domaines scientifiques avec des applications en intelligence artificielle. Une thermodynamique de l'intelligence artificielle semblable à la thermodynamique des trous noirs est révélée. Ceci, associé à l'intelligence artificielle inversée, la preuve que le calcul mental est d'une utilité sous-estimée considérable, permet le téléchargement d'esprit réciproque vers la singularité technologique
30

Lassègue, Jean. "L'intelligence artificielle et la question du continu : remarques sur le modèle de Turing." Phd thesis, Université de Nanterre - Paris X, 1994. http://tel.archives-ouvertes.fr/tel-00011541.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse vise deux buts : décrire la notion de machine de Turing en tant que concept et en tant que modèle. L'hypothèse épistémologique de départ est la suivante : pour que la notion de machine de Turing ait psychologiquement une signification, il faut qu'elle soit mise en rapport avec la notion de continu et ce, dans les deux directions envisagées, concept et modèle.
On décrit la notion de machine de Turing en tant que concept dans la théorie de la calculabilité. On étudie le contexte épistémologique dans lequel le concept est né dans les années trente : philosophiquement, la “querelle des fondements en mathématique”; mathématiquement, l'apparition des différents formalismes permettant de rendre compte de la calculabilité des fonctions, dont le formalisme de la machine de Turing.
On décrit dans la deuxième partie comment le concept de machine de Turing se transforme en modèle pour la théorie de la psychologie. La justification de cette transformation est étudiée à partir de l'expérience de pensée élaborée par Turing grâce au “jeu de l'imitation”. On interprète le sens de ce jeu d'un point de vue formaliste, probabiliste et psychologique. On finit par conclure à l'absence de “test de Turing” dans le jeu, contrairement à ce qui est cru généralement.
La troisième partie étudie la façon dont la notion de machine de Turing a servi de fondement à l'intelligence artificielle. Le modèle de Turing tel qu'il a été utilisé jusqu'à présent engendre deux types de théories dualistes de l'esprit : une théorie platonicienne et une théorie fonctionnaliste. On justifie une interprétation non-dualiste en mettant l'accent sur le rôle joué par le langage dans la constitution du modèle. On replace enfin le modèle dans une tradition historique plus large, qui va de C. Babbage à R. Thom.
31

Vidal, Jean-Philippe. "Assistance au calage de modèles numériques en hydraulique fluviale - Apports de l'intelligence artificielle." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2005. http://tel.archives-ouvertes.fr/tel-00010185.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le calage d'un modèle numérique vise à reproduire des événements de référence par l'ajustement de paramètres à base physique. Cette thèse propose une approche à l'aide de Systèmes à Base de Connaissances. Après une définition des concepts clés, sont présentés un état de l'art et une analyse des différents objets, procédures et raisonnements mis en oeuvre pour mener à bien cette tâche. Ces éléments sont formalisés puis intégrés au sein d'un système d'assistance au calage, selon trois niveaux de connaissances : génériques, propres à l'hydraulique fluviale 1-D, et spécifiques au code de calcul utilisé. Deux cas réels d'application sont traités, en fonction des données disponibles et de l'objectif projeté du modèle. La thèse a permis la capitalisation d'un savoir-faire qui a conduit à un prototype opérationnel d'assistance au calage de modèles hydrauliques et au développement d'outils d'intelligence artificielle dédiés au calage et indépendants de la discipline considérée.
32

Levasseur, Yan. "Techniques de l'intelligence artificielle pour la classification d'objets biologiques dans des images bidimensionnelles." Mémoire, École de technologie supérieure, 2008. http://espace.etsmtl.ca/115/1/LEVASSEUR_Yan.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La reconnaissance visuelle d'objets biologiques comme les produits agro-alimentaires et les especes vegetales en milieu naturel a profite de percees majeures lors des 30 dernieres annees. Aujourd'hui, des algorithmes de reconnaissance performants sont utilises pour evaluer la qualite de productions agricoles et faire le suivi d'ecosysteme pour en assurer la protection. Dans la plupart des cas, ce sont des experts en vision et en informatique qui ont developpe les solutions personnalisees qui ont permis d'atteindre les resultats desires. L'objectif de la recherche presentee est de foumir des recommandations pour le developpement d'un algorithme de reconnaissance de formes dans des images qui soit generique et qui necessite le moins d'intervention humaine possible. Un tel algorithme pourrait etre utilise par les non experts, par exemple les ingenieurs en agro-alimentaire, les botanistes et les biologistes. Pour atteindre notre objectif, nous avons etudie les etapes du processus de reconnaissance a partir d'images. En pratique, nous avons mis sur pied un systeme de segmentation, d'extraction de caracteristiques et de classification, en plus d'avoir developpe un algorithme de Programmation Genetique (PG). Nous avons integre ce dernier au logiciel libre d'exploration des donnees Weka, afin d'encourager la mise en commun des efforts de recherche sur les algorithmes evolutionnaires. Les classificateurs utilises pour nos experimentations sont le classificateur naif de Bayes, I'arbre de decision C4.5, le K Plus Proche Voisins (KPPV), la PG, le Separateur a Vastes Marges (SVM) et le Perceptron Multicouche (PM). Dans une seconde serie d'experiences, nous avons combine chacun de ces classificateurs, a 1'exception du KPPV, au meta algorithme de boosting. Nous avons compare les resultats de classification des six algorithmes choisis pour six bases de donnees distinctes dont trois ont ete creees par nous. Les bases utilisees proviennent d'images de cereales, de grains de pollen, de noeuds de bois, de raisins sees, de feuilles d'arbres et de caracteres de I'alphabet romain. Suite a une segmentation des bases d'images, nous avons extrait, a partir de chaque objet, une quarantaine de caracteristiques. Une base de donnees alternatives a ete creee grace a la transformation par Analyse en Composante Principale (ACP). Finalement, nous avons compiles les resultats de classification des six classificateurs, puis de leur combinaison par boosting pour les caracteristiques de base et pour les caracteristiques transformees. Chaque experience a ete realisee 50 fois avec une separation aleatoire des bases d'apprentissage et de test. Nous avons observe de bonnes performances de classification pour les problemes comportant un grand nombre d'echantillons d'apprentissage. La performance des classificateurs, selon leur taux d'erreur median, est consistante pour la plupart des bases de donnees. Le PM et le SVM obtiennent generalement les meilleurs taux de classification. Pour les problemes comportant un grand nombre d'echantillons, notre approche obtient des resultats encourageants. Malgre la superiorite apparente de certains classificateurs, nos experimentations ne nous permettent pas d'emettre une recommandation sur I'utilisation prioritaire d'un classificateur dans tous les cas. Nous suggerons plutot I'utilisation d'une metaheuristique evolutive pour I'analyse des donnees d'un probleme afin de choisir ou de combiner des classificateurs appropries. Nous avan^ons egalement que la performance de classification de notre approche pourrait etre amelioree par I'ajout de nouvelles caracteristiques pertinentes, puis par I'optimisation des parametres des classificateurs en fonction des donnees
33

Damian, Mihai. "Conception automatique de liaisons pivot par roulements utilisant les méthodes de l'intelligence artificielle." Toulouse 3, 1996. http://www.theses.fr/1996TOU30218.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these est relative a la realisation et a l'emploi des systemes de conception a base de connaissances dans le domaine du genie mecanique. Dans la premiere partie on etablie les principes qui regissent le processus de conception mecanique et on fait une analyse comparative des deux techniques informatiques utilisables pour la realisation d'un systeme de conception par ordinateur: l'intelligence artificielle et le traitement algorithmique. La deuxieme partie est consacree a la modelisation d'un probleme de conception mecanique sous la forme d'un systeme a base de connaissances. En tenant compte de la complexite des contraintes a satisfaire ainsi que du fait que les solutions dependent d'un contexte technologique qui evolue dans le temps, on enonce quelques principes a respecter pendant le developpement d'un tel systeme et on analyse le comportement a modeliser pour resoudre les problemes specifiques. Les conclusions sont appliquees par la suite a la construction d'un systeme expert destine a la conception des liaisons pivot par roulements. On definit la structure hierarchique des objets, les connaissances technologiques et procedurales contenues dans les regles de production et dans les methodes de calcul. La derniere partie presente le fonctionnement du systeme realise sur quelques exemples lies a la conception de reducteurs a roues dentees
34

Chorlay, Dominique. "Une Architecture d'environnement de résolution de problèmes en modélisation : Apports de l'intelligence artificielle." Compiègne, 1990. http://www.theses.fr/1990COMP0280.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception et l'utilisation d'un logiciel de modélisation requiert la maitrise simultanée de domaines de connaissances complexes et variés. La gestion de ces connaissances n'est pas optimale. Les connaissances relatives au logiciel sont gérées de manière implicite et empirique par l'équipe de développement et par la communauté des utilisateurs. Les connaissances relatives au domaine d'application ne sont pas toujours bien maitrisées. On se propose donc d'intégrer dans un logiciel de modélisation une base de connaissances sur son propre fonctionnement ainsi que sur ses mécanismes internes. Ceci permet d'établir une communication plus riche entre l'utilisateur et le logiciel puisque celui-ci est capable de répondre à des requêtes et d'automatiser certaines taches. Trois modules permettent ce dialogue. Une interface en langage naturel basée sur une grammaire sémantique qui gère un sous-langage de spécialistes possédant la souplesse d'une langue naturelle. Un module spécifique du logiciel, capable de générer dynamiquement une suite d'instruction permettant d'atteindre un objectif fixe par l'utilisateur. Le fonctionnement de ce module est inspiré des techniques de générateurs de plans. Une couche de type système expert qui gère les connaissances de haut niveau caractéristiques des domaines intervenant dans le processus de modélisation mais indépendantes du logiciel utilise et qui contrôle le fonctionnement de l'ensemble du système
Many kinds of knowledge are required to design an engineering software as well as to use it. The knowledge dealing with a particular software, is implicitly managed by both designers and users of this software. The one dealing with application fields is not always known by the user. Thus, we propose to integrate in an engineering software a knowledge base about its own working. This leads to a better communication between the user and its program as the software is able to answer requests and to manage automatically engineering tasks. Three moduli are needed to implement this intelligent dialogue. A natural language interface based on a semantic grammar which manages a specialist language as powerful and flexible as the language it is based on. A modulus, specific of the software, is able to create a sequence of commands to achieve a goal imposed by the user. Plan- generating systems has provided a good scheme for this modulus. An expert system is dealing with high level knowledge, i. E. The ones relevant from engineering application fields, but independent from the software itself. This modulus is also the manager which controles the way the system works
35

Liu, Zaisheng. "Application de l'intelligence artificielle a la caracterisation de l'etat des outils de coupe." Paris, ENSAM, 1988. http://www.theses.fr/1988ENAM0010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Developpement d'une nouvelle methode de representation de la connaissance d'un outil de coupe. Il est considere que les etats d'un outil, a savoir les "formes" a reconnaitre, sont des concepts abstraits et flous. Apres avoir trouve le descripteur, la definition de l'etat d'un outil par un vecteur d'ensemble flou dans l'espace de representation est possible. La methode proposee pour la caracterisation est basee sur la regle du degre d'appartenance maximum
36

SERVAJEAN, CHABARD MARIE-FRANCOISE. "Les apports de l'intelligence artificielle au genie logiciel : modelisation de l'activite de programmation." Clermont-Ferrand 2, 1990. http://www.theses.fr/1990CLF21292.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail est centre sur la mise en place du systeme espace integrant des techniques d'intelligence artificielle dans un contexte genie logiciel. La presentation des principes, des methodes et des outils du genie logiciel, est suivie par une analyse detaillee d'outils du type atelier de genie logiciel permettant de situer la problematique de tels systemes d'aide. Le systeme propose est un outil destine a etre utilise au niveau conception-codage dans un environnement de programmation. Il offre une assistance au niveau logique d'un systeme d'informations. Il propose une methodologie avancee de developpement algorithmique basee sur l'experience d'analystes-programmeurs. Les specifications relatives a une application exprimees par dialogue, sont analysees par le systeme qui cherche alors a appliquer un savoir operatoire pour s'adapter a des situation nouvelles. Le logiciel est genere de facon incrementale, selon un processus enchainant conception, verification, simulation, validation, possibilite de remise en cause de la solution et retour arriere vers des etats anterieurs de resolution. Le systeme est bati autour d'une banque de connaissances contenant des concepts des heuristiques et des modes operatoires dans les domaines de la programmation, d'application et de references, ainsi que de l'activite de conception de programmes. La representation des connaissances s'appuie sur la notion de schema, en utilisant les concepts de regle et d'objet. Le systeme est structure en fonction de strategies globales liees a l'activite de conception; chaque module fait intervenir des primitives de traitement liees a des plans d'actions. Espace est implemente dans un environnement vm/prolog a l'aide du langage oriente objet emicat
37

LEFEVRE, FREDERIC. "Application de l'intelligence artificielle a un systeme de conception d'exercices d'enseignement de comportement." Toulouse 3, 1988. http://www.theses.fr/1988TOU30012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Rouxel, Marie. "Le refus de reconnaître le statut d'auteur à l'intelligence artificielle et ses conséquences." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/38247.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
« L’intelligence artificielle pourrait être le plus important événement de l’histoire de notre civilisation ». Cette phrase de Stephen Hawkins démontre l’importance que pourrait prendre l’intelligence artificielle dans notre société. L’évolution des algorithmes permet maintenant à l’intelligence artificielle de générer des créations artistiques de manière quasiment autonome puisque l’utilisateur de l’intelligence artificielle n’a qu’à lancer le processus. Cette nouvelle manière de créer engendre de nombreuses questions, notamment celle de savoir qui est l’auteur, au sens juridique, de ces créations et si elles peuvent bénéficier de la protection du droit d’auteur. Il apparaît que les critères permettant d’accorder la protection du droit d’auteur ne permettent pas, en l’état actuel des choses, d’intégrer les créations générées par ordinateur au droit d’auteur. En effet, ces critères ne permettent pas d’attribuer le statut d’auteur à l’intelligence artificielle, puisque cette dernière n’est pas une personne physique. En l’absence de protection par le droit d’auteur, on peut alors se demander ce qu’il advient des créations générées par l’intelligence artificielle. Une des conséquences pourrait être que les créations tombent d’emblée dans le domaine public. En effet, cela permettrait de servir l’intérêt général tout en gardant un droit d’auteur très protecteur pour la personne de l’auteur.
« Artificial intelligence could be the most important event in the history of our civilization.” This sentence from Stephen Hawking demonstrates the importance that artificial intelligence can have in our society. The evolution of algorithms now allows artificial intelligence to create artistic creations in a virtually autonomous way since the user of artificial intelligence has only to start the process. This new way of creating raises many questions, including who the author of these creations is, and whether they can benefit from copyright protection. It appears that the criteria for granting copyright protection do not, in the current state of affairs, make it possible to integrate computer-generated creations with copyright. Indeed, these criteria do not allow to attribute the status of author to the artificial intelligence because AI is not a physical person. In the absence of protection by Copyright, one can wonder what happens to computer-generated creations. One of the consequences could be that the creations fall immediately into the public domain. Indeed, it would serve the public interest while keeping a very protective copyright of the person of the author.
39

CHERIE, NABIL. "Utilisation des techniques de l'intelligence artificielle pour la modelisation du mouvement d'objets animes." Paris 11, 1991. http://www.theses.fr/1991PA112075.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these presente les differentes approches de l'animation par ordinateur ainsi que les principaux systemes existants. Elle propose ensuite le systeme gemsa, simulateur de comportements du squelette humain dans un environnement representant un appartement. Un modele mathematique de la marche humaine a ete developpe. Pour generer une variete de marches ainsi que des exagerations, nous avons impose a ce modele la parametrisation comme contrainte forte. L'utilisateur de gemsa exprime son scenario avec une formulation orientee-but. La specification des details de l'animation est alors prise en charge par le systeme. L'utilisateur peut, par exemple, demander au systeme de deplacer le squelette d'une piece a une autre ou de le faire asseoir sur une chaise donnee. La planification de chemins dans l'appartement ainsi que la detection et l'evitement d'obstacles sont traites dans cette these
40

Fonkoua, Alain. "Une application de l'intelligence artificielle à la synthèse architecturale des circuits intégrés VLSI." Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00335755.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Description d'un outil de développement de systèmes experts (ODSE) conçu et réalisé en ADA. Le formalisme de description des connaissances (faits et règles), les mécanismes d'interférence mis en œuvre ainsi que l'implémentation du système sont donnes. Enfin, la thèse décrit l'utilisation de ODSE pour la réalisation d'un outil d'aide a la synthèse architecturale de c. I. VLSI (ASA). Les techniques utilisées par ASA (analyse de flots, ordonnancement, allocation de ressources) sont exposées ainsi que leur traduction dans le formalisme de ODSE. Enfin, les résultats d'utilisation de ASA pour la synthèse d'un filtre Leapfrog d'ordre 9 sont donnes
41

Lefevre, Frédéric. "Application de l'intelligence artificielle à un système de conception d'exercices d'enseignement de comportements." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376150792.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Liu, Zaisheng. "Application de l'intelligence artificielle à la caractérisation de l'état des outils de coupe." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376153071.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Vidal, Jean-Philippe Dartus Denis Moisan Sabine Faure Jean-Baptiste. "Assistance au calage de modèles numériques en hydraulique fluviale apports de l'intelligence artificielle /." Toulouse : INP Toulouse, 2005. http://ethesis.inp-toulouse.fr/archive/00000116.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Fonkoua, Alain Blaise Mazaré Guy Mossière Jacques. "Une application de l'intelligence artificielle à la synthèse architecturale des circuits intégrés VLSI." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00335755.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Panaïotis, Thelma. "Distribution du plancton à diverses échelles : apport de l'intelligence artificielle pour l'écologie planctonique." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS155.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En tant que base des réseaux trophiques océaniques et élément clé de la pompe à carbone biologique, les organismes planctoniques jouent un rôle majeur dans les océans. Cependant, leur distribution à petite échelle, régie par les interactions biotiques entre organismes et les interactions avec les propriétés physico-chimiques des masses d'eau de leur environnement immédiat, est mal décrite in situ, en raison du manque d'outils d'observation adaptés. De nouveaux instruments d'imagerie in situ à haute résolution, combinés à des algorithmes d'apprentissage automatique pour traiter la grande quantité de données collectées, nous permettent aujourd'hui d'aborder ces échelles. La première partie de ce travail se concentre sur le développement méthodologique de deux pipelines automatisés basés sur l'intelligence artificielle. Ces pipelines ont permis de détecter efficacement les organismes planctoniques au sein des images brutes, et de les classer en catégories taxonomiques ou morphologiques. Dans une deuxième partie, des outils d'écologie numérique ont été appliqués pour étudier la distribution du plancton à différentes échelles, en utilisant trois jeux de données d'imagerie in situ. Tout d'abord, nous avons mis en évidence un lien entre les communautés planctoniques et les conditions environnementales à l'échelle globale. Ensuite, nous avons décrit la distribution du plancton et des particules à travers un front de méso-échelle, et mis en évidence des périodes contrastées pendant le bloom de printemps. Enfin, grâce aux données d'imagerie in situ à haute fréquence, nous avons étudié la distribution à fine échelle et la position préférentielle d’organismes appartement au groupe des Rhizaria, des protistes fragiles et peu étudiés, dont certains sont mixotrophes. Dans l’ensemble, ce travail démontre l'efficacité de l'imagerie in situ combinée à des approches d’intelligence artificielle pour comprendre les interactions biophysiques dans le plancton et les conséquences sur sa distribution à petite échelle
As the basis of oceanic food webs and a key component of the biological carbon pump, planktonic organisms play major roles in the oceans. However, their small-scale distribution − governed by biotic interactions between organisms and interactions with the physico-chemical properties of the water masses in their immediate environment − are poorly described in situ due to the lack of suitable observation tools. New instruments performing high resolution imaging in situ in combination with machine learning algorithms to process the large amount of collected data now allows us to address these scales. The first part of this work focuses on the methodological development of two automated pipelines based on artificial intelligence. These pipelines allowed to efficiently detect planktonic organisms within raw images, and classify them into taxonomical or morphological categories. Then, in a second part, numerical ecology tools have been applied to study plankton distribution at different scales, using three different in situ imaging datasets. First, we investigated the link between plankton community and environmental conditions at the global scale. Then, we resolved plankton and particle distribution across a mesoscale front, and highlighted contrasted periods during the spring bloom. Finally, leveraging high frequency in situ imaging data, we investigated the fine-scale distribution and preferential position of Rhizaria, a group of understudied, fragile protists, some of which are mixotrophic. Overall, these studies demonstrate the effectiveness of in situ imaging combined with artificial intelligence to understand biophysical interactions in plankton and distribution patterns at small-scale
46

Clampitt, Megan. "Indexation de l'état de santé des coraux par une approche basée sur l'intelligence artificielle." Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ6019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les récifs coralliens se détériorent à une vitesse surprenante et le développement de schémas de surveillance rapides et efficaces pouvant évaluer la santé des coraux et ne se concentrant pas uniquement sur l'absence ou la présence de maladies ou de blanchissement est essentiel. La recherche de ma thèse vise à combiner les domaines de la biologie corallienne, de l'informatique et de la conservation marine. La question principale de ma thèse étant : comment les outils d'intelligence artificielle peuvent-ils être utilisés pour évaluer l'état de santé des coraux à partir de photographies de colonies ? Étant donné que l'évaluation de l'état de santé des colonies coralliennes individuelles reste mal définie, notre approche consiste à utiliser des outils d'IA pour évaluer les indices visuels tels que les conditions physiques dommageables (organismes perforateurs et prédateurs), le contact avec d'autres organismes (algues, sédiments) et les changements de couleur qui pourraient être corrélés avec l'état de santé. Ceci a été réalisé en utilisant les données photographiques de l'expédition Tara Pacific pour construire la première version de machines d'IA capable de reconnaître automatiquement ces repères visuels, puis en appliquant cet outil à deux types d'études de terrain i). Une étude mise en place à Moorea, en Polynésie française, visant à étudier la santé des coraux au cours du temps. ii). Une étude comparative entre les sites endommagés, vierges et restaurés à Raja Ampat, en Indonésie. L'objectif de ces études est d'extraire les repères visuels qui distinguent les coraux en bonne santé des coraux présentant un risque de mortalité plus élevé. Ainsi, j'ai pu créer un modèle d'IA capable d'annoter automatiquement les photographies de colonies de coraux avec des repères visuels pertinents pour évaluer l'état de santé de la colonie
Coral reefs are deteriorating at a startling rate and the development of fast and efficient monitoring schemas that attempt to evaluate coral health without only focusing on the absence or presence of disease or bleaching is essential. My Ph.D. research aims to combine the fields of Coral Biology, Computer Science, and Marine Conservation with the main question of my thesis being: how can artificial intelligence tools be used to assess coral health states from colony photographs? Since the assessment of individual coral colony health state remains poorly defined, our approach is to use AI tools to assess visual cues such as physically damaging conditions (boring organisms & predation), contact with other organisms (algae, sediment), and color changes that could correlate with health states. This was achieved by utilizing photographic data from the Tara Pacific Expedition to build the first version of AI machines capable of automatically recognizing these visual cues and then applying this tool to two types of field studies i). A longitudinal study set up in Moorea, French Polynesia aimed to investigate coral health as assessed by mortality/partial mortality events. ii). A comparative study between damaged, pristine, and restoration sites in Raja Ampat, Indonesia. The objective of these studies is to extract the visual cues that distinguish healthy from unhealthy corals. Thus, I was able to create an AI Model capable of automatically annotating coral colony photographs for visual cues relevant to the current health state of the colony
47

Bourgeade, Tom. "Interprétabilité a priori et explicabilité a posteriori dans le traitement automatique des langues." Thesis, Toulouse 3, 2022. http://www.theses.fr/2022TOU30063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec l'avènement des architectures Transformer en Traitement Automatique des Langues il y a quelques années, nous avons observé des progrès sans précédents dans diverses tâches de classification ou de génération de textes. Cependant, l'explosion du nombre de paramètres et de la complexité de ces modèles "boîte noire" de l'état de l'art, rendent de plus en plus évident le besoin désormais urgent de transparence dans les approches d'apprentissage automatique. La capacité d'expliquer, d'interpréter et de comprendre les décisions algorithmiques deviendra primordiale à mesure que les modèles informatiques deviennent de plus en plus présents dans notre vie quotidienne. En utilisant les méthodes de l'IA eXplicable (XAI), nous pouvons par exemple diagnostiquer les biais dans des ensembles de données, des corrélations erronées qui peuvent au final entacher le processus d'apprentissage des modèles, les conduisant à apprendre des raccourcis indésirables, ce qui pourrait conduire à des décisions algorithmiques injustes, incompréhensibles, voire risquées. Ces modes d'échec de l'IA peuvent finalement éroder la confiance que les humains auraient pu placer dans des applications bénéfiques. Dans ce travail, nous explorons plus spécifiquement deux aspects majeurs de l'XAI, dans le contexte des tâches et des modèles de Traitement Automatique des Langues : dans la première partie, nous abordons le sujet de l'interprétabilité intrinsèque, qui englobe toutes les méthodes qui sont naturellement faciles à expliquer. En particulier, nous nous concentrons sur les représentations de plongement de mots, qui sont une composante essentielle de pratiquement toutes les architectures de TAL, permettant à ces modèles mathématiques de manipuler le langage humain d'une manière plus riche sur le plan sémantique. Malheureusement, la plupart des modèles qui génèrent ces représentations les produisent d'une manière qui n'est pas interprétable par les humains. Pour résoudre ce problème, nous expérimentons la construction et l'utilisation de modèles de plongement de mots interprétables, qui tentent de corriger ce problème, en utilisant des contraintes qui imposent l'interprétabilité de ces représentations. Nous utilisons ensuite ces modèles, dans une configuration nouvelle, simple mais efficace, pour tenter de détecter des corrélations lexicales, erronées ou non, dans certains ensembles de données populaires en TAL. Dans la deuxième partie, nous explorons les méthodes d'explicabilité post-hoc, qui peuvent cibler des modèles déjà entraînés, et tenter d'extraire diverses formes d'explications de leurs décisions. Ces méthodes peuvent aller du diagnostic des parties d'une entrée qui étaient les plus pertinentes pour une décision particulière, à la génération d'exemples adversariaux, qui sont soigneusement conçus pour aider à révéler les faiblesses d'un modèle. Nous explorons un nouveau type d'approche, en partie permis par les architectures Transformer récentes, très performantes mais opaques : au lieu d'utiliser une méthode distincte pour produire des explications des décisions d'un modèle, nous concevons et mettons au point une configuration qui apprend de manière jointe à exécuter sa tâche, tout en produisant des explications en langage naturel en forme libre de ses propres résultats. Nous évaluons notre approche sur un ensemble de données de grande taille annoté avec des explications humaines, et nous jugeons qualitativement certaines des explications générées par notre approche
With the advent of Transformer architectures in Natural Language Processing a few years ago, we have observed unprecedented progress in various text classification or generation tasks. However, the explosion in the number of parameters, and the complexity of these state-of-the-art blackbox models, is making ever more apparent the now urgent need for transparency in machine learning approaches. The ability to explain, interpret, and understand algorithmic decisions will become paramount as computer models start becoming more and more present in our everyday lives. Using eXplainable AI (XAI) methods, we can for example diagnose dataset biases, spurious correlations which can ultimately taint the training process of models, leading them to learn undesirable shortcuts, which could lead to unfair, incomprehensible, or even risky algorithmic decisions. These failure modes of AI, may ultimately erode the trust humans may have otherwise placed in beneficial applications. In this work, we more specifically explore two major aspects of XAI, in the context of Natural Language Processing tasks and models: in the first part, we approach the subject of intrinsic interpretability, which encompasses all methods which are inherently easy to produce explanations for. In particular, we focus on word embedding representations, which are an essential component of practically all NLP architectures, allowing these mathematical models to process human language in a more semantically-rich way. Unfortunately, many of the models which generate these representations, produce them in a way which is not interpretable by humans. To address this problem, we experiment with the construction and usage of Interpretable Word Embedding models, which attempt to correct this issue, by using constraints which enforce interpretability on these representations. We then make use of these, in a simple but effective novel setup, to attempt to detect lexical correlations, spurious or otherwise, in some popular NLP datasets. In the second part, we explore post-hoc explainability methods, which can target already trained models, and attempt to extract various forms of explanations of their decisions. These can range from diagnosing which parts of an input were the most relevant to a particular decision, to generating adversarial examples, which are carefully crafted to help reveal weaknesses in a model. We explore a novel type of approach, in parts allowed by the highly-performant but opaque recent Transformer architectures: instead of using a separate method to produce explanations of a model's decisions, we design and fine-tune an architecture which jointly learns to both perform its task, while also producing free-form Natural Language Explanations of its own outputs. We evaluate our approach on a large-scale dataset annotated with human explanations, and qualitatively judge some of our approach's machine-generated explanations
48

Zarri, Gian Piero. "Utilisation de techniques relevant de l'intelligence artificielle pour le traitement de données biographiques complexes." Paris 11, 1985. http://www.theses.fr/1985PA112342.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse fournit une description générale de RESEDA, système « intelligent » d’informatique documentaire qui utilise des techniques empruntées au Knowledge Engineering et l’Intelligence Artificielle (IA) pour le traitement de donnés biographiques complexes. Toutes les connaissances du système sont représentées sous forme purement déclarative, en utilisant un langage de représentation unique (« métalangage ») qui se sert de variables pour la représentation des informations appartenant à la base de règles ; le métalangage constitue un exemple de réalisation IA du concept de « grammaire de cas ». Pour des raisons d’efficacité informatique, les opérations d’inférence de « niveau zéro » de RESEDA sont exécutées en se servant uniquement des ressources de la « machine d’appariement » du système. Cette machine doit une grande partie de sa puissance à une utilisation judicieuse des données temporelles qui permet d’obtenir une indexation efficace de la base de faits. Seules les inférences d’ordre supérieur demandent d’utiliser de véritables « moteurs d’inférence ». Le moteur de RESEDA est caractérisé par les deux faits suivants : a) il est « commandé par l’évènement » (event driven) pendant la phase d’initialisation ; b) la résolution d’un problème est effectuée en le décomposant en sous-problèmes et en construisant progressivement un « arbre de choix ». Cet arbre est exploré en faisant usage d’une technique « en profondeur d’abord » avec « retour en arrière » (backtracking) systématique. Les opérations d’inférence de niveau supérieur du système sont constituées par les « hypothèses » et les « transformations ». La tâche des hypothèses est d’établir de nouvelles relations de cause entre des évènements présents dans la base de faits qui sont à priori complètement disjoints ; le système possède de cette façon une capacité, même si élémentaire, d’apprentissage
The aim of this thesis is to provide a general description of RESEDA, an « intelligent » Information Retrieval system dealing with biographical data and using techniques borrowed from Knowledge Engineering and Artificial Intelligence (AI). All the system’s “knowledge” is represented in purely declarative form. This is the case both for the “fact database” and the “rule base”; the fact database contains the data, in the usual sens of the word that the system has to retrieve. Together, the fact and rule bases make up RESEDA’s “knowledge base”. Information in the knowledge base is depicted using a single knowledge representation language (“metalanguage”), which makes use of quantified variables when describing date in the rule base; the metalanguage is a particularly powerful realization of an AI type “case grammar”. For reasons of computational efficiency, the low-level (“level zero”) inferencing (retrieving) is carried out in RESEDA by using only the resources of the system’s match machine. This machine owes a large part of its power to the judicious use of temporal data in efficiently indexing the fact database. Only high-level inferences require the creation of real “inference engines”. RESEDA’s inference engine hat the general characteristics a) of being “event driven” in its initialization; b) of solving problems by constructing a “choice tree”. Traversal of the choice tree is performed depth-first with systematic backtracking. The high-level inference operations, relying on information in the rule base and making use of the inference engine, that are implemented in the system, are known as “transformations” and “hypotheses”. The “hypotheses” enable new causal relationships to be established between events in the fact database which are a priori totally disjointed; the system is thus equipped with an, albeit elementary, learning capability
49

Mathieu, Olivier. "Application des méthodes de l'intelligence artificielle à l'analyse de données en physique des particules." Aix-Marseille 2, 1990. http://www.theses.fr/1990AIX22058.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail realise en prolog est une introduction de l'intelligence artificielle a l'analyse de donnees en physique des particules. Nous avons realise un environnement interactif d'aide a l'analyse. Il integre la connaissance de la structure de donnees et des logiciels standard de l'experience aleph, et offre un langage de programmation specialise. Cet environnement permet de decrire les taches d'analyse dans un formalisme clair et concis, puis de les figer afin de les utiliser comme bases pour des taches plus avancees. Il est par ailleurs assez ouvert pour recevoir une base de faits decrivant le monde physique qui pourrait en faire un systeme expert
50

Yameogo, Relwende Aristide. "Risques et perspectives du big data et de l'intelligence artificielle : approche éthique et épistémologique." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMLH10.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au XXIème siècle, l’utilisation du big data et de l’IA dans le domaine de la santé s’est progressivement étendue bien qu’elle soit accompagnée par des problèmes liés à l’émergence de pratiques basées sur l’usage des traces numériques. Cette thèse a pour but d’évaluer l’utilisation du big data et de l’IA dans la pratique médicale, de découvrir les processus engendrés par les outils numériques en matière de santé et de souligner les problèmes d’éthique qu’ils posent.L'utilisation des TIC dans la pratique médicale passe essentiellement par l’utilisation des DPI, de logiciels d’aide à la prescription et d’objets connectés. Ces usages soulèvent de nombreux problèmes pour les médecins conscients du risque encouru quant à la protection des données de santé des patients. Dans ce travail, nous mettons en place une méthode de conception de SADM, l’espace vectoriel flou temporel. Cette méthode nous permet de modéliser un nouveau score diagnostique clinique de l’embolie pulmonaire. A travers le paradigme « homme-trace », notre recherche permet, non seulement de prendre la mesure de la limitation dans l’usage des TIC, mais aussi de mettre en évidence les biais interprétatifs dus à la déliaison effectuée entre l’individu pris dans sa complexité d’« homme-trace » et les data circulant à son sujet via les traces numériques. Si le big data, couplé à l’IA peut jouer un grand rôle dans la mise en place de SADM, il ne peut pas se limiter pas à ce champ. Nous étudions aussi comment mettre en place des processus de développement du big data et de IA respectant les règles déontologiques et d’éthique médicale associées à l’appropriation des TIC par les acteurs du système de santé
In the 21st century, the use of big data and AI in the field of health has gradually expanded, although it is accompanied by problems linked to the emergence of practices based on the use of digital traces. The aim of this thesis is to evaluate the use of big data and AI in medical practice, to discover the processes generated by digital tools in the field of health and to highlight the ethical problems they pose.The use of ICTs in medical practice is mainly based on the use of EHR, prescription software and connected objects. These uses raise many problems for physicians who are aware of the risk involved in protecting patients' health data. In this work, we are implementing a method for designing CDSS, the temporal fuzzy vector space. This method allows us to model a new clinical diagnostic score for pulmonary embolism. Through the "Human-trace" paradigm, our research allows us not only to measure the limitation in the use of ICT, but also to highlight the interpretative biases due to the delinking between the individual caught in his complexity as a "Human-trace" and the data circulating about him via digital traces. If big data, coupled with AI can play a major role in the implementation of CDSS, it cannot be limited to this field. We are also studying how to set up big data and AI development processes that respect the deontological and medical ethics rules associated with the appropriation of ICTs by the actors of the health system

До бібліографії