Дисертації з теми "Hardware pour l'intelligence artificielle"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Hardware pour l'intelligence artificielle.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-34 дисертацій для дослідження на тему "Hardware pour l'intelligence artificielle".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Janzakova, Kamila. "Développement de dendrites polymères organiques en 3D comme dispositif neuromorphique." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILN017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les technologies neuromorphiques constituent une voie prometteuse pour le développement d'une informatique plus avancée et plus économe en énergie. Elles visent à reproduire les caractéristiques attrayantes du cerveau, telles qu'une grande efficacité de calcul et une faible consommation d'énergie au niveau des logiciels et du matériel. À l'heure actuelle, les implémentations logicielles inspirées du cerveau (telles que ANN et SNN) ont déjà démontré leur efficacité dans différents types de tâches (reconnaissance d'images et de la parole). Toutefois, pour tirer un meilleur parti des algorithmes inspirés du cerveau, il est possible de les combiner avec une implémentation materielle appropriée qui s'appuierait également sur une architecture et des processus inspirés du cerveau. L'ingénierie neuromorphique s'est principalement appuyée sur les technologies conventionnelles (CMOS circuits, memristor) pour le développement de circuits inspirés du cerveau. Néanmoins, ces implémentations sont fabriquées suivant une approche top-down. En revanche, l'informatique cérébrale repose sur des processus bottom-up tels que l'interconnectivité entre les cellules et la formation de voies de communication neuronales.À la lumière de ce qui précède, ce travail de thèse porte sur le développement de dispositifs neuromorphiques organiques programmables en 3D qui, contrairement à la plupart des technologies neuromorphiques actuelles, peuvent être créés de manière bottom-up. Cela permet de rapprocher les technologies neuromorphiques du niveau de programmation du cerveau, où les chemins neuronaux nécessaires sont établis uniquement en fonction des besoins.Tout d'abord, nous avons découvert que les interconnexions 3D à base de PEDOT:PSS peuvent être formées au moyen d'électropolymérisation bipolaire en courant alternatif, permettant d'imiter la croissance des cellules neuronales. En réglant individuellement les paramètres de la forme d'onde (tension d'amplitude de crête - VP, fréquence - f, duty cycle- dc et tension de décalage - Voff), une large gamme de structures semblables à des dendrites a été observée avec différents degrés de ramification, volumes, surfaces, asymétries et dynamiques de croissance.Ensuite, nous avons montré que les morphologies dendritiques obtenues à différentes fréquences sont conductrices. De plus, chaque structure présente une valeur de conductance qui peut être interprétée comme un poids synaptique. Plus important encore, la capacité des dendrites à fonctionner comme OECT a été révélée. Différentes morphologies de dendrites ont présenté des performances différentes en tant qu'OECT. De plus, la capacité des dendrites en PEDOT:PSS à modifier leur conductivité en réponse à la tension de grille a été utilisée pour imiter les fonctions de mémoire du cerveau (plasticité à court terme -STP et plasticité à long terme -LTP). Les réponses à la STP varient en fonction de la structure dendritique. En outre, l'émulation de la LTP a été démontrée non seulement au moyen d'un fil de grille Ag/AgCl, mais aussi au moyen d'une grille dendritique en polymère développée par électropolymérisation.Enfin, la plasticité structurelle a été démontrée par la croissance dendritique, où le poids de la connexion finale est régi par les règles d'apprentissage de type Hebbien (plasticité dépendante du moment de l'impulsion - STDP et plasticité dépendante du rythme de l'impulsion - SRDP). En utilisant les deux approches, une variété de topologies dendritiques avec des états de conductance programmables (c'est-à-dire le poids synaptique) et diverses dynamiques de croissance ont été observées. Finalement, en utilisant la même plasticité structurelle dendritique, des caractéristiques cérébrales plus complexes telles que l'apprentissage associatif et les tâches de classification ont été émulées.En outre, les perspectives futures de ces technologies basées sur des objets dendritiques polymères ont été discutées
Neuromorphic technologies is a promising direction for development of more advanced and energy-efficient computing. They aim to replicate attractive brain features such as high computational efficiency at low power consumption on a software and hardware level. At the moment, brain-inspired software implementations (such as ANN and SNN) have already shown their successful application for different types of tasks (image and speech recognition). However, to benefit more from the brain-like algorithms, one may combine them with appropriate hardware that would also rely on brain-like architecture and processes and thus complement them. Neuromorphic engineering has already shown the utilization of solid-state electronics (CMOS circuits, memristor) for the development of brain-inspired devices. Nevertheless, these implementations are fabricated through top-down methods. In contrast, brain computing relies on bottom-up processes such as interconnectivity between cells and the formation of neural communication pathways.In the light of mentioned above, this work reports on the development of programmable 3D organic neuromorphic devices, which, unlike most current neuromorphic technologies, can be created in a bottom-up manner. This allows bringing neuromorphic technologies closer to the level of brain programming, where necessary neural paths are established only on the need.First, we found out that PEDOT:PSS based 3D interconnections can be formed by means of AC-bipolar electropolymerization and that they are capable of mimicking the growth of neural cells. By tuning individually the parameters of the waveform (peak amplitude voltage -VP, frequency - f, duty cycle - dc and offset voltage - Voff), a wide range of dendrite-like structures was observed with various branching degrees, volumes, surface areas, asymmetry of formation, and even growth dynamics.Next, it was discovered that dendritic morphologies obtained at various frequencies are conductive. Moreover, each structure exhibits an individual conductance value that can be interpreted as synaptic weight. More importantly, the ability of dendrites to function as OECT was revealed. Different dendrites exhibited different performances as OECT. Further, the ability of PEDOT:PSS dendrites to change their conductivity in response to gate voltage was used to mimic brain memory functions (short-term plasticity -STP and long-term plasticity -LTP). STP responses varied depending on the dendritic structure. Moreover, emulation of LTP was demonstrated not only by means of an Ag/AgCl gate wire but as well by means of a self-developed polymer dendritic gate.Finally, structural plasticity was demonstrated through dendritic growth, where the weight of the final connection is governed according to Hebbian learning rules (spike-timing-dependent plasticity - STDP and spike-rate-dependent plasticity - SRDP). Using both approaches, a variety of dendritic topologies with programmable conductance states (i.e., synaptic weight) and various dynamics of growth have been observed. Eventually, using the same dendritic structural plasticity, more complex brain features such as associative learning and classification tasks were emulated.Additionally, future perspectives of such technologies based on self-propagating polymer dendritic objects were discussed
2

Voyiatzis, Konstantinos. "Utilisation de l'intelligence artificielle pour les problèmes d'ordonnancement." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090102.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le présent travail s'attache à l'ordonnancement des pièces dans un système de fabrication du type "jobshop". Ce problème est un problème combinatoire dont la solution est incompatible avec la contrainte "temps réel". Nous montrons comment une approche "intelligence artificielle" peut conduire à un ordonnancement acceptable en temps réel. Le premier chapitre présente la structure de la mémoire artificielle que nous utilisons. Le second chapitre fournit un exemple d'utilisation de cette approche. L'annexe i rappelle les bases de la gestion de production. L'annexe ii donne les bases de la classification automatique utilisées dans certaines parties de ce travail. Enfin l'annexe iii contient le logiciel de simulation écrit en slam
The present work concerns the scheduling of the products in a production system from "jobshop" type. This problem is a combinatorial problem and has an incompatible solution with the "real time" contraint. We demonstrate in which way this approach "artificial intelligence" can conduct to an acceptable scheduling in real time. The first chapter presents the structure of the artificial memory we use. The second one tells us an example of utilization on this approach. The appendix i remains the basis of production managment. The appendix ii gives us the basis of the automatic classification used in severals parts of this work. And the appendix iii, contains the software of simulation written in slam
3

Voyiatzis, Konstantinos. "Utilisation de l'intelligence artificielle pour les problèmes d'ordonnancement." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376106812.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Neggaz, Mohamed Ayoub. "Accélérateurs Matériels pour l'Intelligence Artificielle. Etude de Cas : Voitures Autonomes." Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis les débbuts du défi DARPA, la conception de voitures autonomes suscite unintérêt croissant. Cet intéreêt grandit encore plus avec les récents succès des algorithmesd'apprentissage automatique dans les tâches de perception. Bien que laprécision de ces algorithmes soit irremplaçable, il est très diffcile d'exploiter leurpotentiel. Les contraintes en temps réel ainsi que les problèmes de fiabilité alourdissentle fardeau de la conception de plateformes matériels efficaces. Nous discutonsles différentes implémentations et techniques d'optimisation de ces plateformes dansce travail. Nous abordons le problème de ces accélérateurs sous deux perspectives: performances et fiabilité. Nous proposons deux techniques d'accélération qui optimisentl'utilisation du temps et des ressources. Sur le voletfiabilité, nous étudionsla résilience des algorithmes de Machine Learning face aux fautes matérielles. Nousproposons un outil qui indique si ces algorithmes sont suffisamment fiables pour êtreemployés dans des systèmes critiques avec de fortes critères sécuritaire ou non. Unaccélérateur sur processeur associatif résistif est présenté. Cet accélérateur atteint desperformances élevées en raison de sa conception en mémoire qui remédie au goulotd'étranglement de la mémoire présent dans la plupart des algorithmes d'apprentissageautomatique. Quant à l'approche de multiplication constante, nous avons ouvertla porte à une nouvelle catégorie d'optimisations en concevant des accélérateursspécifiques aux instances. Les résultats obtenus surpassent les techniques les plusrécentes en termes de temps d'exécution et d'utilisation des ressources. Combinés àl'étude de fiabilité que nous avons menée, les systèmes ou la sécurité est de prioritépeuvent profiter de ces accélérateurs sans compromettre cette dernière
Since the early days of the DARPA challenge, the design of self-driving cars is catching increasing interest. This interest is growing even more with the recent successes of Machine Learning algorithms in perception tasks. While the accuracy of thesealgorithms is irreplaceable, it is very challenging to harness their potential. Realtime constraints as well as reliability issues heighten the burden of designing efficient platforms.We discuss the different implementations and optimization techniques in this work. We tackle the problem of these accelerators from two perspectives: performance and reliability. We propose two acceleration techniques that optimize time and resource usage. On reliability, we study the resilience of Machine Learning algorithms. We propose a tool that gives insights whether these algorithms are reliable enough forsafety critical systems or not. The Resistive Associative Processor accelerator achieves high performance due to its in-memory design which remedies the memory bottleneck present in most Machine Learning algorithms. As for the constant multiplication approach, we opened the door for a new category of optimizations by designing instance specific accelerators. The obtained results outperforms the most recent techniques in terms of execution time and resource usage. Combined with the reliability study we conducted, safety-critical systems can profit from these accelerators without compromising its security
5

Gaïti, Dominique. "L'utilisation des techniques de l'intelligence artificielle pour la gestion des reseaux." Paris 6, 1991. http://www.theses.fr/1991PA066493.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des l'instant ou l'on devient capable d'interconnecter entre eux des equipements terminaux, il devient necessaire de superviser le fonctionnement du reseau utilise, de signaler les pannes, de detecter les erreurs et les anomalies, d'evaluer le cout des communications et de recuperer des donnees statistiques. Cet ensemble de taches est defini par des organismes de normalisation tels que l'iso ou le ccitt mais reste difficile a mettre en place faute d'outils reellement adaptes. Ces outils, nous avons choisi de les rechercher dans le domaine de l'intelligence artificielle. En effet, l'elaboration d'environnements a base de connaissances est de plus en plus frequente dans le domaine du diagnostic notamment et ces applications font appel a des techniques bien maitrisees telles que les systemes experts ou les representations objets. En revanche, lorsqu'il s'agit de prendre en compte les aspects de temps reel, de distribution, d'heterogeneite ou d'informations volumineuses a traiter, les techniques classiques ne suffisent plus et il faut alors s'interesser a des domaines plus specialises tels que l'intelligence artificielle distribuee par exemple. Dans le cadre de notre travail, nous avons concu un systeme multi-agents qui repose sur des concepts developpes en intelligence artificielle distribuee. Les agents communiquent et cooperent afin de prendre en charge la gestion des applications et des reseaux dans une architecture distribuee. Un systeme de filtre selectionne les donnees pertinentes afin de ne traiter qu'une partie de la connaissance. L'ensemble est illustre par l'application numero vert
6

Claes, Gérard. "Contribution à l'application de l'intelligence artificielle pour l'enseignement assisté par ordinateur." Paris 11, 1988. http://www.theses.fr/1988PA112412.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le présent document est composé de trois parties qui correspondent aux trois phases de la démarche choisie pour élaborer un système d'autoformation : étude des besoins en pédagogie, conception d'une solution informatique et expérimentation. L'étude des besoins (chapitre 2) ne peut se faire sans la présentation du contexte ; ce qui est fait dans le premier chapitre. L'existant pédagogique est exposé ici en deux temps : la description des systèmes (chapitre 3) et la description des connaissances (chapitre 4). La solution informatique est exposée à partir de l'architecture générale dont les bases théoriques s'appuient sur le paradigme du Système de Traitement de l'Information (chapitre 5). Chaque concept particulier de l'architecture est ensuite développé : La coactivité (chapitre 6) permet au système d'autoformation de travailler en temps réel avec l’apprenant et son enseignement. L'interface (chapitre 7) s'adapte à de nombreuses situations grâce à sa structure modulaire. Le moteur d'enseignement est capable de traiter l'ensemble des tâches de base d'un enseignant (chapitre 8). L'intégrateur de connaissances (chapitre 9) autorise la description de plusieurs types et de plusieurs formes de connaissances pour définir les acteurs et objets qui participent à l'acte pédagogique. La base de données (chapitre 10) permet de ranger les connaissances. Le moteur d'enseignement peut ensuite les utiliser à sa guise. Cette description fonctionnelle et statique est suivie par une présentation plus dynamique du système d'autoformation : le déroulement d'une session (chapitre 11). La dernière partie est consacrée à la mise en pratique et aux premières évaluations des différents éléments du processus d'enseignement : le système d'autoformation au chapitre 12, les expérimentations avec les concepteurs au chapitre 13, les expérimentations avec les usagers au chapitre 14, et les matières enseignées au chapitre 15. Enfin, les conclusions permettent de faire un premier bilan sur ce type de système et de montrer les perspectives qui en découlent.
7

Claes, Gérard. "Contribution à l'application de l'intelligence artificielle pour l'enseignement assisté par ordinateur." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376127000.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Levasseur, Yan. "Techniques de l'intelligence artificielle pour la classification d'objets biologiques dans des images bidimensionnelles." Mémoire, École de technologie supérieure, 2008. http://espace.etsmtl.ca/115/1/LEVASSEUR_Yan.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La reconnaissance visuelle d'objets biologiques comme les produits agro-alimentaires et les especes vegetales en milieu naturel a profite de percees majeures lors des 30 dernieres annees. Aujourd'hui, des algorithmes de reconnaissance performants sont utilises pour evaluer la qualite de productions agricoles et faire le suivi d'ecosysteme pour en assurer la protection. Dans la plupart des cas, ce sont des experts en vision et en informatique qui ont developpe les solutions personnalisees qui ont permis d'atteindre les resultats desires. L'objectif de la recherche presentee est de foumir des recommandations pour le developpement d'un algorithme de reconnaissance de formes dans des images qui soit generique et qui necessite le moins d'intervention humaine possible. Un tel algorithme pourrait etre utilise par les non experts, par exemple les ingenieurs en agro-alimentaire, les botanistes et les biologistes. Pour atteindre notre objectif, nous avons etudie les etapes du processus de reconnaissance a partir d'images. En pratique, nous avons mis sur pied un systeme de segmentation, d'extraction de caracteristiques et de classification, en plus d'avoir developpe un algorithme de Programmation Genetique (PG). Nous avons integre ce dernier au logiciel libre d'exploration des donnees Weka, afin d'encourager la mise en commun des efforts de recherche sur les algorithmes evolutionnaires. Les classificateurs utilises pour nos experimentations sont le classificateur naif de Bayes, I'arbre de decision C4.5, le K Plus Proche Voisins (KPPV), la PG, le Separateur a Vastes Marges (SVM) et le Perceptron Multicouche (PM). Dans une seconde serie d'experiences, nous avons combine chacun de ces classificateurs, a 1'exception du KPPV, au meta algorithme de boosting. Nous avons compare les resultats de classification des six algorithmes choisis pour six bases de donnees distinctes dont trois ont ete creees par nous. Les bases utilisees proviennent d'images de cereales, de grains de pollen, de noeuds de bois, de raisins sees, de feuilles d'arbres et de caracteres de I'alphabet romain. Suite a une segmentation des bases d'images, nous avons extrait, a partir de chaque objet, une quarantaine de caracteristiques. Une base de donnees alternatives a ete creee grace a la transformation par Analyse en Composante Principale (ACP). Finalement, nous avons compiles les resultats de classification des six classificateurs, puis de leur combinaison par boosting pour les caracteristiques de base et pour les caracteristiques transformees. Chaque experience a ete realisee 50 fois avec une separation aleatoire des bases d'apprentissage et de test. Nous avons observe de bonnes performances de classification pour les problemes comportant un grand nombre d'echantillons d'apprentissage. La performance des classificateurs, selon leur taux d'erreur median, est consistante pour la plupart des bases de donnees. Le PM et le SVM obtiennent generalement les meilleurs taux de classification. Pour les problemes comportant un grand nombre d'echantillons, notre approche obtient des resultats encourageants. Malgre la superiorite apparente de certains classificateurs, nos experimentations ne nous permettent pas d'emettre une recommandation sur I'utilisation prioritaire d'un classificateur dans tous les cas. Nous suggerons plutot I'utilisation d'une metaheuristique evolutive pour I'analyse des donnees d'un probleme afin de choisir ou de combiner des classificateurs appropries. Nous avan^ons egalement que la performance de classification de notre approche pourrait etre amelioree par I'ajout de nouvelles caracteristiques pertinentes, puis par I'optimisation des parametres des classificateurs en fonction des donnees
9

CHERIE, NABIL. "Utilisation des techniques de l'intelligence artificielle pour la modelisation du mouvement d'objets animes." Paris 11, 1991. http://www.theses.fr/1991PA112075.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these presente les differentes approches de l'animation par ordinateur ainsi que les principaux systemes existants. Elle propose ensuite le systeme gemsa, simulateur de comportements du squelette humain dans un environnement representant un appartement. Un modele mathematique de la marche humaine a ete developpe. Pour generer une variete de marches ainsi que des exagerations, nous avons impose a ce modele la parametrisation comme contrainte forte. L'utilisateur de gemsa exprime son scenario avec une formulation orientee-but. La specification des details de l'animation est alors prise en charge par le systeme. L'utilisateur peut, par exemple, demander au systeme de deplacer le squelette d'une piece a une autre ou de le faire asseoir sur une chaise donnee. La planification de chemins dans l'appartement ainsi que la detection et l'evitement d'obstacles sont traites dans cette these
10

Panaïotis, Thelma. "Distribution du plancton à diverses échelles : apport de l'intelligence artificielle pour l'écologie planctonique." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS155.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En tant que base des réseaux trophiques océaniques et élément clé de la pompe à carbone biologique, les organismes planctoniques jouent un rôle majeur dans les océans. Cependant, leur distribution à petite échelle, régie par les interactions biotiques entre organismes et les interactions avec les propriétés physico-chimiques des masses d'eau de leur environnement immédiat, est mal décrite in situ, en raison du manque d'outils d'observation adaptés. De nouveaux instruments d'imagerie in situ à haute résolution, combinés à des algorithmes d'apprentissage automatique pour traiter la grande quantité de données collectées, nous permettent aujourd'hui d'aborder ces échelles. La première partie de ce travail se concentre sur le développement méthodologique de deux pipelines automatisés basés sur l'intelligence artificielle. Ces pipelines ont permis de détecter efficacement les organismes planctoniques au sein des images brutes, et de les classer en catégories taxonomiques ou morphologiques. Dans une deuxième partie, des outils d'écologie numérique ont été appliqués pour étudier la distribution du plancton à différentes échelles, en utilisant trois jeux de données d'imagerie in situ. Tout d'abord, nous avons mis en évidence un lien entre les communautés planctoniques et les conditions environnementales à l'échelle globale. Ensuite, nous avons décrit la distribution du plancton et des particules à travers un front de méso-échelle, et mis en évidence des périodes contrastées pendant le bloom de printemps. Enfin, grâce aux données d'imagerie in situ à haute fréquence, nous avons étudié la distribution à fine échelle et la position préférentielle d’organismes appartement au groupe des Rhizaria, des protistes fragiles et peu étudiés, dont certains sont mixotrophes. Dans l’ensemble, ce travail démontre l'efficacité de l'imagerie in situ combinée à des approches d’intelligence artificielle pour comprendre les interactions biophysiques dans le plancton et les conséquences sur sa distribution à petite échelle
As the basis of oceanic food webs and a key component of the biological carbon pump, planktonic organisms play major roles in the oceans. However, their small-scale distribution − governed by biotic interactions between organisms and interactions with the physico-chemical properties of the water masses in their immediate environment − are poorly described in situ due to the lack of suitable observation tools. New instruments performing high resolution imaging in situ in combination with machine learning algorithms to process the large amount of collected data now allows us to address these scales. The first part of this work focuses on the methodological development of two automated pipelines based on artificial intelligence. These pipelines allowed to efficiently detect planktonic organisms within raw images, and classify them into taxonomical or morphological categories. Then, in a second part, numerical ecology tools have been applied to study plankton distribution at different scales, using three different in situ imaging datasets. First, we investigated the link between plankton community and environmental conditions at the global scale. Then, we resolved plankton and particle distribution across a mesoscale front, and highlighted contrasted periods during the spring bloom. Finally, leveraging high frequency in situ imaging data, we investigated the fine-scale distribution and preferential position of Rhizaria, a group of understudied, fragile protists, some of which are mixotrophic. Overall, these studies demonstrate the effectiveness of in situ imaging combined with artificial intelligence to understand biophysical interactions in plankton and distribution patterns at small-scale
11

Zarri, Gian Piero. "Utilisation de techniques relevant de l'intelligence artificielle pour le traitement de données biographiques complexes." Paris 11, 1985. http://www.theses.fr/1985PA112342.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse fournit une description générale de RESEDA, système « intelligent » d’informatique documentaire qui utilise des techniques empruntées au Knowledge Engineering et l’Intelligence Artificielle (IA) pour le traitement de donnés biographiques complexes. Toutes les connaissances du système sont représentées sous forme purement déclarative, en utilisant un langage de représentation unique (« métalangage ») qui se sert de variables pour la représentation des informations appartenant à la base de règles ; le métalangage constitue un exemple de réalisation IA du concept de « grammaire de cas ». Pour des raisons d’efficacité informatique, les opérations d’inférence de « niveau zéro » de RESEDA sont exécutées en se servant uniquement des ressources de la « machine d’appariement » du système. Cette machine doit une grande partie de sa puissance à une utilisation judicieuse des données temporelles qui permet d’obtenir une indexation efficace de la base de faits. Seules les inférences d’ordre supérieur demandent d’utiliser de véritables « moteurs d’inférence ». Le moteur de RESEDA est caractérisé par les deux faits suivants : a) il est « commandé par l’évènement » (event driven) pendant la phase d’initialisation ; b) la résolution d’un problème est effectuée en le décomposant en sous-problèmes et en construisant progressivement un « arbre de choix ». Cet arbre est exploré en faisant usage d’une technique « en profondeur d’abord » avec « retour en arrière » (backtracking) systématique. Les opérations d’inférence de niveau supérieur du système sont constituées par les « hypothèses » et les « transformations ». La tâche des hypothèses est d’établir de nouvelles relations de cause entre des évènements présents dans la base de faits qui sont à priori complètement disjoints ; le système possède de cette façon une capacité, même si élémentaire, d’apprentissage
The aim of this thesis is to provide a general description of RESEDA, an « intelligent » Information Retrieval system dealing with biographical data and using techniques borrowed from Knowledge Engineering and Artificial Intelligence (AI). All the system’s “knowledge” is represented in purely declarative form. This is the case both for the “fact database” and the “rule base”; the fact database contains the data, in the usual sens of the word that the system has to retrieve. Together, the fact and rule bases make up RESEDA’s “knowledge base”. Information in the knowledge base is depicted using a single knowledge representation language (“metalanguage”), which makes use of quantified variables when describing date in the rule base; the metalanguage is a particularly powerful realization of an AI type “case grammar”. For reasons of computational efficiency, the low-level (“level zero”) inferencing (retrieving) is carried out in RESEDA by using only the resources of the system’s match machine. This machine owes a large part of its power to the judicious use of temporal data in efficiently indexing the fact database. Only high-level inferences require the creation of real “inference engines”. RESEDA’s inference engine hat the general characteristics a) of being “event driven” in its initialization; b) of solving problems by constructing a “choice tree”. Traversal of the choice tree is performed depth-first with systematic backtracking. The high-level inference operations, relying on information in the rule base and making use of the inference engine, that are implemented in the system, are known as “transformations” and “hypotheses”. The “hypotheses” enable new causal relationships to be established between events in the fact database which are a priori totally disjointed; the system is thus equipped with an, albeit elementary, learning capability
12

Panzoli, David. "Proposition de l'architecture "Cortexionist" pour l'intelligence comportementale de créatures artificielles." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/458/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Traditionnellement, la production de comportements intelligents pour les créatures artificielles repose sur la modélisation de leurs facultés cognitives. Cette approche pose deux problèmes essentiels. D'une part, la lourde charge de définir manuellement les connaissances d'un agent nécessite l'intervention d'un animateur, d'autre part la relation cognition-->intelligence n'a jamais été avérée théoriquement ni expérimentalement. C'est face à ces deux défis que les approches écologiques apparaissent comme de nouvelles pistes explorant les liens entre la créature, son corps et son environnement. Ce travail de recherche s'inscrit dans cette optique. Partant de la synthèse de théories provenant de diverses disciplines des neurosciences, nous proposons, dans une approche vie artificielle, une modélisation originale de la mémoire. Le contrôleur Cortexionist est une architecture réactive connexionniste qui intègre une mémoire associative favorisant l'adaptation de l'agent dans un environnement dynamique. L'obtention de règles comportementales émergentes lors des expérimentations révèle la relation qu'entretiennent la complexité de l'environnement et celle du comportement des créatures qui y évoluent
Traditionally, producing intelligent behaviors for artificial creatures means modeling their cognitive abilities. This approach raises two problems. On the one hand, defining manually the agent's knowledge is a heavy duty that implies the intervention of the animator. On the other hand, the cognition-->intelligence relation has not been theoretically nor experimentally proven so far. In front of these challenges, ecological approaches appear as suitable tracks, exploring the links between the creature, its body and its environment. This is the context of the present research work. Using an artificial life approach, we propose an original model of memory based on the synthesis of several neuroscience theories. The Cortexionist controller is a reactive architecture integrating an associative network to enhance the agent's adaptation in a dynamic environment. Obtaining emerging behavior rules reveals the relation between the complexity of the environment and of the creatures that live in
13

Carle, Patrice. "Mering iv : un langage d'acteurs pour l'intelligence artificielle distribuee integrant objets et agents par reflexivite compilatoire." Paris 6, 1992. http://www.theses.fr/1992PA066429.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les langages d'acteurs sont fondes sur un modele particulier de decentralisation des connaissances, un type de protocole d'interactions et une granularite specifique de concurrence. Or une grande partie des recherches actuelles en i. A. D portent justement sur la granularite de la decentralisation, la recherche de protocoles intelligents, et suppose une gestion de la granularite du parallelisme. Nous avons realise un langage d'acteur reflexif, mering iv, pour que ces caracteristiques ne soient plus figees mais adaptables. Le modele de reflexivite propose enrichit le langage d'acteur en permettant de decrire un mecanisme de representation a l'aide de classes et un modele de raisonnement de type multi-agents a l'interieur du langage lui-meme. Cette reflexivite decrit les mecanismes d'execution et d'interactions qui ne sont plus interpretes comme dans les modeles standards, mais compiles, ce qui non seulement optimise les performances du langage, mais de plus apporte une description plus complete des caracteristiques du langage. Nous montrons les possibilites de la reflexivite au travers d'exemples ecrits en mering iv. Ces exemples portent notamment sur la gestion du parallelisme et la description de protocoles d'interaction dans le cadre de systemes multi-agents
14

Perrin, Éric. "Stratégie intégrée utilisant des outils de l'intelligence artificielle pour la maîtrise d'un bioprocédé : instrumentation, modélisation, commande." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL112N.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail a pour objectif l'étude d'éléments améliorant la maitrise d'un bioprocédé. Il s'agit particulièrement de proposer une stratégie permettant d'élaborer un algorithme de commande à priori d'un procédé en cours de développement. L’application choisie pour la mise en œuvre de cette méthodologie est une fermentation continue par des cellules immobilisées, et ce à 2 échelles pilotes de 4 l et 30 l. La première partie du travail est consacrée au développement d'outils d'acquisition et de traitement des informations indispensables à la compréhension du procédé. Tout d'abord, il s'agit de définir et mettre au point l'instrumentation environnante des fermenteurs: préleveurs automatiques d'échantillons de liquide et de gaz, couplés à des analyseurs, et logiciels de gestion de l'instrumentation pour le suivi en ligne de l'état du procédé. En second lieu, nous développons et éprouvons un nouvel outil d'optimisation, un algorithme génétique diploïde, qui est facilement applicable aux problèmes rencontrés en génie des procédés, et, dans cette étude, en estimation paramétrique. La seconde partie du travail concerne l'établissement d'un modèle du bioréacteur qui tient compte à la fois des écoulements et des biocinétiques réactionnelles. Son réglage est simplifié grâce à l'obtention automatique de jeux de paramètres optimaux, déterminés par l'outil d'estimation. Ils permettent la confrontation de modèles et le choix du plus approprié avec une bonne concordance entre résultats de fermentations pilotes et simulations. Dans la dernière partie, les connaissances acquises au cours de la modélisation permettent d'aborder le problème de commande: réguler la concentration d'éthanol présente en sortie de fermenteur en agissant sur le débit de percolation et sur la température. Il faut faire face aux non linéarités du procédé et à l'obtention de mesures retardées ce qui nécessite le recours à une structure compensatrice composée d'un régulateur et d'un prédicteur. L’étude de la commande est basée sur une approche qualitative traduisant les caractéristiques générales du procédé indépendamment de sa taille. La structure développée repose sur un régulateur de type PI flou et sur un prédicteur flou en L pas
15

Motawej, Fadi. "Approche par invariance positive et les techniques de l'intelligence artificielle pour la régulation des carrefours signalisés." Phd thesis, Université de Technologie de Belfort-Montbeliard, 2012. http://tel.archives-ouvertes.fr/tel-00720655.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La régulation du trafic dans un carrefour à feux concerne en général deux objectifs distincts: la fluidification ou la résorption de congestion. Dans le premier cas, on évite de se retrouver dans une situation de trafic très dense en essayant d'ajuster les durées de commutations des feux en fonction de la demande d'affluence au carrefour: c'est une action a priori. Dans le second cas, on est confronté à un trafic saturé (état de congestion). Dans ce cas, il faudra agir a posteriori.Dans ce travail, nous nous intéressons essentiellement à un travail en amont (action a priori) permettant d'éviter la congestion en forçant les files d'attente à ne pas dépasser le niveau du trafic correspondant à l'optimum opérationnel des lignes. Plus précisément, après avoir modélisé le système, nous proposons une commande par retour d'état basée sur le concept d'invariance positive des ensembles et permettant d'atteindre l'objectif. Deux approches sont utilisées: La première fait appel aux inégalités matricielles Linéaires (LMI). La deuxième approche utilise le concept de la (A-B)-invariance issu de la généralisation du théorème de Farkas. Ensuite, nous enrichissons ces deux approches par la technique des réseaux de neurones pour estimer les flux d'entrée au carrefour afin de garantir la faisabilité en temps réel de la commande proposée. Enfin, les résultats de ces travaux sont appliqués sur un carrefour réel du boulevard Anatole France afin de montrer leur intérêt.
16

Elferkh, Jrad Zeina. "Apport des techniques de l'intelligence artificielle dans la négociation dynamique de niveaux de service : proposition d'une interface utilisateur pour l'Internet de nouvelle génération." Paris 13, 2006. http://www.theses.fr/2006PA132005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'évolution considérable de l'Internet en terme de nombre de fournisseurs de services et d'usage nécessite, de la part de l'utilisateur, une meilleure connaissance, à la fois de ses besoins et des offres disponibles. L'Internet actuel basé sur un réseau ‘'best-effort'', c'est-à-dire ne présentant aucune L'évolution considérable de l'Internet en terme de nombre de fournisseurs de services et d'usage nécessite, de la part de l'utilisateur, une meilleure connaissance, à la fois de ses besoins et des offres garantie sur la qualité de la communication, n'est plus suffisant aujourd'hui. Avec l'utilisation de plus en plus importante d'applications temps réel, principalement vidéo et audio, l'Internet se doit d'offrir des garanties de service, notamment en terme de débit, de délai et de taux de perte de l'information. Cette nouvelle génération d'Internet s'appuie, en grande partie, sur l'architecture DiffServ. Dans ce contexte, l'utilisateur doit négocier un certain niveau de service en fonction de ses besoins avant de transmettre ses données. Ce processus de négociation est complexe parce que l'utilisateur doit fournir les paramètres techniques dont il a besoin. C'est dans ce contexte général que se situent nos travaux de thèse. Nous proposons d'introduire un ``Assistant Individuel de Négociation'' (NIA : Negociation Individual Assistant) dans le terminal de l'utilisateur. Cet assistant l'aidera, à choisir dans un premier temps le meilleur fournisseur, puis à (re)négocier dynamiquement les paramètres techniques du SLA. . . Cette thèse porte donc sur la modélisation et la conception d'une interface intelligente, personnalisée et ayant pour objectif de permettre aux utilisateurs d'accéder à l'Internet et de demander des services en fonction de leurs besoins. . .
17

Ndiaye, Soulemane. "Une approche multi-agents pour l'aide aux processus decisionnels complexes : une application a l'intelligence economique." Toulouse 1, 1997. http://www.theses.fr/1997TOU10079.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de these s'inscrit dans le cadre de l'aide a la decision complexe. Dans un premier temps, nous analysons les differentes conceptions de la decision. A partir de cette analyse, nous developpons notre approche cognitive de la decision et nous proposons un modele de la decision complexe. Ce dernier repose sur des mecanismes de planification cognitive (schematisation, anticipation) et sur la construction et la manipulation de modeles de la realite (les modeles operatifs). Dans un deuxieme temps, nous analysons l'aide et les systemes d'aide a la decision courants. Nous developpons les proprietes des systemes et des techniques d'aide a la decision que privilegie la decision complexe telle que nous l'avons definie. L'aide a la decision complexe, dans notre perspective d'amplification des capacites du decideur, repose principalement sur la construction et la manipulation de modeles operatifs. Nous proposons un metamodele multi-agents supportant ces deux activites. Dans un troisieme temps, nous presentons la plate-forme simeco basee sur ce metamodele. Elle permet de creer et de faire evoluer des applications implementant des modeles operatifs. Nous developpons, a titre d'illustration, une application en intelligence economique
This thesis deals with complex decision making. First, different approaches dealing with decision making are investigated. Based upon that, a cognitive approach of decision is introduced and a model of complex decision making is proposed. This model is related to cognitive planning mechanisms (schema, anticipation), and construction and manipulation of models (operative models). In a second time, decision support and decision support systems are analysed. Systems and techniques related to complex decisions support are discussed. Complex decision support, in the perspective of augmenting managers' capacity, underlines the construction and manipulation of operative models. An agent oriented meta-model is proposed to support both activities. Lastly, simeco, a toolkit fully integrating this meta-model is presented. Simeco allows to create and modify applications implementing operative models. An application dedicated to economic intelligence is then described
18

Chiali, Abdelkrim. "Contribution de l'intelligence artificielle pour l'aide à la décision en formulation chimique : conception et exploitation de systèmes experts." Châtenay-Malabry, Ecole centrale de Paris, 1997. http://www.theses.fr/1997ECAP0533.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif assigne à cette thèse était de concevoir des systèmes d'aide à la décision en formulation chimique. Ces systèmes à base de connaissances répondent à la demande d'une entreprise spécialisée dans la formulation des produits de maintenance. Les systèmes mis au point dans ce travail sont capables soit de proposer des mélanges déjà existants, soit de formuler de nouveaux mélanges, répondant à chaque nouvelle demande, de plus en plus sévère, du client. Ils calculent ou estiment également toutes les propriétés physiques et spécifications de sécurité de chaque mélange propose, selon qu'il s'agit d'informations quantitatives ou qualitatives. En raison de l'ampleur de la tâche, nous avons restreint notre objectif au traitement de quelques familles de produits que nous avons choisies en fonction de leur représentativité vis-à-vis de l'ensemble des cas à étudier. Les familles choisies sont : la famille des solvants, la famille des produits d'entretien et la famille des phytosanitaires. Ayant opté pour la représentation orientée objets, le générateur de système expert utilisé pour cette étude a été G2, produit par Gensym software. Nous avons pu concrétiser la réalisation de deux systèmes experts relatifs aux familles des solvants et des produits d'entretien. En ce qui concerne la troisième famille, seule une problématique pour la conception d'un éventuel système expert a été dégagée. Une des principales particularités de ces systèmes consiste en une génération automatique de procédure à partir d'une interface utilisateur proche du langage naturel. Les systèmes proposés ont été adaptés de manière à faciliter leur mise à jour des lors que l'on reste au sein d'une même gamme de produits. La méthodologie utilisée, testée sur trois cas différents, peut être considérée comme assez facilement généralisable à d'autres problèmes de formulation. Les résultats proposés par les deux systèmes complets réalisés ont été validés par des experts et leur implantation sur le site industriel est envisagée.
19

Alsabbah, Shebel Asad. "Mise en oeuvre de techniques issues de l'intelligence artificielle pour le contrôle de moteurs ultrasoniques à onde progressive." Paris 11, 2005. http://www.theses.fr/2005PA112190.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le principal objectif de cette thèse consiste en la commande en vitesse de moteurs piézoélectriques ultrasoniques à onde progressive en étant robuste aux fortes non-linéarités présentes dans ce type de moteur et aux effets de la température sur le fonctionnement. En outre, dans le but de mettre en œuvre un système de commande ne nécessitant pas la mesure de la position et/ou de la vitesse mécanique, un estimateur de celle-ci basé uniquement sur la mesure de grandeurs électriques a été développé. Ainsi, cette thèse est constituée de 2 parties principales. Dans un premier temps, un modèle analytique simplifié, qui représente le moteur ultrasonique à onde progressive a été développé et évalué, numériquement et expérimentalement. Grâce à ce modèle, plusieurs stratégies de contrôle peuvent être étudiées, qu'elles soient conventionnelles (e. G. De type PID) ou basées sur des techniques issues de l'intelligence artificielle (i. E. Logique floue ou réseaux de neurones). Ainsi, la deuxième partie de cette thèse est consacrée, d'une part, à une étude comparative d'un contrôleur logique flou du type PID et d'un " self tuning controller STC " pour les systèmes de commande des moteurs piézoélectriques. La fréquence d'alimentation qui est une fonction non linéaire de la vitesse du moteur est utilisée comme variable de contrôle. Et d'autre part, au développement d'un estimateur de vitesse mécanique basé sur des réseaux de neurones permettant au système de s'affranchir de tout capteur mécanique
This thesis consists of two main parts: Firstly, a simplified analytical model, which represents the travelling wave ultrasonic motor, has been derived and evaluated, numerically and experimentally. With this model many control strategies can be investigated including conventional and fuzzy model-based control approaches. That is why, the second part of this thesis is designed to consider a comparative study of a rule-based fuzzy PID controller and a self-tuning controller STC for the ultrasonic piezoelectric motor drive system. The driving frequency which has an inversely non-linear relationship with the motor speed is used as a control variable. Different numerical and practical control solutions have been proposed and studied
20

Sghaier, Manel. "Combinaison des techniques d'optimisation et de l'intelligence artificielle distribuée pour la mise en place d'un système de covoiturage dynamique." Phd thesis, Ecole Centrale de Lille, 2011. http://tel.archives-ouvertes.fr/tel-00689957.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le but de remédier aux problèmes aujourd'hui omniprésents dans le secteur du transport, qu'ils soient financiers, environnementaux ou autres, nous nous intéressons à l'établissement d'un système de covoiturage dynamique optimisé. La voiture partagée est venue subvenir à des besoins restés insatisfaits en matière de déplacement (flexibilité spatiotemporelle...) encourageant l'émergence d'un mode de transport révolutionnaire qu'est la comodalité. Le focus est alors mis sur la complémentarité entre les modes collectifs et individuels et vient considérer la voiture partagée et plus particulièrement le covoiturage comme des modes de transport à part entière. Placés dans ce cadre, nous nous intéressons à l'aspect temps réel dans les systèmes de covoiturage et développons nos travaux dans ce sens. Ce problème ayant une complexité qui n'est pas des moindres, tous nos efforts sont dirigés dans le but de contrecarrer cet obstacle et mettre en œuvre une application logicielle compétitive à grande échelle offrant satisfaction et qualité de service. Pour ce faire, nous considérons une alliance des systèmes multi-agents et des techniques d'optimisation donnant lieu à des agents optimisateurs répartis selon une modélisation de graphe dynamique distribué. Celui-ci est établi sur la base d'un principe de décomposition du réseau géographique desservi inspiré des techniques de classification pour la mise en exergue des zones de concentration des abonnés. Cette modélisation favorise le traitement parallèle des requêtes de par la décentralisation et décomposition du processus initial sur une multitude d'agents optimisateurs chargés chacun d'une ou plusieurs tâches de moindre complexité.
21

Kanta, Abdoul-Fatah. "Développement d'un système expert basé sur l'intelligence artificielle pour la prédiction et le contrôle du procédé de projection plasma." Besançon, 2007. http://www.theses.fr/2007BESA2013.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La projection plasma est un procédé dans lequel les propriétés du dépôt sont indirectement couplées aux paramètres opératoires (paramètres de puissance, paramètres d'injection, paramètres cinématiques et paramètres environnementaux). Ce procédé se caractérise par des phénomènes de fluctuations et des dérives paramétriques à différents temps caractéristiques, phénomènes qui ont pour origine l'usure des électrodes et les fluctuations intrinsèques de l'arc électrique. L'objectif de cette thèse est de développer un système expert qui permettre d'ajuster en temps réel les paramètres opératoires du procédé en fonction, dans un premier temps, des valeurs mesurées sur les caractéristiques en vol des particules (température de surface et vitess) pour réaliser le dépôt. Considérant l'amplitude de ces dérives, la stratégie à adopter pour développer ce système expert dépend des corrections à appliquer aux caraxtéristiques en vol des particules. L'intelligence artificielle basée sur lé réseau de neurones et le contrôleur flou s'avèrent être des outils pertinents pour atteindre cet objectif. En effet, la logique floue permet de définir les règles de correction paramétrique et le réseau des neurones permet de prédire les caractéristiques en vol des particules et celles du dépot. Coupler les protocoles neuronaux à la logique floue permet alors de développer un contrôleur indépendant. Ce système offre la possibilité d'ajuster les paramètres opératoires dans le but d'assurer la reproductibilité du procédé et également, d'optimiser les conditions de la réalisation du dépôt en tenant compte des effets de l'usure de l'électrode en particulier
Atmospheric plasma spraying (APS) is a process in which the coating properties are indirectly linked to the selection of the operating parameters (power, injection kinematic and environmental parameters). This process is characterized by several parametric drifts and fluctuations at different characteristic times. These drifts and fluctuations originate especially from the electrode wear and intrinsic plasma jet instabilities. The objective of this work is to develop an expert system which could adjust in real time the operating parameters as a function, in a first time, of the measured in-flight particles to manufacture a coating. Due to the large amplitudes of these drifts an fluctuations, the strategy to adopt will depend on the required corrections to apply to the particle characteristics. Artificial intelligence base on artificial neural networks and fuzzy logic controller appeared as pertinent tools to reach this objective. Fuzzy logic permits to define parametric correction rules and the artificial neural networks permits to predict in-flight particle and coating characteristics. Coupling neural protocols to fuzze logic permit to develop an independent controller. This system offers the possibility to adjust the process parameters in order to improve the reproducibility of the process and also, to optimize the coatings development conditions by taking into account the effects of the electrode wear. The system is flexible in order to to permit a full control based on pre-defined rules aiming and maintaining at constant value the in-flight particle characteristics (surface temperature and velocity) by adjusting in real time pwer parameters whatever the fluctuations
22

Baujard, Olivier. "Conception d'un environnement de développement pour la résolution de problèmes : apport de l'intelligence artificielle distribuée et application à la vision." Phd thesis, Grenoble 1, 1992. http://tel.archives-ouvertes.fr/tel-00341607.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse a été de concevoir un environnement de développement pour la resolution de problèmes, s'inspirant des langages a objets et de l'intelligence artificielle distribuée. Un environnement de programmation multi-agents a été conçu dans ce cadre. Cet environnement (maps) est fonde sur la distinction de deux classes d'agents, dédiées a la modélisation et a l'exploitation des connaissances figuratives (agent ks ou knowledge server) et des connaissances opératoires (agent kp ou knowledge processor). Ces classes peuvent alors etre spécialisées a l'aide d'un langage de programmation dedie. Une première version de cet environnement nous a permis de valider ces concepts de base, par la conception d'applications, en vision par ordinateur (système kiss), en diagnostic biomédical (système kids), en compréhension de la parole et en acquisition des connaissances. Le système kiss, décrit dans cette thèse, a été conçu pour manipuler les connaissances introduites par les phases d'analyse de bas niveau, de niveau intermédiaire et de haut niveau, dans une approche de type coopération région/contour. Dans notre approche multi-agents, ces connaissances sont distribuées au sein d'agents ks et kp, formant un réseau. Plusieurs améliorations ont été envisagées pour pallier un certain nombre de faiblesses de cet environnement et le rapprocher des plates-formes de conception en intelligence artificielle distribuée. Des améliorations fonctionnelles concernent l'introduction d'un mode d'exécution parallèle. Ces améliorations ont conduit a la définition d'un nouvel environnement. Des améliorations structurelles, encore a l'étude, concernent la définition d'agents hétérogènes et une structuration en couche des agents
23

Synnaeve, Gabriel. "Programmation et apprentissage bayésien pour les jeux vidéo multi-joueurs, application à l'intelligence artificielle de jeux de stratégies temps-réel." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00780635.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse explore l'utilisation des modèles bayésiens dans les IA de jeux vidéo multi-joueurs, particulièrement l'IA des jeux de stratégie en temps réel (STR). Les jeux vidéo se situent entre la robotique et la simulation totale, car les autres joueurs ne sont pas simulés, et l'IA n'a pas de contrôle sur la simulation. Les jeux de STR demandent simultanément d'effectuer des actions reactives (contrôle d'unités) et de prendre des décisions stratégiques (technologiques, économiques) et tactiques (spatiales, temporelles). Nous avons utilisé la modélisation bayésienne comme une alternative à la logique (booléenne), étant capable de travailler avec des informations incomplètes, et donc incertaines. En effet, la spécification incomplète des comportement "scriptés", ou la spécification incomplète des états possibles dans la recherche de plans, demandent une solution qui peut gérer cette incertitude. L'apprentissage artificiel aide à réduire la complexité de spécifier de tels modèles. Nous montrons que la programmation bayésienne peut intégrer toutes sortes de sources d'incertitudes (états cachés, intentions, stochasticité) par la réalisation d'un joueur de StarCraft complètement robotique. Les distributions de probabilité sont un moyen de transporter, sans perte, l'information que l'on a et qui peut représenter au choix: des contraintes, une connaissance partielle, une estimation de l'espace des états et l'incomplétude du modèle lui-même. Dans la première partie de cette thèse, nous détaillons les solutions actuelles aux problèmes qui se posent lors de la réalisation d'une IA de jeu multi-joueur, en donnant un aperçu des caractéristiques calculatoires et cognitives complexes des principaux types de jeux. En partant de ce constat, nous résumons les catégories transversales de problèmes, et nous introduisons comment elles peuvent être résolues par la modélisation bayésienne. Nous expliquons alors comment construire un programme bayésien en partant de connaissances et d'observations du domaine à travers un exemple simple de jeu de rôle. Dans la deuxième partie de la thèse, nous détaillons l'application de cette approche à l'IA de STR, ainsi que les modèles auxquels nous sommes parvenus. Pour le comportement réactif (micro-management), nous présentons un controleur multi-agent décentralisé et temps réel inspiré de la fusion sensori-motrice. Ensuite, nous accomplissons les adaptation dynamiques de nos stratégies et tactiques à celles de l'adversaire en le modélisant à l'aide de l'apprentissage artificiel (supervisé et non supervisé) depuis des traces de joueurs de haut niveau. Ces modèles probabilistes de joueurs peuvent être utilisés à la fois pour la prédiction des décisions/actions de l'adversaire, mais aussi à nous-même pour la prise de décision si on substitue les entrées par les notres. Enfin, nous expliquons l'architecture de notre joueur robotique de StarCraft, et nous précisions quelques détails techniques d'implémentation. Au delà des modèles et de leurs implémentations, il y a trois contributions principales: la reconnaissance de plan et la modélisation de l'adversaire par apprentissage artificiel, en tirant partie de la structure du jeu, la prise de décision multi-échelles en présence d'informations incertaines, et l'intégration des modèles bayésiens au contrôle temps réel d'un joueur artificiel.
24

Baujard, Olivier Garbay Catherine. "Conception d'un environnement de développement pour la résolution de problèmes apport de l'intelligence artificielle distribuée et application à la vision /." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00341607.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Navarro, Laurent. "Niveau de détail dynamique et progressif de l'intelligence artificielle pour le passage à l'échelle dans la simulation de comportements humains à base d'agents." Paris 6, 2013. http://www.theses.fr/2013PA066422.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
In conclusion, the work presented here describes a generic methodology, implemented into an external, reusable and easy to implement library, for allowing any simulation to animate a high number of agents with complex behaviors in a large-scale 2D or 3D environment. The Dynamic Aggregation and the Mesoscopic approaches, combined together, provide a dynamic and progressive way to migrate a set of agents from a resolution level to another, according to the simulation context and the hardware load. They allow saving important computational resources at nearly no loss in simulation consistency, and without being perceptible by the human observers. Finally, their interfacing with any existing simulator can be done for a low design cost
Les approches d’agrégation dynamique et mésoscopique ont donné naissance à une méthodologie unifiée et puissante pour la simulation d’un grand nombre d’agents, avec des comportements complexes au sein d’un environnement de grande taille. Sa structure peut être adaptée à un large spectre de modèles agent, pour un coût de conception modéré, principalement employé en expertise et en configuration. L’étude de son impact sur la cohérence de la simulation permet d’exhiber un petit ensemble de paramètres contrôlant la globalité du processus, et offrant potentiellement le compromis souhaité entre gain en ressources computationnelles et maintien de la cohérence de la simulation. Tout ceci met en évidence l’unicité et l’adaptabilité de cette méthodologie, qui peut être facilement reproduite grâce à son formalisme simple. Les résultats expérimentaux des approches d’agrégation dynamique et mésoscopique sont extrêmement encourageants, et ont permis à un simulateur de comportement humain à l’état de l’art de multiplier le nombre d’acteurs virtuels simulés pour une faible perte en cohérence de simulation. De plus, elles ont fourni des capacités d’analyse multi-niveaux tout en demeurant relativement imperceptibles aux utilisateurs. Leur intégration validée au sein d’un simulateur de comportement humain industriel est l’une des réalisations majeures de cette thèse. Enfin, ces approches n’en sont qu’à leurs balbutiements. Elles permettent d’ouvrir la voie à d’autres plus complexes, qui pourraient inclure des méthodes d’apprentissage automatique, facilitant la recherche des fonctions de mappage les plus appropriées entre représentations à différents niveaux de résolution, et la gestion native des interactions inter-résolutions. Le spectre applicatif extrêmement large, qui s’étend au-delà de la simulation de comportement humain, facilite l’exploration de ces sujets de recherche
26

ROKO, LEOPOLD. "Une approche genie logiciel pour optimiser les méthodes de planification et de résolution de problèmes dans le domaine de l'Intelligence Artificielle." Paris 7, 1992. http://www.theses.fr/1992PA077272.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail consiste au developpement d'une approche genie logiciel pour optimiser la resolution de problemes par but (syspreb). Syspreb permet le traitement facile d'une grande quantite d'informations, la decomposition facile des entites composant un systeme en unites autonomes et dynamiques, la mise a jour d'informations sans le developpement d'un controle trop rigoureux et enfin le developpement d'un systeme dynamique de resolution de problemes. Ce systeme est ensuite utilise dans l'etude du comportement de robot mobile autonome en univers parseme d'obstacles. Syspreb vient en aide au concepteur de plan: d'abord en amenant ce dernier a specifier de maniere rigoureuse ce qu'il a a faire et ensuite en l'aidant a le faire le mieux possible. Mettant a profit les algorithmes existants, les rotations formelles, les formalismes de representation des connaissances, syspreb permet l'optimisation des resultats. Syspreb se distingue par son architecture de systeme multi-agents. La complexite du systeme, loin d'augmenter avec la base de connaissances, se trouve considerablement reduite. Syspreb offre a l'utilisateur un ensemble de raisonnement partages entre plusieurs agents et un systeme de communication qui associe les formalismes de tableau noir et d'acteurs. Ce mode de communication de syspreb offre les avantages suivants: resolution efficace des problemes, possibilite d'integration de plusieurs expertises, fiabilite, reutilisabilite, et enfin evolution dynamique durant la resolution de problemes. Par la specificite de son systeme a tableau noir, syspreb a une vue globale et coherente de la resolution a travers le comportement de chaque agent qui intervient pendant cette resolution
27

Semertzidis, Michel T. "Developpement de methodes basees sur les mathematiques, l'informatique et l'intelligence artificielle pour l'alignement de sequences et la prediction de structures proteiques." Paris 7, 1994. http://www.theses.fr/1994PA077189.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette etude illustre les methodes d'analyse de sequences des proteines et elle introduit omega, une banque de donnees structurales de proteines ; hnh, une methode d'alignement et gasp une methode de prediction de structure secondaire. Omega est une compilation d'informations structurales de proteines portant sur toutes les structures de proteines publiees dans de journaux cites aux current contents mais non deposees aupres de la pdb. Avec l'entree de 5-10 nouvelles proteines toutes les semaines la version 2 de janvier 1994 contient 537 proteines. Cette base est disponible sur macintosh avec un logiciel d'interrogation que nous avons construit autour de 32 mots cles. La methode hnh (hydrophobic neighboring homology) introduit le concept d'hydrophobicite dans les methodes d'alignement. Nous ameliorons la recherche de similitudes entre les structures de proteines analysees en introduisant dans la methode de dotplot conventionnel le concept d'homologie d'hydrophobicite de voisins et les classes de degenerescence des acides amines (hydrophobes, hydrophiles et amphiphiles). La methode hnh peut comparer avec fiabilite des sequences de proteines presentant une identite de sequence inferieure a 20%. La methode gasp (genetic algorithm for secondary structure prediction) introduit les algorithmes genetiques une nouvelle approche d'intelligence artificielle et le concept d'hydrophobicite dans les methodes de prediction de structure secondaire de proteines. Le principe des algorithmes genetiques consiste a generer des populations de chromosomes (representations d'informations par un vecteur de bits) par crossing-over et mutations. Une fonction de fitness evalue l'adequation entre la structure secondaire modelisee et la sequence de motifs d'hydrophobicite observee, et permet de selectionner des solutions optimales
28

Pujo, Pascal. "Développement d'une interface conviviale pour l'interrogation en langage naturel d'une base de données avec utilisation des concepts et des moyens de l'intelligence artificielle." Paris 11, 1989. http://www.theses.fr/1989PA112255.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de ce travail est le développement d'une interface conviviale en langage naturel pour l'interrogation d'une base de données relationnelle. Le système réalisé se différencie des approches habituelles par son architecture intégrée, la gestion du modèle relationnel étant sous le contrôle total de l'interface. La première étape du travail a consisté à élaborer les procédures de gestion des données et d'analyse des requêtes. Ceci met en jeu de façon intensive les informations sémantiques issues de la modélisation conceptuelle de l'univers interrogé. La couverture linguistique est améliorée par un affinage de l'analyse syntaxique au moyen d'une grammaire hors­ contexte. Mais il paraît nécessaire d'offrir des fonctionnalités renforçant la convivialité de l'interface. Tout d'abord, l'interprétation du langage naturel s'accompagne d'explications : cela permet de vérifier la pertinence de la réponse obtenue. A la différence de la paraphrase, le suivi de ces explications a un caractère didactique intéressant pour des utilisateurs débutants. Ensuite, la structure intégrée a l'avantage de faciliter les échanges d'informations entre l'analyseur des requêtes et la base de données : ceci permet la mise en œuvre aisée de procédures tolérant certaines erreurs susceptibles d'apparaître dans les requêtes des utilisateurs :• erreurs lexicales (fautes de frappe, d'orthographe) : leur traitement fait appel à un algorithme original qui tient compte des contraintes sémantiques de la question pour ne proposer que des corrections «intelligentes» ;• erreurs sémantiques (raccourcis de la langue naturelle, présuppositions erronées). L'architecture retenue autorise l'appel à ces fonctionnalités correctives au cours de la phase d'interprétation de la question, et non, comme bien souvent, après l'échec de celle-ci. Enfin, la maîtrise de l'organisation des données permet d'envisager l'évolution du système pour manipuler des objets complexes d'une part et pour adjoindre aux informations extensionnelles une base intensionnelle de façon à fournir un comportement déductif.
29

Péloquin, Stéphane. "Utilisation de la télédétection, des SIG et de l'intelligence artificielle pour déterminer le niveau de susceptibilité aux mouvements de terrain : application dans les Andes de la Bolivie." Sherbrooke : Université de Sherbrooke, 1999.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Campos, Mario Cesar Mello Massa de. "La simulation dynamique et l'intelligence artificielle pour l'élaboration de stratégies de contrôle-commande multivariable flou : application à une unité de craquage catalytique en phase fluide." Châtenay-Malabry, Ecole centrale de Paris, 1997. http://www.theses.fr/1997ECAP0544.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une méthodologie pour l'élaboration de stratégies de contrôle-commande multivariable flou a été développée, et mise en œuvre dans une application pour la supervision d'une unité de craquage catalytique à lit fluidisé. La méthodologie retenue pour ce faire s'appuie tout d'abord sur la mise au point d'un simulateur dynamique de la zone de réaction du procédé. Ce simulateur permet d'aider à la construction de la base de connaissance du contrôle-commande multivariable flou, et d'assister à la définition du préréglage du système. Ensuite, une approche de conception de la commande floue, basée sur un réseau de neurones, a été mise au point. Ce système permet d'affiner un ensemble de règles initialement fourni de façon que la commande puisse atteindre un niveau de performance comparable, voire supérieur, à ceux obtenus par des opérateurs humains. La méthodologie, qui a été présentée ici, intégrant la logique floue et les réseaux de neurones, semble avoir de bonnes perspectives pour développer l'implantation des systèmes flous dans l'industrie pétrochimique.
31

Péloquin, Stéphane. "Utilisation de la télédétection, des SIG et de l'intelligence artificielle pour déterminer le niveau de susceptibilité aux mouvements de terrain application dans les Andes de la Bolivie." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape9/PQDD_0029/NQ61859.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Singer, Benjamin. "L'intelligence artificielle au service du rugby : acquisition et modélisationd'une expertise visuelle de prise de décision tactique : construction d'un système expert hybride d'aide à l'intervention pour la formation des joueurs et des cadres techniques." Paris 10, 1995. http://www.theses.fr/1995PA100048.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous focalisons notre contribution au niveau acquisition et modélisation de connaissances visuelles. Apres avoir justifié sa nécessite, nous proposons un langage d'élicitation de connaissances visuelles dont la définition formelle est donnée via ses composantes statiques et dynamiques. La deuxième partie de notre contribution est relative à la conception et à la mise en œuvre d'un outil logiciel d'acquisition de connaissances visuelles pilote par le langage précèdent. La troisième partie concerne la représentation de connaissances visuelles au niveau méthodologique et outil, par extension de la méthode et du logiciel initiaux. La quatrième partie décrit l'étude de cas complète menée pour la modélisation de l'expertise visuelle considérée dédiée a la prise de décision tactique en rugby. Le modèle conceptuel complet de l'expert est construit. Sont alors abordées la conception, l'implémentation et la validation du système expert final sur l'architecture cible. La conclusion met l'accent sur les intérêts de notre contribution au niveau théorique et pratique, ainsi que sur la généralité des résultats obtenus pour les expertises visuelles de prise de décision tactique en sports collectifs
We focus on our contribution at the visual knowledge acquisition and modelling levels. After justifying its necessity we propose a visual knowledge elicitation language whose formal definition is given via its static and dynamic component s. The second part of our contribution is related to the design and realization of a visual knowledge acquisition software tool driven by the previous language. The third part of our contribution deals with visual knowledge modelling at the methodological and tool levels by extending the initial method and software. The fourth part describes the whole case study carried out for modelling the visual expertise considered for tactical decision-making in rugby the complete conceptual model is built. Then we describe the design, implementation and validation of the final expert system on the target architecture. The conclusion points out the interests of our contribution both at the theoretical and practical levels, and the generality of the results achieved for team games study
33

Chuquimia, Orlando. "Smart Vision Chip pour l’exploration du côlon." Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS192.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Cancer Colorectal (Cancer Colorectal (CCR)) est le deuxième le plus fréquent en terme de mortalité avec un taux de 47% (880 792 décès en 2018). 96% des CCR débutent par l’apparition d’une tumeur (un polype adénomateux) dans la paroi du côlon. La Capsule Endoscopique (CE), a été inventée par Paul Swain en 1990. Il s’agit d’une pilule intégrant une caméra et un système de radio communication, que le patient avale. Pendant cette procédure, la capsule transmet les images du tube digestif vers un boîtier externe via une communication par radiofréquence. Une fois toutes les images transmises, un médecin gastro-entérologue les télécharge pour réaliser une analyse visuelle et détecter les anomalies et les tumeurs. À l’aide de ce dispositif les médecins peuvent détecter des polypes, d’au moins 5 mm, avec une sensibilité et une spécificité respectivement de 68,8% et de 81,3%. Cette CE présente quelques limites et faiblesses liées à la résolution spatiale et temporelle des images, à son autonomie énergétique et au grand nombre d’images transmises que le gastro-entérologue doit analyser. Nous avons étudié la conception d’un système embarqué contenant une chaine de traitement capable de détecter des polypes et intégrée dans une capsule, créant un nouveau dispositif médical : une capsule endoscopique intelligente. Pour réaliser ce dispositif, nous avons pris en compte toutes les contraintes non fonctionnelles liées à l’intégration dans une capsule endoscopique. Ce dispositif pourrait ainsi être un nouvel outil de dépistage précoce des lésions pré-cancéreuses colorectales : les polypes
CCR is the second highest cause of death by cancer worldwide with 880,792 deaths in 2018 and a mortality rate of 47.6%. 95% of CCR cases begin with the presence of a growth on the inner lining of the colon or the rectum, called a polyp. The endoscopic capsule was invented by Paul Swain in 1990. It is a pill incorpo- rating a camera and a radio communication system that the patient swallows and transmit images from the gastrointestinal tract through the body in a workstation. Once all images are transmitted, a gastroenterologist downloads them to perform a visual analysis and detect abnormalities and tumors. Using this device doctors can detect polyps, at least 5 mm, with sensitivity and specificity respectively of 68.8% and 81.3%. This endoscopic capsule presents some limitations and weaknesses re- lated to the spatial and temporal resolution of images, its energy autonomy and the number of images transmitted to be analyzed by the gastroenterologist. We studied the design of an embedded system containing a processing chain capable of detecting polyps to be integrated into an endoscopic capsule, creating a new medical device: an intelligent endoscopic capsule. To realize this device, we took into account all the non-functional constraints related to the integration into an endoscopic capsule. This device must be a new tool for early detection of precancerous colorectal lesions : polyps
34

Gandibleux, Xavier. "Système d'aide à la décision pour la conduite de processus perturbés ; une approche hybride fondée sur l'intelligence artificielle, la programmation linéaire et l'aide multicritère à la décision : application à la mobilisation de réserve tertiaire d'électricité de France." Valenciennes, 1995. https://ged.uphf.fr/nuxeo/site/esupversions/0a927862-e635-4e55-8aa3-955a2086752f.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre travail concerne les systèmes d'aide à la décision pour la conduite de processus industriels continus perturbés dans leur fonctionnement. A cette fin, l'activité décisionnelle développée par l'operateur de conduite durant la reprise du défaut y est étudiée. Des problèmes comportant un caractère imprévisible, combinatoire et multicritère sont soulevés. Ainsi dans ce travail, nous envisageons des moyens d'assistance à l'operateur conçus autour d'une structuration cohérente de son activité décisionnelle, relativement aux enjeux des différentes phases du processus de reprise de défaut. Ces travaux sont menés à la lumière d'un problème rencontre au niveau de la conduite de la production nationale d'électricité. Pour résoudre les problèmes rencontrés, notre approche prend appui sur l'exploitation d'un savoir-faire humain et de modèles numériques. Nous proposons quatre modèles originaux basés conjointement sur les concepts de l'intelligence artificielle (systématisation du savoir-faire de l'operateur humain en un système à base de connaissances) et de la recherche opérationnelle (modèles d'aide basés sur une méthode de descente, sur un programme linéaire en nombres entiers et sur une procédure multicritère interactive de points références faisant usage d'éléments graphiques visuels). En accord avec le principe de la coopération homme-machine verticale active, l'approche conjugue automatisations avec recommandations, interactions et dialogues homme-machine. Elle a conduit à la réalisation d'un Système Interactif d'Aide à la Conduite intégré à CASTART, une plateforme d'expérimentation simulant l'environnement de conduite de la production nationale française d'électricité, lors d'une situation de mobilisation de réserve tertiaire

До бібліографії