Dissertations / Theses on the topic 'Intelligence artificielle – Informatique'

To see the other types of publications on this topic, follow the link: Intelligence artificielle – Informatique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Intelligence artificielle – Informatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lodter, Christiane. "Intelligence artificielle en orthodontie (ODONTEL*)." Toulouse 3, 1990. http://www.theses.fr/1990TOU30206.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce memoire presente un systeme-expert d'aide au diagnostic en orthodontie accessible par minitel: odontel*. La premiere partie de l'ouvrage est une presentation a l'usage des odontologistes de l'intelligence artificielle: principes, caracteristiques. La methodologie systeme-expert est ensuite abordee. Odontel* est decrit dans la seconde partie: buts, modalites d'acces, conditions de realisation et fondementes orthodontiques puis validation
2

Cornu, Philippe. "Logiques et sciences cognitives en intelligence artificielle." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37604052k.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Helft, Nicolas. "L' Induction en intelligence artificielle : théorie et algorithmes." Aix-Marseille 2, 1988. http://www.theses.fr/1988AIX22044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le probleme de l'induction est aborde a partir de "premiers principes": etant donnee une connaissance supposee etre representative d'un certain domaine, on se pose le probleme de trouver toutes les hypotheses pouvant etre raisonnablement conjecturees. En d'autres termes, le probleme est de definir et calculer ce qui peut, a l'oppose de ce qui doit etre conjecture
4

Bessière, Christian. "Systèmes à contraintes évolutifs en intelligence artificielle." Montpellier 2, 1992. http://www.theses.fr/1992MON20166.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La premiere partie de cette these constitue un petit rappel des principales methodes de resolution des problemes de satisfaction de contraintes (csp). Dans la deuxieme partie, apres une definition des csp dynamiques (necessaires dans tous les systemes evolutifs qui utilisent les csp), deux algorithmes de maintien de l'arc-consistance dans un csp dynamique sont proposees. La troisieme partie presente les systemes de maintenance de la verite (tms) et notamment ceux bases sur la logique des propositions. Un codage de tms en psq dynamique est donne et l'equivalence entre deduction simple dans un tms (methode la plus utilisee) et arc-consistance dans le codage en csp est montree. Un algorithme de deduction plus performant est fourni, qui utilise une methode de filtrage des csp. La derniere partie propose un codage de toute formule booleenne en csp binaire (contraintes portant sur deux variables) pour essayer de trouver de nouvelles classes polynomiales en calcul propositionnel en projetant celles connues sur les csp binaires
5

Napoli, Amedeo. "Représentations à objets et raisonnement par classification en intelligence artificielle." Nancy 1, 1992. http://www.theses.fr/1992NAN10012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse aborde les notions de catégorisation et de raisonnement par classification dans le contexte de la représentation de connaissances. La catégorisation et le raisonnement par classification y jouent des rôles complémentaires : la tâche de la première consiste à organiser des connaissances en hiérarchies sur lesquelles opère le second. Le raisonnement par classification consiste à reconnaître un objet en appariant ses caractéristiques avec celles de catégories connues d'objets afin de découvrir la catégorie à laquelle l'objet pourrait se rattacher. Il joue un rôle primordial dans la recherche, la gestion et la maintenance d'informations organisées en catégories hiérarchisées, ainsi que comme méthode de résolution de problèmes. Les représentations à objets sont fondées sur ces principes. Elles font partie, avec les systèmes à subsomption, des formalismes de représentation à base d'objets dans lesquels le raisonnement tient une place fondamentale. La partie expérimentale de cette thèse décrit la construction d'un système de conception de plans de synthèse de molécules organiques. Dans le modèle présenté, une synthèse est considérée comme un système temporel qui évolue d'un état initial, la molécule à fabriquer, vers un état final, un ensemble de molécules facilement accessibles. Le système est implanté sous la forme d'une représentation à objets, ou chaque état est décrit par un objet temporel. Le raisonnement employé pour résoudre les problèmes de synthèse est le raisonnement par classification, qui opère simultanément sur des hiérarchies croisées qui reflètent des ordres partiels différents, donc une organisation en catégories orthogonales.
6

Do, Si Hoàng. "Informatique répartie et applications à la domotique." Paris 8, 2004. http://www.theses.fr/2004PA083710.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La domotique encore appelée maison communicante englobe l’ensemble des services et techniques visant à intégrer dans les habitations individuelles ou immeubles collectifs des fonctions propres à l’habitat pouvant, pour certaines collaborer entre elles et utiliser des réseaux de communications. Ces domaines d’application pour la domotique sont, par exemple, la gestion d’énergie, la gestion de l’eau, l’éclairage, la sécurité, mais on y trouve également avec l’avènement des autoroutes de l’information, le divertissement, l’enseignement à distance, les visioconférences et la téléphonie internet. L’objectif de la thèse est de concevoir, d’implémenter, de tester et de valider un système de services domotiques en appliquant la technologie agents mobiles, tout en le combinant aux solutions apportées par l’environnement standard de services domotiques OSGi
Home networking includes the whole services and techniques aiming at integrating, in the individual dwellings or apartment building, of the specific functions to the habitat which can, for some cases, collaborate between them and use communication networks. The applying fields are, for example, energy management, lighting management, security, etc. But it also covers, with the advent of information highways, the entertainment, e-learning, the videoconference and telephony on Internet network. The thesis objective is to design, implement, test and validate a home services system by applying mobile agent technology combining with the brought solutions by the standard home services framework OSGi
7

Charroppin, Rémi. "Contribution à l'élaboration d'une méthodologie de conception en intelligence artificielle." Aix-Marseille 3, 1989. http://www.theses.fr/1989AIX30073.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La demarche de conception d'un systeme expert, ou d'un systeme base sur la connaissance requiert l'acquisition du savoir, sa formalisation, puis l'utilisation de ce savoir dans un modele informatique. Le travail decrit tente d'apporter une solution en fournissant a la fois une demarche methodologique, un ensemble de modeles de representation de la connaissance et des outils accompagnant la methode. Dans un premier temps, les specificites d'une methode dediee a la conception des systemes bases sur la connaissance sont evoquees, tenant compte des beoins du cogniticien et des outils informatiques disponibles. Puis un apercu des methodes de conception utilise dans le genie logiciel permet d'apprecier les elements communs aux deux demarches. Les principes de la methode kod, et des concepts mis en uvre sont alors exposes. Les modeles qui y figurent sont presentes, en particulier le modele cognitif de l'action, ainsi que les fonctionnalites qui leur sont associees. Une structure de representation des relations temporelles qui s'expriment dans la langue naturelle complete le modele de l'action. Une partir plus pratique expose la mise en uvre d'un recueil d'expertise. En dernier lieu, la realisation d'outils informatiques qui accompagnent la methode, fait l'objet d'un chapitre illustre d'images d'ecran d'une session
8

Sofiane, Ahcène. "Contributions aux techniques de fusion de connaissances en intelligence artificielle." Artois, 2003. http://www.theses.fr/2003ARTO0408.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse s'inscrit dans le domaine de l'intelligence artificielle symbolique. Plus précisément, il apporte une contribution au domaine de la représentation des connaissances et du raisonnement en se penchant sur des problèmes liés à la fusion de bases (ou de sources) de connaissance et de croyance qui peuvent être mutuellement contradictoires. Dans un premier temps, nous nous sommes intéressés aux approches sémantiques de fusion de croyances. Alors qu'une base de connaissance peut se définir par ses modèles, des croyances mutuellement inconsistantes ne possèdent par définition pas de modèles. Aussi différents auteurs ont essayé de pallier ce problème en définissant le résultat de la fusion de bases de croyance mutuellement inconsistantes par un ensemble d'interprétations proches de ce que seraient ces modèles s'ils existaient. Nous avons étudié de manière critique ces approches. Nous pensons que dans certains champs d'application, elles ne sont pas les plus appropriées dans la mesure où elles reposent uniquement sur des outils sémantiques et ne prennent en aucun compte la forme syntaxique prises par les bases à fusionner. Nous pensons et argumentons que dans certaines applications, la syntaxe des bases de connaissance est à prendre, du moins dans une certaine mesure, en compte lorsque l'on désire décrire ce que doit être le résultat de leur fusion. Aussi, nous avons revisité techniquement ces approches en incluant des critères syntaxiques au sein des définitions sémantiques, ceci par une transformation très simple des définitions à l'origine purement sémantique. Notre seconde contribution vise à étendre les opérateurs sémantiques de fusion de croyances à un contexte non monotone. Plus précisément, nous nous plaçons dans un cadre où les bases à fusionner sont en fait implicitement augmentées par des hypothèses de complétion comme l'hypothèse de monde clos et ses variantes. Dans ce contexte, un problème conceptuel surgit. Comment régler la priorité à accorder à une base par rapport à la complétion d'une autre base lorsque ces deux ensembles sont inconsistants ? Nous étudions le cas où la complétion doit se voir attribuer une priorité moindre que l'information d'une autre base (et ses conséquences logiques). Nous montrons qu'alors les opérateurs sémantiques de fusion doivent être adaptés en conséquence et que la notion de modèle est à grain trop gros et doit lui-même être affiné. Nous reconstruisons ces opérateurs dans ce cadre de non-monotonie, et soulignons les différentes options possibles. La troisième contribution de ce travail s'inscrit dans le domaine de la fusion de connaissances à propos de dispositifs et processus techniques que l'on retrouve par exemple dans le domaine du diagnostic à base de principes premiers. Nous montrons que, pour ce domaine, les opérateurs classiques de fusion de croyances ne sont pas relevants. De fait, ces opérateurs préconisent que la fusion de bases de connaissance dont l'union est consistance doit être cette union elle-même. Nous montrons que lorsque nous fusionnons des bases de connaissance logiques à propos des mêmes dispositifs et processus techniques, il doit parfois en aller différemment. En particulier, des règles elles-mêmes doivent être fusionnées pour former des règles communes, ceci afin que des conditions nécessaires de bon fonctionnement ne deviennent pas simplement suffisantes. Techniquement ce phénomène est causé par le fait que ces bases devraient être normalement soumises à une forme de non-monotonie. Nous étudions ce problème et proposons en toute généralité une étape efficace et préalable à la fusion qui permet de le résoudre. Cette question est étudiée sous différents aspects, notamment sémantiques. Ceci nous permet ainsi d'illustrer un cas surprenant de fusion qui permet de restaurer la consistance. En complément de ce travail, nous proposons des tests de consistances qui permettent d'éviter que la fusion de croyances dans ce domaine conduise à dériver des informations qui seraient contraires à l'intuition (en évitant notamment des effets non-souhaités de subsomption sur des informations plus spécifiques qui devraient prédominer).
9

Napoli, Amedeo Haton Jean-Paul. "Représentations à objets et raisonnement par classification en intelligence artificielle /." [S.l.] : [s.n.], 1992. http://www.scd.uhp/docnum/SCD_T_1992_0012_NAPOLI.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Voyiatzis, Konstantinos. "Utilisation de l'intelligence artificielle pour les problèmes d'ordonnancement." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090102.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent travail s'attache à l'ordonnancement des pièces dans un système de fabrication du type "jobshop". Ce problème est un problème combinatoire dont la solution est incompatible avec la contrainte "temps réel". Nous montrons comment une approche "intelligence artificielle" peut conduire à un ordonnancement acceptable en temps réel. Le premier chapitre présente la structure de la mémoire artificielle que nous utilisons. Le second chapitre fournit un exemple d'utilisation de cette approche. L'annexe i rappelle les bases de la gestion de production. L'annexe ii donne les bases de la classification automatique utilisées dans certaines parties de ce travail. Enfin l'annexe iii contient le logiciel de simulation écrit en slam
The present work concerns the scheduling of the products in a production system from "jobshop" type. This problem is a combinatorial problem and has an incompatible solution with the "real time" contraint. We demonstrate in which way this approach "artificial intelligence" can conduct to an acceptable scheduling in real time. The first chapter presents the structure of the artificial memory we use. The second one tells us an example of utilization on this approach. The appendix i remains the basis of production managment. The appendix ii gives us the basis of the automatic classification used in severals parts of this work. And the appendix iii, contains the software of simulation written in slam
11

Ouali, Mohammed El Habib. "Méthodes d'intégration des estimations multi-échelles de la disparité à partir de la phase du filtre de Gabor : algorithmes et évaluations." ENSMP, 2000. http://www.theses.fr/2000ENMP0977.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons une nouvelle méthodologie d’intégration multi-échelles des estimations de la disparité à partir des différences de phase. La carte de disparité obtenue à partir des différences de phase d'un seul filtre n'est pas dense. De plus, la disparité n'est pas fiable partout à cause de la présence des effets indésirables des singularités de la phase dans la réponse du filtre. Il est alors naturel d'utiliser d'autres échelles pour éviter ces singularités afin d’améliorer la densité et la précision des cartes de disparités. Pour remédier à ces problèmes, les algorithmes proposés dans la littérature utilisent des palliatifs : la disparité comme une moyenne pondérée des estimations multi-échelles, une stratégie coarse-to-fine ou bien un calcul itératif du type itérations de Newton pour affiner la solution. Comme ces palliatifs présentent des inconvénients, nous proposons d'utiliser des mécanismes explicites pour la sélection multi-échelles. Cette approche est en accord total avec les travaux récents de Koenderink et de Lindeberg. Dans notre cas, nous utilisons les modules de la réponse du filtre ainsi que la distance relative entre la fréquence instantanée observée et la fréquence centrale du filtre comme paramètres de fusion des disparités multi-échelles. Cependant, ceci suppose que nous disposons d'une estimation à toutes les échelles considérées. Pour satisfaire cette condition, nous proposons d'utiliser les dérivées du signal original. Nous observons que les singularités ne se trouvent pas aux mêmes positions selon que nous utilisons le signal ou sa dérivée d'ordre N. Nous proposons également un modèle quadratique pour la détermination des voisinages de singularités sans détecter les singularités. Finalement, nous présentons l’évaluation non-contextuelle et contextuelle des algorithmes, ou nous montrons son importance, d'une part pour guider la recherche et d'autre part dans le transfert des algorithmes vers l'industrie
We propose a new methodology of multiscale phase difference-based disparity integration. Usually, the disparity map obtained with unique filter exhibits a poor density. Moreover, the disparity s not reliable everywhere because of the presence of the unwanted phase singualarities effects. Its is then natural to use other filter tunings, e. G. Scales, to avoid these singularities in order to improve the density and the precision of the disparity maps. To overcome these problems, the algorithms proposed in the literature use palliatives : the disparity is computed as a weighted average of the multiscale estimates, a coarse-to-fine strategy or, finally, an iterative calculation. , like for example Newton iterations, to refine the solution. As these palliatives present drawabacks, we propose to use explicit mechanisms for the multiscale selection. This approach is in total agreement with recent works of Koenderink and Lindeberg. In our case, we use the magnitudes of the filter response as well as the relative distance between the instantaneous frequency observed and the filter peak frequency as fusion parameters of the multiscale estimates. However, this suppose that we have an estimate with all the scales considered. To satisfy this condition, we propose to use the derivative of the original signal. We observe that the singularities are not with the same positions according to wheter we use the signal or its derivative of order N. We also propose a quadratic model to determine the singularities neighborhoods without detecting these singularities. Finally, we present the non-contextual and contextual algorithms evaluation where we show its importance, on the one hand to guide search and on the other hand in the transfer of the algorithms towards industry
12

Wagner, Pierre. "Machine et pensée : l'importance philosophique de l'informatique et de l'intelligence artificielle." Paris 1, 1994. http://www.theses.fr/1994PA01A009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail a pour but d'évaluer l'importance philosophique de l'informatique et de l'intelligence artificielle, en procédant à l'étude des relations entre machine et pensée. Pour cela, on examine de manière successive les différents arguments qui sont développés dans la philosophie contemporaine pour ou contre les thèses mécanistes. Selon les versions les plus radicales de ces thèses, qui s'inspirent des travaux efféctués en intelligence artificielle, une machine peut penser et l'on peut concevoir un modèle mecanique de l'esprit à partir de notions empruntées à l'informatique. Au sujet de l'intelligence artificielle, l'analyse montre, d'une part, ce qu'une réflexion philosophique sur les rapports entre machine et pensée peut attendre des progrès realisés dans ce domaine, et interroge, d'autre part, la pertinence des rapprochements qui sont souvent proposés entre certaines philosophies de la tradition (comme celles de Descartes, Hobbes, Leibniz ou La Mettrie) et la manière dont l'intelligence artificielle conçoit l'esprit. On montre aussi que l'informatique en tant que telle soulève, au sujet des relations entre machine et pensée, certains problèmes qui lui sont propres, qui sont souvent occultes par le débat relatif au mécanisme et à l'intelligence artificielle, et qui ne méritent pourtant pas moins l'attention du philosophe. Ces problèmes sont posés à partir d'une étude des relations entre logique et informatique
The goal of this work is to value the philosophical importance of computer science and artificial intelligence, by studying the relations between machine and thought. The arguments raised for and against mechanism in the contemporary philosophy are examined successively. In this case, the theses of mechanical philosophy are based on computer science and on artificial intelligence. According to the strongest of these theses, a machine can think and a mechanical model of thought using ideas in computer science can be designed. With regard to artificial intelligence, the two main points examined are the following : fist, what can be expected from the progress made in this domain, by a philosophical investigation of the relations between machine and thought ? Second, is the parallel often drawn between philosophers as descartes, hobbes, leigniz or la mettrie on the one hand, and the representation of mind according to artificial intelligence on the other hand, a valid one ? On this last point, it is argued that the answer is no. As for computer science, it raises its own questions about machine and thought, questions that are often overlooked, and ignored by the debate on mechanism and artificial intelligence, while they no less deserve philosophical examination. These questions are raised by studying the relations between logic and computer science
13

Buche, Cédric Tisseau Jacques. "Un système tutoriel intelligent et adaptatif pour l'apprentissage de compétences en environnement virtuel de formation." [s.l.] : [s.n.], 2005. http://tel.ccsd.cnrs.fr/docs/00/05/23/77/PDF/rapportThese_CedricBuche.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

FRANDJI, BRUNO. "Etude des principaux problemes rencontres dans l'utilisation de nomenclatures de codes en medecine : apport de l'intelligence artificielle." Aix-Marseille 2, 1989. http://www.theses.fr/1989AIX20166.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Yacoubi, Alya. "Vers des agents conversationnels capables de réguler leurs émotions : un modèle informatique des tendances à l’action." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS378/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les agents virtuels conversationnels ayant un comportement social reposent souvent sur au moins deux disciplines différentes : l’informatique et la psychologie. Dans la plupart des cas, les théories psychologiques sont converties en un modèle informatique afin de permettre aux agents d’adopter des comportements crédibles. Nos travaux de thèse se positionnent au croisement de ces deux champs disciplinaires. Notre objectif est de renforcer la crédibilité des agents conversationnels. Nous nous intéressons aux agents conversationnels orientés tâche, qui sont utilisés dans un contexte professionnel pour produire des réponses à partir d’une base de connaissances métier. Nous proposons un modèle affectif pour ces agents qui s’inspire des mécanismes affectifs chez l’humain. L’approche que nous avons choisie de mettre en œuvre dans notre modèle s’appuie sur la théorie des Tendances à l’Action en psychologie. Nous avons proposé un modèle des émotions en utilisant un formalisme inspiré de la logique BDI pour représenter les croyances et les buts de l’agent. Ce modèle a été implémenté dans une architecture d’agent conversationnel développée au sein de l’entreprise DAVI. Afin de confirmer la pertinence de notre approche, nous avons réalisé plusieurs études expérimentales. La première porte sur l’évaluation d’expressions verbales de la tendance à l’action. La deuxième porte sur l’impact des différentes stratégies de régulation possibles sur la perception de l’agent par l’utilisateur. Enfin, la troisième étude porte sur l’évaluation des agents affectifs en interaction avec des participants. Nous montrons que le processus de régulation que nous avons implémenté permet d’augmenter la crédibilité et le professionnalisme perçu des agents, et plus généralement qu’ils améliorent l’interaction. Nos résultats mettent ainsi en avant la nécessité de prendre en considération les deux mécanismes émotionnels complémentaires : la génération et la régulation des réponses émotionnelles. Ils ouvrent des perspectives sur les différentes manières de gérer les émotions et leur impact sur la perception de l’agent
Conversational virtual agents with social behavior are often based on at least two different disciplines : computer science and psychology. In most cases, psychological findings are converted into computational mechanisms in order to make agents look and behave in a believable manner. In this work, we aim at increasing conversational agents’ belivielibity and making human-agent interaction more natural by modelling emotions. More precisely, we are interested in task-oriented conversational agents, which are used as a custumer-relationship channel to respond to users request. We propose an affective model of emotional responses’ generation and control during a task-oriented interaction. Our proposed model is based, on one hand, on the theory of Action Tendencies (AT) in psychology to generate emotional responses during the interaction. On the other hand, the emotional control mechanism is inspired from social emotion regulation in empirical psychology. Both mechanisms use agent’s goals, beliefs and ideals. This model has been implemented in an agent architecture endowed with a natural language processing engine developed by the company DAVI. In order to confirm the relevance of our approach, we realized several experimental studies. The first was about validating verbal expressions of action tendency in a human-agent dialogue. In the second, we studied the impact of different emotional regulation strategies on the agent perception by the user. This study allowed us to design a social regulation algorithm based on theoretical and empirical findings. Finally, the third study focuses on the evaluation of emotional agents in real-time interactions. Our results show that the regulation process contributes in increasing the credibility and perceived competence of agents as well as in improving the interaction. Our results highlight the need to take into consideration of the two complementary emotional mechanisms : the generation and regulation of emotional responses. They open perspectives on different ways of managing emotions and their impact on the perception of the agent
16

Mokhtari, Aïcha. "Apport des logiques non-classiques pour une représentation de la causalité." Paris 13, 1994. http://www.theses.fr/1994PA132026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le raisonnement causal est certainement d'une importance majeure en intelligence Artificielle, mais le point de vue philosophique n'est pas nécessaire pour obtenir des modèle pratique de ce raisonnement. Nous nous intéressons dans cette thèse, à la conception interventionniste de la causalité, i. E, nous préférons sélectionner les causes parmi un ensemble d'actions qu'un agent a la possibilité de faire ou non (libre arbite). En outre nous relions cette notion d'action aux normes (ce qui est normalement le cas quand une action est executée, quels sont les effets normaux de cette action). L'utilisation d'un raisonnement non-monotone est nécessaire, mais une utilisation des logiques non monotones classiques conduit à de sérieuses difficultées. Ces difficultés sont dues, en particulier, à leur inadéquations à considérer le temps. Dans notre approche nous proposons une extension du langage propositionnel à l'aide de deux opérateurs (pour impliquer dans tous les cas et pour impliquer normalement). Nous donnons une sémantique à ces deux opérateurs qui, pour le dernier cité, est basée sur la notion de lignes de temps préférées. Nous utilisons ces opérateurs dans la définition d'une base de règles causales peut être utilisée aussi bien pour la prédiction que pour l'explication. Notons que cette dernière pose des problèmes pour certaine approches, basées sur la minimisation chronologique.
17

Bourdellès, Michel. "Analyse de systèmes réactifs synchrones à des fins de vérification : Application au langage ESTEREL." ENSMP, 1999. http://www.theses.fr/1999ENMP0931.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse décrit l'application de techniques de vérification automatiques aux systèmes réactifs synchrones. Cette étude a mené à l'implantation d'outils de vérification de la partie contrôle de programmes ESTEREL validés sur divers programmes. Cette thèse présente enfin une étude pour étendre ces outils de vérification à l'interprétation des données. La vérification de propriétés s'obtient par abstractions et parcours exhaustifs d'un modèle des comportements du programme. Ce modèle peut-être, soit explicite et décrit par un automate, soit implicite et décrit par un système d'équations booléennes avec registres. Un algorithme de minimisation à partir de la représentation explicite est proposé et implémenté. La vérification par observateur de propriétés de sûreté et de vivacité a aussi été implantée. L'automate global du programme ne peut-pas toujours être directement construit. Pour le construire ont été implantées les techniques d'abstraction et de réduction compositionnelle. Ces outils ont été validés notamment sur le cas d'étude d'une turbine à vapeur et d'une cellule de production. Des algorithmes efficaces de calcul d'espace des états à partir de la représentation implicite du programme permettent de traiter des programmes de taille importante. Nous présentons une étude pour étendre ce calcul à l'interprétation de données dans des types finis en codant séparement les parties opérations sur le contrôle et opérations sur les données.
18

Duval, Thomas. "Analyse informatique post-mortem : mise en oeuvre et évaluation d'une approche bayésienne." Rennes 1, 2005. http://www.theses.fr/2005REN1S185.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La criminalité informatique est un phénomène en augmentation. Les délits sont de plus en plus nombreux et complexes. L'analyse criminelle informatique, discipline encore récente, est une activité empirique reposant essentiellement sur l'expérience des enquêteurs. L'objectif de ce travail est d'abord de proposer un modèle du processus d'investigation, permettant la description de la configuration des systèmes compromis et de leurs vulnérabilités, des scénarios d'attaque et du cheminement de l'enquête. Une approche bayésienne a été mise en oeuvre pour proposer des hypothèses et des techniques d'analyse en fonction du contexte et des observations constatées. Un prototype a ensuite été réalisé. Des expérimentations et des démonstrations devant des professionnels ont permis de vérifier la pertinence du modèle et de l'approche, ainsi que la capacité de notre solution à travailler sur des cas réels.
19

Lattaud, Claude. "Approche adaptative de systèmes multi-agents dans un contexte vie artificielle." Paris 5, 1998. http://www.theses.fr/1998PA05S021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vie artificielle est un des domaines émergents lies à l'intelligence artificielle. Son objectif principal est la synthèse d'artefacts afin de reproduire certaines fonctions et certains comportements appartenant à des êtres vivants. Ces créatures artificielles, nommées agents dans les systèmes multi-agents, sont construites à partir de modèles de la génétique moderne. Ainsi, ces agents sont munis de lois d'évolution, calquées sur la théorie néo-darwinienne de l'évolution, permettant d'adapter leurs comportements en fonction des modifications de leur environnement. L'objectif principal de cette thèse concerne l'étude de l'adaptation, comportementale et morphologique, de ces agents dans des environnements dynamiques. Plus précisément, l'évolution de ces populations d'entités artificielles est abordée au travers des questions fondamentales suivantes : par quels moyens ces entités agissent-elles sur leur environnement et interagissent-elles entre elles ? Sont-elles dotées de capacités de mémoire et de raisonnement ? La première étape pour construire les entités artificielles étudiées dans cette thèse consiste en l'élaboration d'un modèle de classes. Chacune de ces classes représente un outil, une fonction, accessible à ces entités. La seconde étape définit les méthodes utilisées pour leur évolution. Le concept de macro-évolution est alors introduit afin de permettre aux entités de subir une évolution en profondeur de leurs classes. Ce processus leur offre la possibilité d'évoluer progressivement du simple vers le complexe. Cette notion de macro-évolution, découpée en une classification et un opérateur de macro-mutation, est évaluée par le biais de deux applications : optimisation de l'acquisition de ressources d'une part et survie en environnement dynamique d'autre part. Un ensemble de simulations apporte de nombreux résultats significatifs quant à l'intérêt de la macro-évolution dans les processus d'adaptation. L'émergence de comportements singuliers est mise en évidence tant du point de vue individuel que du point de vue collectif. Ainsi, la plupart des agents, initialement très simples, acquièrent finalement des facultés de communication lors de cette macro-évolution.
20

Kyriazopoulos, Constantinos. "Une méthodologie cellulaire et multi-agents de conception architecturale évolutionniste." Paris 8, 2007. http://octaviana.fr/document/134097890#?c=0&m=0&s=0&cv=0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons un cadre méthodologique de conception architecturale qui utilise opérations et outils de l'intelligence artificielle: nous proposons, dans cette étude, de matérialiser un espace architectural a priori imaginaire et global par des opérations d'instanciations et de réifications essentiellement locales de conception cellulaire. L'Espace Architecte (EA) est un espace imaginaire. L'édifice auquel cet espace peut correspondre, étant bien réel, est une transcription matérielle des propriétés de cet EA, et aussi la résultante de contraintes, de choix, de pressions physiques et sociales. Cette résultante est l'aboutissement et l'effet d'opérations rassemblées en structure. Les opérations, qui sont dotées de propriétés formelles et algorithmiques, constituent les outils de matérialisation d'un EA. Les structures opératives, vu la complexité des EA imaginaires à réaliser mettent en jeu pour l'instant une informatique de modélisation et d'optimisation qui relève clairement de l'intelligence artificielle d'aujourd'hui: heuristiques, monte-carlos, sélections et évolutions artificielles, multi-agences. Nous proposons un répertoire et une mise en ordre de ces méthodes et leur applications à la conception en architecture. Nous examinons à cette occasion les aspects de l'histoire de l'architecture qui mènent logiquement vers notre approche. Dans l'introduction, nous présentons la problématique (les origines, le but, les limites et les usages) de la méthode proposée. Dans le premier chapitre, nous présentons un système de multi-agences, supporté par une méthode évolutionniste. Dans le second chapitre, nous décrivons une interface architecturale, qui s'interpose entre le système de multi-agences et l'Architecte utilisateur. Dans le troisième chapitre, nous décrivons les principes de l'histoire et de la théorie de l'architecture. Dans le quatrième chapitre, nous répondons à la question "pourquoi l'Architecte a besoin de concepts et méthodes de l'intelligence artificielle?", en parcourant brièvement les théories, méthodes et applications associées. Finalement, dans le cinquième chapitre, en conclusion, nous réexaminons la plus grande part des plans et maquettes présentées aux chapitres précédents qui pourront être examinés cette fois à la lumière de nos propositions. On constatera qu'une partie importante de nos exemples concernent la conception de logements et de parties critiques d'iceux: cuisines, salles d'eau, ce genre de fonctions: nous sommes convaincus que l'architecture formalisée doit se donner pour but de résoudre avant tout des problèmes pratiques. Enfin, c'est très délibérément, que nous avons, dans le cadre de cette thèse, décidé de placer notre contribution personnelle avant l'histoire du domaine, qui n'a jamais cessé de figurer en arrière-fond de notre travail
We propose a methodological framework of architectural design which uses operations and tools of artificial intelligence: we propose, in this study, to materialize an a priori imaginary and global architectural space by primarily local operations of instantiations and reifications of cellular design. The Architect Space (AS) is an imaginary space. The building to which this space can corresponds, being quite real, is a material transcription of the properties of this AS, and also the resultant of constraints, choices, and physical and social pressures. This resultant is the achievement and the effect of operations gathered as a structure. These operations, which are equipped with formal and algorithmic properties, constitute the tools for materialization of an AS. The operative structures, considering the complexity of the imaginary AS to materialize involve as for now a data processing of modeling and optimizations which concerns clearly the artificial intelligence today: heuristics, monte-carlos, artificial selections and evolutions, multi-agents. We propose a repertory and an ordering of these methods and their applications to the architectural design. We examine on this occasion the aspects of the history of architecture which carry out logically towards our approach. In the introduction, we present the problematic (origins, goal, limits and uses) of the proposed method. In chapter 1, we present a multi agent system, supported by an evolutionary method. In chapter 2, we describe an architectural interface, which interposes between the multi agent system and the Architect user. In chapter 3, we describe the principles of history of theory of architecture. In chapter 4, we answer the question "why Architect needs the concepts and methods of the artificial intelligence?", by briefly traversing the associated theories, methods and application. Finally concluding, in chapter 5, we re-examine the greatest part of the plans and models presented at the preceding chapters which could be examined this time in the light of our proposals. One will note that a significant part of our examples relate to the design of residences and their critical parts: kitchens, bathrooms, this sort of functions: we are convinced that formal architecture must aim to solve the practical problems above all. Finally, it is very deliberately, that we have decided, within the framework of this thesis, to place our personal contribution before the history of the field, which never ceased appearing in innermost depth of our work
21

Le, Goc Marc. "Contribution au développement d'outils pour la conception de contrôleurs cognitifs." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans ce mémoire s'intègrent dans le cadre du Contrôle Intelligent. Ils concernent plus particulièrement la conception d'un contrôleur cognitif destiné à la commande d'un processus physique bas niveau. Après une introduction portant sur la raison d'être du Contrôle Intelligent, le chapitre 2 propose une approche méthodologique de construction d'une loi de commande cognitive. Cette méthodologie est exprimée en termes de Physique Qualitative et développée sur l'exemple du contrôle en position d'un moteur à courant continu. La simplicité de l'exemple permet la construction d'un contrôleur complet. Le chapitre suivant aborde la mise en œuvre des lois de commande obtenues à partir de la méthodologie proposée, au travers de la présentation de trois outils logiciels : (i) un langage-expert rapide, appelé LARC, (ii) un ESPION, qui visualise sous la forme de courbes les quantités d'un processus et (iii) un DEBUGGER SYMBOLIQUE destiné à la simulation et à l'analyse de la prise des décisions. Ces outils ont été réunis dans un environnement de développement, appelé ALBERT, construit comme un gestionnaire de fenêtres. Dans le chapitre 4, le contrôleur cognitif précédemment construit est appliqué au contrôle d'un axe de robot industriel. Une modélisation mathématique de la commande générée par le contrôleur est ensuite proposée, afin de vérifier numériquement les résultats expérimentaux. Le mémoire conclu sur les limites et l'apport des travaux présentés.
22

Guessasma, Sofiane. "Optimisation et contrôle de procédés de projection thermique par coopération de méthodes d'intelligence artificielle." Besançon, 2003. http://www.theses.fr/2003BESA2010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail répond à deux objectifs complémentaires visant à introduire en projection thermique des méthodes implicites basées sur l'emploi de réseaux de neurones artificiels et d'expliciter les corrélations entre les paramètres opératoires et les caractéristiques et propriétés des dépôts. L'intelligence artificielle, à travers les réseaux de neurones, est admise dans ce travail comme un support de développement réalisant la connexion entre les données du problème (base de données) et la réponse quantifiée d'une manière statistique (méthode heuristique). Une étude de faisabilité a été conduite en considérant des dépôts d'almine-rutile réalisés par le procédé de projection thermique à la torche à plasma d'arc soufflé atmosphérique (APS). Des réseaux de neurones ont été construits pour décrire les diverses corrélations entre les paramètres opératoires et les caractéristiques des particules en vol et les propriétés et caractéristiques des dépôts. Ces corrélations ont été obtenues grâce à des expériences structurées auxquelles des protocoles d'analyse ont été systématiquement associées. Les résultats obtenus par les réseaux de neurones, représentant un traitement global des bases de données, ont permis de quantifier ces corrélations tout en adhérant aux résultats expérimentaux. Par ailleurs, ils ont permis de prédire des comportements intermédiaires non décrits par les expériences réalisées
The aim of this work was to implement the Artificial Neural Network (ANN) methodology to predict the correlations between the APS processing parameters and the coating attributes. APS alumina-titania coatings were realized and their properties were characterized to serve as a database to feed ANN structures. Such structures permitted in one hand to relate the processing parameters to the in-flight particle characteristics and in the other hand to relate the processing parameters to some coating mechanical properties and microstructural characteristics. The predicted results, which represent a global treatment of the whole database, proved to be comparable to the experimental results. In such a way, they permitted to quantify some relationships not represented by the experimental sets
23

Mouton, Rémy. "Outils intelligents pour les musicologues." Le Mans, 1992. http://www.theses.fr/1995LEMA1014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Divers outils automatiques ont ete realises dans le but de permettre une approche informatisee du phenomene musical (principalement tonal): lecture de partitions, orthographieur de midifiles, analyse melodique et orchestrale, chiffrage harmonique, composition automatique parametrable. Il s'en degage une technique de reconnaissance de formes combinant methodes numeriques et logiques et une proposition de problematique centrale pour l'informatique musicologique
24

Tran, Chi Dung. "Vers un environnement générique et configurable pour l'aide à l'évaluation des systèmes interactifs à base d'agents : application à un système d'aide à l'information voyageurs." Valenciennes, 2009. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/5d9390ed-9ec6-43ae-95c4-d85fb233aef0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’évaluation des systèmes interactifs est un domaine de recherche très actif depuis plus d’une trentaine d’années. Suite à l’apparition de systèmes interactifs à architecture dite à base d’agents, de nouvelles problématiques relatives à l’évaluation de tels systèmes apparaissent. Notre contribution réside dans la proposition d’un environnement générique et configurable baptisé EISEval (Environment for Interactive System Evaluation) pour l’aide à leur évaluation. En effet, il prend en compte leurs spécificités et étend les possibilités des mouchards électroniques traditionnels pour évaluer différents aspects d’un système : l’interface utilisateur, quelques propriétés non fonctionnelles (ex. : temps de réponse) et certaines propriétés de l’utilisateur. Cet environnement a été testé et validé dans le cadre du projet SART (Système d’Aide à la Régulation de Trafic), dans un cadre d’évaluation d’un système interactif dans le domaine des transports appelé SAI (Système d’Aide à l’Information des voyageurs). Les perspectives de recherche concernent l’évaluation et l’amélioration du système SAI, de même que l’amélioration de l’environnement d’évaluation proposé, afin d’augmenter son automatisation et l’intégrer dans un environnement d’évaluation intégré. Cet environnement permettrait de combiner des résultats d’évaluation provenant de différentes méthodes (y compris de l’environnement EISEval) pour l’aide à l’évaluation des systèmes interactifs
The evaluation of interactive systems has been a very active subject of research since more than around thirty years. The appearance of agent-based interactive systems implies new problems relative to the evaluation of such systems. Our contribution is to propose a generic and configurable environment baptized EISEval (Environment for Interactive System Evaluation) to assist the evaluation of agent-based interactive systems. Indeed, it takes into account specificities of such systems and extend the possibilities of the traditional electronic informers to evaluate different aspects of a system: the user interface, some non-functional properties (for instance: response time) and certain user’s properties. This environment has been validated by applying it in the SART project, to evaluate an interactive system in the field of transport called IAS (Information Assistance System). The research perspectives concern the evaluation and the improvement of the SAI system, and the improvement of the proposed evaluation environment to increase its automation and integrate it into an integrated environment. This environment would allow to combine evaluation results from various methods (including the proposed EISEval environment) to assist the evaluation of interactive systems
25

Savelli, Joël. "Facettes statique et dynamique de la notion d'analogie : relation d'analogie et processus analogiques." Aix-Marseille 3, 1993. http://www.theses.fr/1993AIX30017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette these est de proposer une modelisation unificatrice de la notion d'analogie. En effet, les connaissances disponibles actuellement sur ce sujet sont tres eparses, en fonction des divers champs de recherche (philosophie, psychologie, linguistique, et intelligence artificielle) qui y ont trait. Sans proposer une implementation globale, illusoire actuellement, nous adoptons un point de vue d'informaticien sur le sujet, en mettant en exergue des passages obliges dans la construction d'un systeme informatique ambitionnant de raisonner par analogie. Dans ce cadre, nous distinguons tout d'abord clairement les deux facettes statique et dynamique de cette notion. La premiere est exprimee par la situation analogique, qui se presente lorsque deux objets, contextuellement ressemblants, sont en relation d'analogie. La seconde est representee par plusieurs types de processus analogiques que nous cataloguons. Nous decrivons les composants communs aux divers processus possibles, en soulignant les criteres qui permettent de controler leur deroulement. Nous centrons au prealable notre attention sur les notions de pertinence en contexte et d'abstraction, qui jouent un role fondamental relativement a la notion d'analogie, mais dont l'interet s'etend a l'intelligence artificielle toute entiere. Nous proposons une formalisation de l'abstraction par relativisation, qui represente une forme particuliere d'abstraction. Ce memoire se termine par la description d'une application qui permet d'exemplifier les principes proposes dans le cadre des analogies de communications a quatre termes
26

Chazal, Gérard. "Le miroir automate : introduction à une philosophie de l'informatique." Dijon, 1993. http://www.theses.fr/1993DIJOL006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En prenant la technique informatique comme image de l'esprit, il s'agit de développer une philosophie de l'analogie, une anthropologie par l'artifice, qui conserve les exigences de rigueur et de rationalité de toute démarche philosophie. On part de la machine logique puisque, fondamentalement, dans son fonctionnement le plus élémentaire comme dans ses réalisations les plus complexes, l'ordinateur hérite des structures logiques qui, depuis Aristote, ont été révélées comme invariants du fonctionnement de l'esprit. Un examen attentif des techniques logiques, des difficultés qui leur sont liées et des implications philosophiques qu'elles comportent, permettra de passer à l'étude des possibilités langagières de la machine. On retrouvera par la place que la question du langage a toujours occupée dans la réflexion philosophique. Enfin, en tentant l'ébauche d'une théorie de l'esprit machine, on verra comment l'informatique induit un prolongement et un renouvellement de l'hylémorphisme aristotélicien, et comment cette discipline ou se réconcilient technique et science, ouvre des voies nouvelles au développement de la conquête rationnelle du monde
Considering computer science as an image of the human mind, we can develop a philosophy by analogy, an anthropology by artifice, which requires the same accuracy and the same rationality, as any thought processes in philosophy. We start from the logic machine since, inherently, in its most elementary operation as in its complex achievements, the computer inherits the logic frames which, from Aristoteles, have been discovered as invariants of the workings of the mind. A close examination of the logic processes, of their difficulties and their philosophical implications, will allow to study the possibilities of the computer in the field of the language. Thus, the language is a genuine philosophical question. At last, trying to outline a theory of the "machine mind", we will see how computer science leads to a continuation and a revival of the Aristotelian hylemorphism. Moreover we will see how this field where science and technic focus on, opens new ways to the expansion of the rational conquest of the world
27

Gouaich, Abdelkader. "Movement, interaction, calculation as primitives for everywhere & anytime computing." Montpellier 2, 2005. http://www.theses.fr/2005MON20101.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente des concepts, modèles et outils pour la construction de systèmes informatiques dans le cadre des services électroniques disponibles partout et n'importe quand ("Everywhere Anytime Computing", AEC). Dans cette thèse nous considérons qu'un cadre de conception et de développement dans le contexte de l'AEC doit répondre aux points suivants : gestion de l'intermittence des communications, la composition des systèmes, le respect de l'autonomie des entités, et l'interopérabilité. Pour répondre aux trois premiers points le modèle algébrique d'infrastructure nommé Mouvement, Interaction, Computation (MIC*) est proposé. L'autonomie des agents est garantie grâce à l'intégrité structurelle. Le modèle d'interaction est persistant ce qui permet de s'affranchir des intermittences du médium de communication. La composition des systèmes est réalisée par la composition des environnements de déploiement. L'interopérabilité est abordée par la coordination. Les protocoles de coordination sont représentés comme des graphes de dépendance. Nous avons présenté le lien formel ainsi que le moyen concret pour valider des séquences de ressources par rapport à un protocole de coordination donné. Finalement, nous proposons un cadre de conception des systèmes informatiques dans le contexte de l'AEC où chaque système est spécifié comme une société artificielle, peuplée d'agents autonomes, ouverte et interopérable avec d'autres sociétés en coordonnant certaines activités. Nous avons pu implémenter et tester nos approches grâce à une plateforme de simulation où un utilisateur peut naviguer à travers un monde virtuel et interagir avec différents services.
28

Guerra, Hernandez Alejandro. "Apprentissage d'agents rationnels BDI dans un univers multi-agents." Paris 13, 2003. http://www.theses.fr/2003PA132020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour objet d'étudier l'apprentissage d'agents rationnels BDI dans un univers Multi-agents. Un agent rationnel peut être défini comme une entité cognitive autonome dotée d'attitudes intentionnelles, e. G. Intentions, désirs, et croyances (BDI). Dans un premier temps, nous étudions les concepts d'agent et de la rationalité pratique permettant aux agents d'induire, à partir de ses attitudes intentionnelles, un comportement dit rationnel. Ces concepts sont formalisés en utilisant une logique BDI multi-modale, nous permettant la spécification et le développement d'une architecture BDI implantée en langage Lisp. L'architecture est opérationnelle et permet l'exécution de plusieurs agents BDI dans un univers Multi-agents ainsi que l'amélioration des capacités de raisonnement épistémologique de chaque agent, en incorporant des capacités de démonstration des théorèmes en premier ordre. Ensuite, nous étudions le problème de l'apprentissage d'agents et nous proposons une hiérarchie des situations d'apprentissage basée sur le degré de conscience qu'ont les agents relativement à la présence des autres agents dans leur univers. Nous utilisons l'induction des arbres de décision du premier ordre, pour permettre aux agents BDI d'apprendre les " raisons " pour former une intention. Ces raisons correspondent, dans notre architecture, aux conditions de déclenchement de plans de l'agent. Cette méthode d'apprentissage est incorporée dans l'architecture BDI proposée, permettant à un agent BDI d'apprendre en étant isolé à partir de sa propre expérience (premier niveau de la hiérarchie proposée) et d'apprendre en communiquant avec d'autres agents partageant son univers (deuxième niveau de notre hiérarchie), profitant ainsi des expériences des autres
The goal of this thesis is to study the issue of rational BDI learning agents, situated in a multi-agent system. A rational agent can be defined as a cognitive entity endowed with intentional attitudes, e. G. , beliefs, desires, and intentions (BDI). First, we study the concepts of agency and practical reasoning, allowing agents to induce from their intentional attitudes, a behavior identified as rational. These concepts are formalized using a multi-modal BDI logic, enabling us to specify and develop a BDI architecture implemented in Lisp. The architecture is fully operational, it allows the execution of multiple BDI agents in a multi-agent system and it improves the epistemic reasoning of each agent introducing first-order theorem proving competences. Then, we study the problem of learning in the agency context and we propose a hierarchy of learning situations based on the awareness of agents about the presence of other agents in the multi-agent system. We use the first-order induction of logical decision trees to enable our BDI agents to learn the "reasons" they have to form an intention. These reasons correspond in the architecture to the trigger conditions of the plans of the agent. This learning method is included in the architecture proposed, allowing BDI agents to learn from their own experience, as if they were isolated (first level of the hierarchy proposed), and communicating with other agents in the Multi-agent System, to profit in this way of the experience of others
29

Pain-Barre, Cyril. "Exploitation d'une théorie de l'action et des tableaux analytiques pour la planification." Aix-Marseille 2, 1999. http://www.theses.fr/1999AIX22079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Chibani, Abdelghani Amirat Yacine. "Intergiciel multi agents orienté web sémantique pour le développement d'applications ubiquitaires sensibles au contexte." Créteil : Université de Paris-Val-de-Marne, 2008. http://doxa.scd.univ-paris12.fr:8080/theses-npd/th0405255.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Thèse de doctorat : Informatique. Intelligence artificielle : Paris 12 : 2006.
Thèse uniquement consultable au sein de l'Université Paris 12 (Intranet). Titre provenant de l'écran-titre. Bibliogr. : 154 réf.
31

Chibani, Abdelghani. "Intergiciel multi agents orienté web sémantique pour le développement d’applications ubiquitaires sensibles au contexte." Paris 12, 2006. http://www.theses.fr/2006PA120068.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Loukil, Zied. "Intégration des ressources en planification temporelle optimale." Artois, 2008. http://www.theses.fr/2008ARTO0402.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous avons pour objectif d’intégrer la gestion des ressources consommables et renouvelables dans la planification temporelle en choisissant comme critère d’optimalité le temps d’exécution totale du plan trouvé. D’un point de vue pratique, nous cherchons à améliorer le planificateur CPT, qui ne gère pas les ressources dans sa version initiale. Nous tenons aussi à conserver les performances initiales de ce planificateur pour résoudre les problèmes de planification temporelle. Pour réaliser ce but nous avons établi un formalisme permettant d’exprimer les contraintes liées aux ressources dans le planificateur CPT. Ce formalisme est en relation étroite avec le formalisme utilisé par ce planificateur pour exprimer les contraintes temporelles. Nous avons proposé deux méthodes différentes pour la gestion des ressources dans le planificateur CPT. La première, basée sur les liens de ressources, exige des contraintes additionnelles pour les ressources qui doivent être respectées. Elle permet de résoudre des problèmes de planification temporelle avec ressources dans des délais très intéressants. La deuxième méthode est basée sur les actions de synchronisation. Elle est moins restrictive que la première méthode et les contraintes qu’elle exige sont moins sévères. Plusieurs règles de propagations des contraintes liées aux ressources ont été introduites avec cette méthode pour accélérer la recherche. Dans beaucoup de cas, cette méthode permet de calculer des plans valides optimaux d’une qualité meilleure que celle de la méthode basée sur les liens de ressources
In this thesis, we aim at introducing the management of consumable and renewable resources in temporal, parallel and domain-independent planning. As an application of our work, our purpose is to improve the temporal parallel planner named CPT which is not able to manage resources in its original version. In addition, we want to preserve all the original performances of this planner on temporal planning problems. We focus on the total duration of the plan as the optimization criterion. To express resource constrains, we develop a resource-based formalism in relation of the mutual-exclusion-based one introduced by Smith and Weld and used by the CPT planner to express temporal constraints. We propose two different methods to manage resources in the CPT planner: The first one, based on resource links, requires additional resource constraints which must be respected and can resolve temporal planning problems under resources within remarkable search delays. The second one is based on synchronization actions; it is less restrictive than the first method but it requires many additional propagation rules to speed up the search process. In many cases, the synchronization actions-based method finds temporal optimal parallel plans with better quality than the ones found by the resource links-based method
33

Jullien, Christian. "Le-cool : un langage orienté objet à héritage multiple permettant la manipulation des concepts et des données en intelligence artificielle." Paris 6, 1986. http://www.theses.fr/1986PA066264.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Après un bref aperçu des techniques employées, les caractéristiques de la programmation orientée objet sont exposées. Les nouvelles structures de contrôle sont abordées, ainsi que la gestion des liens collatéraux. Quelques exemples d'application sont présentés.
34

Chebili, Mourad. "Une interface intelligente d'assistance à l'utilisation d'un système d'exploitation." Paris 8, 2000. http://www.theses.fr/2000PA081858.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L' @expansion des Interfaces Utilisateurs Graphiques (IUG) a été rapidement accélérée par la standardisation des systèmes de fenêtrage. Grâce à cette révolution incontournable des IHM, il semble utile et fondamental d'orienter et d'appliquer cette technologie au coeur de la machine : le Système d'Exploitation ou SE. Lors de ce travail, nous justifions la particularité des Interfaces Utlisateurs des SE et nous tentons de démasquer les problèmes actuels de celles-ci. D'autre part, nous tentons de démontrer l'interêt de faire participer activement l'IUSE dans l'Interaction Homme-Machine par le biais d'une intelligence exploitant la technologie des agents activés pour s'adapter aux besoins des utilisateurs. Dans ce cadre, nous proposons d'étudier et de formaliser une architecture intelligente favorisant la décomposition de la tâche. Cela permet la réduction de la complexité et la spécialisation des agents. . . .
35

Bessant, Brigitte. "Contributions aux techniques de révision de croyances en intelligence artificielle : aspects sémantiques et calculatoires." Artois, 1999. http://www.theses.fr/1999ARTO0402.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se situe dans le cadre de la modélisation et de la simulation des raisonnements de sens commun, un des domaines majeurs de l'intelligence artificielle. Certaines formes de raisonnement de la vie quotidienne ont une propriété dite de non-monotonie. Les conclusions jusqu'ici inférées peuvent être remises en cause par l'ajout de nouvelles prémisses. Les logiques non monotones et la théorie du changement d'état cognitif forment la base de nos travaux de recherche. Dans la première partie, nous apportons notre contribution à l'étude des relations que l'on peut établir entre les inférences abductive et inductive par une caractérisation unificatrice. Nous dégageons quelques principales caractéristiques de ces deux formes de raisonnement. Dans la deuxième partie, nous étudions les différences qui existent entre les notions proches de révision et de mise a jour. Puis nous décrivons la révision itérée avec sémantique des distances qui constitue le cadre de notre approche de la révision au niveau sémantique. Nous caractérisons une fonction dite de degré de confiance et nous montrons un théorème de représentation de cette fonction par une distance. Ce travail poursuit un autre objectif qui vise à relier l'abduction et la révision avec sémantique des distances. Dans la troisième partie, nous adoptons un point de vue pratique vis-à-vis du problème de la révision itérée de croyances. Nous proposons un nouvel algorithme de révision efficace fondé sur des techniques de recherche locale. L'originalité de cette stratégie de révision se situe principalement au niveau de deux points qui sont la coopération d'une logique non monotone et d'une technique de révision de croyances ainsi que l'affaiblissement des croyances au lieu de leur destruction pour le rétablissement de la cohérence. L'efficacité de cet algorithme est très compétitive sur de grandes bases de croyances propositionnelles. Enfin, notre dernière contribution se situe dans une approche originale pour réviser des bases de croyances stratifiées soumises a un pré-ordre de préférence.
36

Osmani, Aomar. "Diagnostic de pannes dans les réseaux : approche à base de modèles et raisonnement temporel." Paris 13, 1999. http://www.theses.fr/1999PA132044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse se situe dans le cadre de la construction d'un système d'aide à la supervision de réseaux de télécommunications qui soit à la fois efficace et générique. L'architecture proposée pour cela par le projet GASPAR comporte une approche à base de modèles pour générer automatiquement un système de supervision à base de règles. Nous nous sommes intéressé principalement à la modélisation et à la simulation du comportement du réseau. Nous avons amélioré quelques aspects de la modélisation utilisée et propose des algorithmes permettant de réduire l'explosion combinatoire due à l'incertitude sur l'ordre des événements. Nous avons mis en oeuvre ces analyses dans notre logiciel AUTMODSIM. Nous avons également introduit une approche d'apprentissage à partir d'exemples utilisant le formalisme d'intervalles généralisés. Nous avons accordé une grande importance dans notre travail à la gestion des informations temporelles. D'abord, dans le cadre du projet GASPAR, où nous avons proposé des algorithmes de simulation prenant en compte les informations temporelles imprécises. Puis, dans un cadre plus général du raisonnement sur le temps utilisant les techniques de satisfaction de contraintes où nous avons proposé deux formalismes : le raisonnement sur les intervalles généralisés et le raisonnement sur les intervalles décrits sur un cercle.
37

Fouladi, Karan. "Recommandation multidimensionnelle d’émissions télévisées par apprentissage : Une interface de visualisation intelligente pour la télévision numérique." Paris 6, 2013. http://www.theses.fr/2013PA066040.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet central de cette thèse est l’élaboration d’un Système de Recommandation interfacé par une cartographie interactive des contenus télévisés. Ce système fut réalisé dans le cadre du projet ANR, nommé BUIS, durant la période 2006-2009. Pour ce faire, nous avons choisi d’utiliser un Système de Recommandation basé sur le contenu et l��avons adapté au domaine télévisuel. Cette adaptation s’est effectuée lors de plusieurs étapes spécifiques. Nous avons particulièrement travaillé le traitement des métadonnées associées aux contenus télévisés, en développant un système expert capable de nous fournir une catégorisation inédite des émissions télévisées. Nous avons également pris l’initiative de modéliser et d’intégrer le contexte d’usage télévisuel dans notre modélisation d’environnement télévisuel. L’intégration du contexte nous a permis d’obtenir une représentation suffisamment fine et stable de cet environnement, nous permettant ainsi la mise en place de notre système de recommandation. La catégorisation approfondie des métadonnées associées aux contenus télévisuels et la modélisation & l’intégration du contexte d’usage télévisuel constituent la contribution principale de cette thèse. Pour évaluer/améliorer nos développements, nous avons installé un parc de neuf foyers repartis selon trois types spécifiques de familles. Cela nous a donné les moyens d’évaluer l’apport de nos travaux au confort d’usage télévisuel dans de réelles conditions d’utilisation. Par une approche implicite, nous avons appréhendé le comportement télévisuel des familles (impliquées dans notre projet) vis-à-vis des contenus télévisés. Un analyseur syntaxico-sémantique nous a fourni une mesure graduelle d’intérêts portés aux contenus, et ce pour chaque famille. Notre système de recommandation, basé sur le contenu et assisté par apprentissage (notamment l’apprentissage par renforcement), nous a fourni des résultats parmi les plus optimaux de la communauté scientifique du domaine. Il est à préciser que nous avons également élaboré une interface cartographique interactive basée sur l’idée d’ « île de mémoire » pour que l’interfaçage interactif soit en adéquation avec le Système de Recommandation mis en place
Due to the wealth of entertainment contents provided by Digital Mass Media and in particular by Digital Television (satellite, cable, terrestrial or IP), choosing a program has become more and more difficult. Far from having a user-friendly environment, Digital Television (DTV) users face a huge choice of content, assisted only by off-putting interfaces named classical "Electronic Program Guide" EPG. That makes users' attention blurry and decreases their active program searching and choice. The central topic of this thesis is the development of a Recommendation System interfaced mapping interactive TV content. To do this, we chose to use a Recommendation System based on the content and have adapted to the field of television. This adaptation is carried out at several specific steps. We especially worked processing metadata associated with television content and developing an expert system can provide us with a unique categorization of television. We also took the initiative to model and integrate the context of use in our television viewing environment modeling. The integration of context allowed us to obtain a sufficiently fine and stable in this environment, allowing us to implementing our recommendation system. Detailed categorization of metadata associated with television content and modeling & integration of context of use television is the main contribution of this thesis. To assess / improve our developments, we installed a fleet of nine homes left in three specific types of families. This has given us the means to assess the contribution of our work in ease of use television in real conditions of use. By an implicit approach, we apprehended the behavior of television families (involved in our project) vis-à-vis television content. A syntactic-semantic analyzer has provided a measure of gradual interest thereon to the content, for each family. We have also developed an interactive mapping interface based on the idea of "Island of memory" for the interactive interface is in line with Recommendation System in place. Our recommendation system based on content and assisted learning (reinforcement learning), has provided us with the most optimal results to the scientific community in the field
38

El, Falou Mohamad. "Contributions à la composition dynamique de services fondée sur des techniques de planification et diagnostic multi-agents." Caen, 2010. http://www.theses.fr/2010CAEN2015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur le problème de la composition de service. Nous nous focalisons sur les travaux qui utilisent les techniques de planification et nous proposons deux approches qui permettent de surmonter quelques limites des approches existantes. La première approche propose deux algorithmes centralisés fondés respectivement sur Tree-seach et Graphplan. Ces algorithmes n'assurent pas le passage à l'échelle à cause de leurs complexités exponentielles. Dans la seconde approche, cette limite est dépassée en proposant une architecture de planification multi-agents où chaque Web service est défini par un groupe de services et est considéré comme un agent. Les agents se coordonnent en fusionnant leurs meilleurs plans partiels qui permettent de répondre partiellement à une requête. Cette procédure est répétée jusqu'à atteindre le but en utilisant une fonction heuristique locale. Cette approche est ensuite étendue par des heuristiques globales pour assurer sa complétude si les sous-problèmes assignés aux agents sont dépendants. L’heuristique globale d'évaluation du meilleur plan local partiel permet d'éviter les puits en considérant les plans locaux intermédiaires proposés par d'autres agents. L'étude de la complexité des approches décentralisées montre qu'elles sont polynômiales, et les résultats expérimentaux montrent qu'elles sont capables d'assurer le passage à l'échelle pour des problèmes complexes. Enfin, une architecture d'agent de composition auto-guérissant est développée. Cette architecture vise une réelle intégration entre les processus de composition, de diagnostic actif, et de réparation en un seul processus de planification
This thesis addresses the problem of service composition. We focus on the use of planning techniques and we introduce two different approaches that overcome some limitations of the existing approaches. The first approach has two centralized algorithms based respectively on Tree-seach and Graphplan. These algorithms do not scale up well due to their exponential complexity. In the second approach, we overcome this limitation by proposing a multi-agents planning architecture where each web service defined by a set of services and is considered as an agent. The agents are coordinated by merging their best partial plan that answer partially to a request. This coordination procedure is repeated iteratively until reaching the goal using a local heuristic function. This approach is then extended by a global heuristics to ensure its completeness if the sub-problems assigned to the agents are dependent. This global heuristic of evaluating the best local plan avoids the wells by considering the intermediate local plans offered by other agents. The study of the complexity of decentralized approaches shows that they are polynomial, and experimental results show that they are able to scale up well for complex problems. Finally, a self-healing services composition agent-based architecture is developed. This architecture is a real integration between the processes of composition, active dignosis, and repair into one planning process
39

Fahlaoui, Ouafae. "Système expert de génération automatique de Grafcet à partir d'une spécification lexicale libre du cahier des charges." Paris 11, 1987. http://www.theses.fr/1987PA112204.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le système wab constitue une bonne application de l'intelligence artificielle à la conception des automatismes logiques. Il permet la traduction du cahier de charges rédigé en langage libre en un outil de description normalisé: le grafcet. Il est conçu suivant une structure de système expert : l'interface de communication homme/machine ; la base des connaissances; le mécanisme de raisonnement. Les performances du système wab pourraient être améliorés par l'utilisation de versions récentes de prolog.
40

Rifi, Omar. "Mise-à-jour des bases de croyances logiques et changement minimal." Toulouse 3, 2000. http://www.theses.fr/2000TOU30082.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette étude nous examinons les différents opérateurs de mise-à-jour des bases de croyances de la littérature. Dans un premier temps, nous introduisons trois nouveaux opérateurs pour répondre aux critiques faites (dans la littérature et par nous-même) à certains de ces opérateurs. Nous caractérisons complètement les opérateurs existant et ceux précédemment définis. Nous comparons alors leur force et leur complexité. Nous évaluons ensuite ces opérateurs par rapport aux postulats proposés par Katsuno et Mendelzon. Il apparaît que la plupart de ces opérateurs violent la majorité de ces postulats. Nous démontrons alors que tous les postulats violés sont indésirables sauf un. Dans un second temps, nous évaluons les opérateurs de mise-à-jour par rapport à une propriété qui a été examinée largement dans la littérature : la mise à jour des bases de croyances par une disjonction ne doit pas être identifiée à la mise-à-jour par la disjonction exclusive. Etant donnée l'importance de cette propriété, nous montrons qu'elle est contradictoire avec certains postulats, donnant ainsi un argument de plus pour le rejet de ces postulats. Finalement, nous étudions comment les différentes approches s'adaptent pour traiter les contraintes d'intégrités. Nous concluons que seulement deux approches sont satisfaisantes.
41

Wang, Dong Hue. "Systèmes multi-agents adaptatifs avec contraintes temps-réel : De la spécification formelle à la vérification et à la génération de code." Evry-Val d'Essonne, 2005. http://www.theses.fr/2005EVRY0011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conception de systèmes réactifs répond à des impératifs de correction logique (le système fait ce qu'il doit) et de correction temporelle (le système se conforme à un ensemble de contraintes temporelles). Nous proposons dans cet article une approche globale de conception de systèmes réactifs adaptatifs, c'est à dire adaptant dynamiquement leur architecture en fonction du contexte. Pour représenter le comportement des agents composant le système, nous utilisons le formalisme des automates temporisés, ce qui permet d'évaluer à priori les propriétés du système (en termes de correction logique et temporelle), grâce à des techniques de model-checking et de simulation. Des outils de génération automatique de code, que nous avons développés, nous permettent ensuite de produire rapidement, à partir du modèle, un prototype multi-agents opérationnel qui satisfait les mêmes propriétés
The design of reactive systems must comply with logical correctness (the system does what it supposed to do) and timeliness (the system has to satisfy a set of temporal constraints) criteria. In this paper, we propose a global approach for the design of adaptative reactive systems, i. E. Systems that dynamically adapt their architecture depending on the context. We use the timed automata formalism for the design of the agents' behaviour. This allows evaluating beforehand the properties of the system (regarding logical correctiness and timeliness), thanks to model-checking and simulation techniques. This model is enhanced to tools that we developed for the automatic generation of code, allowing to produce very quickly a running multi-agent prototype satisfying the properties of model
42

Joutel, Guillaume. "Analyse multirésolution des images de documents manuscrits : application à l'analyse de l'écriture." Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0045/these.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les images de traits, et plus spécifiquement les images d'écritures manuscrites, ont des contenus souvent hétérogènes et nécessitent des méthodes spécifiques d'analyse pour être exploitées. Dans cette thèse, nous proposons la mise au point d'une approche de caractérisation des écritures manuscrites basée sur la transformée en ondelettes géométriques non-adaptatives que sont les Curvelets. Nous validons cette caractérisation dans différents cadres applicatifs de l'analyse d'images de documents. Les Curvelets ont été choisies pour leur propriété de bonne localisation des objets anisotropes et leur analyse directionnelle multi-échelle. Elles permettent l'extraction de deux primitives essentielles des écritures que sont l'orientation et la courbure à des niveaux d'échelles variables. Ces primitives sont rassemblées dans une matrice d'occurrences pour constituer la signature d'une écriture. Cette dernière est utilisée comme vecteur de caractéristiques dans une application de recherche d'images par le contenu. Nous proposons également une évaluation de la similarité locale entre formes plus petites, quelles qu'elles soient, où seule la primitive orientation est utilisée. Enfin, dans le cadre d'une spécialisation de notre méthode au corpus d'images fournies par le projet ANR Graphem, nous proposons la définition d'un indice de similarité, produite à partir d'échanges entre les partenaires de ce projet, qui tente de tirer partie des propriétés communes des écritures tout en essayant de prendre en compte leurs différences et leurs spécificités. Cette prise en compte, pondérable par l'utilisateur, permet une exploitation avancée des écritures du Moyen-Age
Images of strokes, especially handwriting documents images, are often composed of heterogeneous contents and require specific methods of analysis to be exploited. In this thesis, we propose the development of a characterization of handwritings based on a non-adaptive geometrical wavelet transform which is the Curvelets transform. We validate this characterization in different application frameworks of document images analysis. The Curvelets were chosen for their property of good localization of anisotropic objects and their directional multi-scale analysis. We can extract from those two essential primitives which are orientation and curvature at varying levels of scales. These primitives are gathered in a matrix of occurrences to form the signature of a handwriting. The latter is used as a features' vector in an content based image retrieval application. We also propose an evaluation of local similarity between the smaller forms, whatever they are, where the only primitive used is orientation. Finally, as part of a specialization of our method to the corpus of images provided by the ANR project Graphem, we propose the definition of a similarity index, generated from trade between partners in this project, which attempts to use common properties of handwritings while trying to address their differences and their characteristics. This consideration, weighted by the user, allows an advanced exploitation of medieval handwritings
43

Dugerdil, Philippe. "Contribution à l'étude de la représentation des connaissances fondées sur les objets : le langage OBJLOG." Aix-Marseille 2, 1988. http://www.theses.fr/1988AIX22057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Etude et implantation d'un langage de representation de connaissances au-dessus de prolog, alliant les avantages des langages orientes objets, du modele de representation centre objets et de la programmation en logique. Ce langage possede les mecanismes d'heritage: vertical et selectif multiples avec "points de vue
44

Romdhane, Lofti Ben. "Computational networks & competition-based models : solving complex causal interactions." Sherbrooke : Université de Sherbrooke, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
45

Panaïotis, Thelma. "Distribution du plancton à diverses échelles : apport de l'intelligence artificielle pour l'écologie planctonique." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS155.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En tant que base des réseaux trophiques océaniques et élément clé de la pompe à carbone biologique, les organismes planctoniques jouent un rôle majeur dans les océans. Cependant, leur distribution à petite échelle, régie par les interactions biotiques entre organismes et les interactions avec les propriétés physico-chimiques des masses d'eau de leur environnement immédiat, est mal décrite in situ, en raison du manque d'outils d'observation adaptés. De nouveaux instruments d'imagerie in situ à haute résolution, combinés à des algorithmes d'apprentissage automatique pour traiter la grande quantité de données collectées, nous permettent aujourd'hui d'aborder ces échelles. La première partie de ce travail se concentre sur le développement méthodologique de deux pipelines automatisés basés sur l'intelligence artificielle. Ces pipelines ont permis de détecter efficacement les organismes planctoniques au sein des images brutes, et de les classer en catégories taxonomiques ou morphologiques. Dans une deuxième partie, des outils d'écologie numérique ont été appliqués pour étudier la distribution du plancton à différentes échelles, en utilisant trois jeux de données d'imagerie in situ. Tout d'abord, nous avons mis en évidence un lien entre les communautés planctoniques et les conditions environnementales à l'échelle globale. Ensuite, nous avons décrit la distribution du plancton et des particules à travers un front de méso-échelle, et mis en évidence des périodes contrastées pendant le bloom de printemps. Enfin, grâce aux données d'imagerie in situ à haute fréquence, nous avons étudié la distribution à fine échelle et la position préférentielle d’organismes appartement au groupe des Rhizaria, des protistes fragiles et peu étudiés, dont certains sont mixotrophes. Dans l’ensemble, ce travail démontre l'efficacité de l'imagerie in situ combinée à des approches d’intelligence artificielle pour comprendre les interactions biophysiques dans le plancton et les conséquences sur sa distribution à petite échelle
As the basis of oceanic food webs and a key component of the biological carbon pump, planktonic organisms play major roles in the oceans. However, their small-scale distribution − governed by biotic interactions between organisms and interactions with the physico-chemical properties of the water masses in their immediate environment − are poorly described in situ due to the lack of suitable observation tools. New instruments performing high resolution imaging in situ in combination with machine learning algorithms to process the large amount of collected data now allows us to address these scales. The first part of this work focuses on the methodological development of two automated pipelines based on artificial intelligence. These pipelines allowed to efficiently detect planktonic organisms within raw images, and classify them into taxonomical or morphological categories. Then, in a second part, numerical ecology tools have been applied to study plankton distribution at different scales, using three different in situ imaging datasets. First, we investigated the link between plankton community and environmental conditions at the global scale. Then, we resolved plankton and particle distribution across a mesoscale front, and highlighted contrasted periods during the spring bloom. Finally, leveraging high frequency in situ imaging data, we investigated the fine-scale distribution and preferential position of Rhizaria, a group of understudied, fragile protists, some of which are mixotrophic. Overall, these studies demonstrate the effectiveness of in situ imaging combined with artificial intelligence to understand biophysical interactions in plankton and distribution patterns at small-scale
46

Daix, Boris. "Abstraction des systèmes informatiques à haute performance pour l'automatisation du déploiement d'applications dynamiques." Rennes 1, 2009. http://www.theses.fr/2009REN1S156.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'informatique est un formidable levier du développement humain, cependant l'utilisation de systèmes à haute performance reste complexe. En effet, allouer des ressources pour une application, l'installer sur les ressources allouées, et l'exécuter est un processus difficile. Automatiser ce processus, appelé déploiement, permet de mieux séparer les préoccupations des utilisateurs de systèmes, des développeurs d'applications, et des administrateurs d'infrastructures tout en visant de meilleures performances pour les applications. Fondée sur un modèle d'abstraction multi-niveau, la contribution de cette thèse est une architecture de déploiement automatique capable de respecter les contraintes de compatibilité et de faisabilité, inhérentes au déploiement, pour des ressources et des applications parallèles et réparties, hétérogènes, et dynamiques telles que des grappes ou des grilles de calcul et des applications paramétriques, parallèles, ou en flot de travail
Computing is an important lever in human development, however using high performance systems remains complex. Indeed, allocating some resources for an application, installing it on the allocated resources, and executing it is a difficult process. Automating this process, called deployment, allows to better separate the concerns of the system users, of the application developers, and of the infrastructure administrators while aiming at better performances for the applications. Based on a multi-level abstraction model, the contribution of this thesis is an automatic deployment architecture able to honor the compatibility and feasibility constraints, inhere in the deployment, for resources and applications parallel and distributed, heterogeneous, and dynamic such as computing clusters or grids and parametric, parallel, or workflow applications
47

Siboni, Didier. "La gestion de service sur les réseaux hétérogènes interconnectes : utilisation des techniques d'intelligence artificielle et architectures hybrides." Versailles-St Quentin en Yvelines, 1997. http://www.theses.fr/1997VERS0005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexité toujours croissante des réseaux de communication interconnectes rend leur gestion de plus en plus complexe. Les systèmes experts ont été largement utilises pour résoudre ce type de problèmes mais ont montré leur limite pour prendre en compte les évolutions des configurations des réseaux et l'expertise souvent trop pauvre caractérisant ce domaine d'application. Nous proposons, dans cette thèse, un système intelligent et intègré de gestion des fautes utilisant de façon coopérative, les techniques d'apprentissages que sont les réseaux de neurones et le raisonnement est partir de cas et les systèmes experts. Nous proposons une articulation globale du processus de gestion des fautes en trois grandes étapes, regroupants des fonctions de gestions spécialisées: la détection de problèmes nécessitant les fonctions de filtrage et de diagnostic de problèmes de type fautes ou performances. La mesure de l'impact des problèmes sur la qualité de service nécessitant une modélisation de la qualité de service au niveau des différents services rendus par les éléments constitutifs des chaînes de liaison. La résolution des problèmes au moyen de fonctions de reconfigurations et reallocations de ressources, de maintenance curative et préventive, et de gestion d'historique de problème ou gestion de tickets d'incidents. Nous étudions les différentes techniques de l'intelligence artificielle intervenant dans le processus de gestion des fautes, comme les systèmes experts à base de modèles, les réseaux de neurones, le raisonnement est partir de cas. Nous établissons une correspondance entre les différentes étapes et les techniques d'intelligence artificielle, afin de proposer une architecture modulaire, bâtie au-dessus d'une plate-forme ouverte de gestion de réseaux. Un prototype opérationnel de corrélation d'alarmes utilisant la technique de système expert à base de modèles a été développé et intégré à la plate-forme hp openview. Un prototype correspondant au module de filtrage utilisant la technique de réseau de neurone a été développé et expérimenté de manière positive sur des données réelles. Un module de qualification et de correction de problème utilisant la technique d'apprentissage de raisonnement à partir de cas sur une base de tickets d'incident a été étudié
48

Potiron, Katia. "Systèmes multi-agents et tolérance aux fautes : conséquences de l'autonomie des agents." Paris 6, 2010. http://www.theses.fr/2010PA066656.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes informatiques sont composés d'entités de plus en plus nombreuses et complexes. La centralisation de leurs décisions et de leur surveillance devient difficile, rendant plus complexe la garantie de la sûreté de fonctionnement. Dans ce cadre, il est envisagé de rendre les entités constituant le système plus autonomes et adaptables. Cependant, les applications de grande envergure dans le domaine de l'autonomie restent compliquées à mettre en place et souffrent d'un manque de confiance. Ces constatations nous ont menés vers les Systèmes Multi-Agents (SMA) qui s'intéressent aux problèmes d'autonomie et de contrôle décentralisé. Dans des systèmes informatiques traditionnels, le manque de confiance est traité à travers l'utilisation de divers techniques dont la tolérance aux fautes qui regroupe des moyens d'obtenir un système remplissant sa fonction en présence de fautes. L'application de ces techniques aux systèmes autonomes n'est cependant pas triviale. Et cette thèse a pour but de cerner les difficultés et apports introduits par l'autonomie des agents. Elle propose, de plus, d'étudier l'apport et la transposition des techniques de tolérance aux fautes des systèmes répartis aux SMA. Cette transposition est compliquée par les spécificités des SMA et les techniques de tolérance aux fautes classiques s'avèrent d'une aide limitée pour prendre en compte l'autonomie des agents.
49

Fabien, Aratbi-Perrot. "Diagnostic et suivi d'état embarqués -- Une étude algorithmique." Phd thesis, Université Paul Sabatier - Toulouse III, 2011. http://tel.archives-ouvertes.fr/tel-00864629.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La problématique de cette thèse a été d'étudier les systèmes pouvant (se) diagnostiquer en vue de (se) reconfigurer dans le contexte de l'amélioration de l'autonomie des systèmes spatiaux. Pour cela, nous nous sommes intéressés aux agents fondés sur un modèle du système, concept étudié en Intelligence Artificielle. Nous avons utilisé ce concept dans un but de suivi d'état, tout en prenant en compte les défauts pouvant affecter le système, effectuant ainsi la tâche de diagnostic dynamique. Pour cela, les aspects concernant les défauts du système ont été intégrés dans le modèle. Le suivi d'état est la tâche qui met à jour un état de croyance concernant le système. Nous l'avons analysé sous un angle algorithmique dans le but de répondre aux contraintes de faibles ressources de calcul présentes à bord des systèmes spatiaux. Nous avons étudié les algorithmes de suivi qui opèrent sur des modèles logiques, tels que ceux écrits en logique propositionnelle ou dans le langage des réseaux de contraintes, et sur des modèles probabilistes, tels que les réseaux Bayésiens dynamiques. Cette étude a permis de cibler le phénomène d'enchevêtrement qui rend exponentiel la représentation de l'état de croyance. Notre contribution consiste à proposer une approche algorithmique qui utilise un algorithme de recherche en profondeur d'abord dans un espace de recherche Et/Ou. Dans cet espace, le phénomène d'enchevêtrement a pu être analysé sous un nouvel angle. Nous avons proposé une solution au phénomène d'enchevêtrement en définissant, sous la forme de trois règles de calcul, un système cohérent et complet dans la théorie des ensembles. Nous avons ensuite défini des structures de données servant de représentation compacte de l'état de croyance. Ces structures de données sont appelées arbres symboliques. Nous concluons par une généralisation et des perspectives dans le domaine algorithmique et les mathématiques.
50

Adnan, Hashmi Muhammad. "Un langage de programmation agent intégrant la planification temporelle et les mécanismes de coordination de plans." Paris 6, 2012. http://www.theses.fr/2012PA066312.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography