Auswahl der wissenschaftlichen Literatur zum Thema „Reasonning“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Reasonning" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Reasonning"

1

Bénatouïl, Thomas. „Épictète et la doctrine des indifférents et du telos d’Ariston à Panétius“. Elenchos 40, Nr. 1 (06.08.2019): 99–121. http://dx.doi.org/10.1515/elen-2019-0004.

Der volle Inhalt der Quelle
Annotation:
AbstractWhile Epictetus’ Diatribai are not an ethical treatise, but aim chiefly at urging and training pupils to practice philosophy, they can also be used to reconstruct Epictetus’ positions about some of the questions raised within the Stoa after Zeno. This paper focuses on the problem of the contribution of indifferent (external or bodily) things to happiness and of the relationship between virtue and these indifferents. Against scholars claiming that Epictetus shared Aristo of Chios’ heterodox indifferentism, it is shown that Epictetus upholds Chrysippus’ ethical doctrine of the telos and acknowledges that some indifferents are natural or have ‘value’ (axia) and should not be despised or ignored. In making this point, Epictetus uses the concept of ‘good reasonning’ about value which can be traced back to Diogenes of Seleucia (and Antipater of Tarsus). Moreover, when he describes how we can reach the goal of life through our natural faculties, Epictetus might also borrow Panetius’ explanation of the telos.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Nihad, El Ghouch, Kouissi Mohamed und En-Naimi El Mokhtar. „Designing and modeling of a multi-agent adaptive learning system (MAALS) using incremental hybrid case-based reasoning (IHCBR)“. International Journal of Electrical and Computer Engineering (IJECE) 10, Nr. 2 (01.04.2020): 1980. http://dx.doi.org/10.11591/ijece.v10i2.pp1980-1992.

Der volle Inhalt der Quelle
Annotation:
Several researches in the field of adaptive learning systems has developed systems and techniques to guide the learner and reduce cognitive overload, making learning adaptation essential to better understand preferences, the constraints and learning habits of the learner. Thus, it is particularly advisable to propose online learning systems that are able to collect and detect information describing the learning process in an automatic and deductive way, and to rely on this information to follow the learner in real time and offer him training according to his dynamic learning pace. This article proposes a multi-agent adaptive learning system to make a real decision based on a current learning situation. This decision will be made by performing a hypride cycle of the Case-Based Reasonning approach in order to follow the learner and provide him with an individualized learning path according to Felder Silverman learning style model and his learning traces to predict his future learning status. To ensure this decision, we assign at each stage of the Incremental Hybrid Case-Based Reasoning at least one active agent performing a particular task and a broker agent that collaborates between the different agents in the system.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Molitor, Christian. „Zur Frage der realwirtschaftlichen Konvergenz in der Europäischen Union“. Zeitschrift für Wirtschaftspolitik 46, Nr. 3 (01.01.1997). http://dx.doi.org/10.1515/zfwp-1997-0306.

Der volle Inhalt der Quelle
Annotation:
AbstractThe paper examines theoretical and empirical aspects of convergence in the European Union. Whether the European economies will converge in the future or not, cannot be determined by theoretical reasonning. Neoclassical models predict convergence, endogenous growth models and new regional economics allow for divergence. However, the empirical results for the EU suggest slow (absolute) convergence between the national economies in the past. The economies seem to belong to the same “convergence-club”. The autonomous role of wage policy for the convergence process - somewhat neglected in most theoretical models - as well as some policy implications of the results are also discussed.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Reasonning"

1

Hashem, Hadi. „Modélisation intégratrice du traitement BigData“. Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLL005/document.

Der volle Inhalt der Quelle
Annotation:
Dans le monde d’aujourd’hui de multiples acteurs de la technologie numérique produisent des quantités infinies de données. Capteurs, réseaux sociaux ou e-commerce, ils génèrent tous de l’information qui s’incrémente en temps-réel selon les 3 V de Gartner : en Volume, en Vitesse et en Variabilité. Afin d’exploiter efficacement et durablement ces données, il est important de respecter la dynamicité de leur évolution chronologique au moyen de deux approches : le polymorphisme d’une part, au moyen d’un modèle dynamique capable de supporter le changement de type à chaque instant sans failles de traitement ; d’autre part le support de la volatilité par un modèle intelligent prenant en compte des données clé seulement interprétables à un instant « t », au lieu de traiter toute la volumétrie des données actuelle et historique.L’objectif premier de cette étude est de pouvoir établir au moyen de ces approches une vision intégratrice du cycle de vie des données qui s’établit selon 3 étapes, (1) la synthèse des données via la sélection des valeurs-clés des micro-données acquises par les différents opérateurs au niveau de la source, (2) la fusion en faisant le tri des valeurs-clés sélectionnées et les dupliquant suivant un aspect de dé-normalisation afin d’obtenir un traitement plus rapide des données et (3) la transformation en un format particulier de carte de cartes de cartes, via Hadoop dans le processus classique de MapReduce afin d’obtenir un graphe défini dans la couche applicative.Cette réflexion est en outre soutenue par un prototype logiciel mettant en oeuvre les opérateurs de modélisation sus-décrits et aboutissant à une boîte à outils de modélisation comparable à un AGL et, permettant une mise en place assistée d'un ou plusieurs traitements sur BigData
Nowadays, multiple actors of Internet technology are producing very large amounts of data. Sensors, social media or e-commerce, all generate real-time extending information based on the 3 Vs of Gartner: Volume, Velocity and Variety. In order to efficiently exploit this data, it is important to keep track of the dynamic aspect of their chronological evolution by means of two main approaches: the polymorphism, a dynamic model able to support type changes every second with a successful processing and second, the support of data volatility by means of an intelligent model taking in consideration key-data, salient and valuable at a specific moment without processing all volumes of history and up to date data.The primary goal of this study is to establish, based on these approaches, an integrative vision of data life cycle set on 3 steps, (1) data synthesis by selecting key-values of micro-data acquired by different data source operators, (2) data fusion by sorting and duplicating the selected key-values based on a de-normalization aspect in order to get a faster processing of data and (3) the data transformation into a specific format of map of maps of maps, via Hadoop in the standard MapReduce process, in order to define the related graph in applicative layer.In addition, this study is supported by a software prototype using the already described modeling tools, as a toolbox compared to an automatic programming software and allowing to create a customized processing chain of BigData
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Yang, Hui. „Knowledge extraction from large ontologies“. Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG033.

Der volle Inhalt der Quelle
Annotation:
Parce que les ontologies du monde réel, largement utilisées en pratique, sont souvent complexes et très volumineuses, concevoir des outils permettant aux utilisateurs de se concentrer sur des sous-ontologies correspondant à leurs centres d'intérêts est devenu un défi majeur. Dans ce contexte, ce travail étudie trois approches différentes pour extraire des connaissances à partir de grandes ontologies : (1) Les justifications qui sont des sous-ontologies minimales de l'ontologie d'origine permettant de dériver une conclusion spécifique ; (2) Les modules déductifs qui sont des sous-ontologies de l'ontologie d'origine et qui préservent toutes les implications relatives à un vocabulaire donné, ce vocabulaire traduisant l'intérêt de l'utilisateur ; et (3) Modules généraux qui sont de nouvelles ontologies (pas nécessairement des sous-ontologies) dont l'ensemble des implications relatives à un vocabulaire donné est identique à celui de l'ontologie d'origine. Pour le calcul de justifications et de modules déductifs, cette thèse propose de nouvelles méthodes basées sur la résolution. Ce sont des méthodes qui procèdent en deux étapes : (i) le codage de la dérivation des justifications, resp. des modules déductifs sous forme de clauses Horn ; (ii) le calcul des justifications, resp. des modules déductifs, par résolution sur les clauses de Horn obtenues. Pour encoder la dérivation des justifications, nous exploitons une représentation par graphe des ontologies et introduisons un système de règles d'inférence qui sont plus compactes que les règles des systèmes connus. Pour coder la dérivation des modules déductifs, nous introduisons une nouvelle notion, appelée forêt, qui est une représentation par graphe qui quant à elle capture toutes les implications logiques relatives à un vocabulaire donné. Pour le calcul des modules généraux, nous étudions une nouvelle méthode basée sur la résolution, inspirée de l'approche existante pour le calcul des interpolants uniformes. Cette méthode est, en général, plus efficace et produit des ontologies de meilleure qualité. Enfin, dans cette thèse, toutes nos approches sont évaluées en implémentant des prototypes qui servent à tester des ontologies du monde réel de grande taille. Les résultats expérimentaux sont comparés avec ceux des méthodes existantes les plus efficaces et permettent de valider l'efficacité et la qualité de nos méthodes
Because widely used real-world ontologies are often complex and large, one crucial challenge has emerged: designing tools for users to focus on sub-ontologies corresponding to their specific interests. To this end, this work investigates three different approaches for extracting knowledge from large ontologies: (1) Justification, a minimal sub-ontology of the original ontology that derives a specific conclusion; (2) Deductive module, a sub-ontology that preserves all entailments wrt a given vocabulary capturing the user interest; and (3) General module, a new ontology not necessarily a sub-ontology, that ensures to perform the same set of entailments as the original one over a given vocabulary. For computing justifications and deductive modules, we propose SAT-based methods that are conducted in two steps: (i) encoding the derivation of justifications (resp. deductive modules) as Horn-clauses; (ii) computing justifications (resp. deductive modules) by resolution over these Horn-clauses. For encoding the derivation of justifications, we construct a graph representation of ontologies and propose a new set of inference rules, which are more compact than existing ones. For encoding the derivation of deductive modules, we introduced a new notion called the forest, which relies on a graph representation, capturing all the logical entailments over a given vocabulary. For computing general modules, we proposed a new resolution-based method inspired by the existing approach for computing uniform interpolants. This method is, in general, more efficient and generates modules of better quality. Finally, each proposed method has been evaluated by implementing a prototype used to test large real-world ontologies and the experimental results have been compared to those obtained with state-of-the-art methods, showing the advantages of our method in terms of efficiency and quality
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Baro, Johanna. „Modélisation multi-échelles de la morphologie urbaine à partir de données carroyées de population et de bâti“. Thesis, Paris Est, 2015. http://www.theses.fr/2015PEST1004/document.

Der volle Inhalt der Quelle
Annotation:
La question des liens entre forme urbaine et transport se trouve depuis une vingtaine d'années au cœur des réflexions sur la mise en place de politiques d'aménagement durable. L'essor de la diffusion de données sur grille régulière constitue dans ce cadre une nouvelle perspective pour la modélisation de structures urbaines à partir de mesures de densités affranchies de toutes les contraintes des maillages administratifs. A partir de données de densité de population et de surface bâtie disponibles à l'échelle de la France sur des grilles à mailles de 200 mètres de côté, nous proposons deux types de classifications adaptées à l'étude des pratiques de déplacement et du développement urbain : des classifications des tissus urbains et des classifications des morphotypes de développement urbain. La construction de telles images classées se base sur une démarche de modélisation théorique et expérimentale soulevant de forts enjeux méthodologiques quant à la classification d'espaces urbains statistiquement variés. Pour nous adapter au traitement exhaustif de ces espaces, nous avons proposé une méthode de classification des tissus urbains par transfert d'apprentissage supervisé. Cette méthode utilise le formalisme des champs de Markov cachés pour prendre en compte les dépendances présentes dans ces données spatialisées. Les classifications en morphotypes sont ensuite obtenus par un enrichissement de ces premières images classées, formalisé à partir de modèles chorématiques et mis à œuvre par raisonnement spatial qualitatif. L'analyse de ces images classées par des méthodes de raisonnement spatial quantitatif et d'analyses factorielles nous a permis de révéler la diversité morphologique de 50 aires urbaines françaises. Elle nous a permis de mettre en avant la pertinence de ces classifications pour caractériser les espaces urbains en accord avec différents enjeux d'aménagement relatifs à la densité ou à la multipolarité
Since a couple of decades the relationships between urban form and travel patterns are central to reflection on sustainable urban planning and transport policy. The increasing distribution of regular grid data is in this context a new perspective for modeling urban structures from measurements of density freed from the constraints of administrative division. Population density data are now available on 200 meters grids covering France. We complete these data with built area densities in order to propose two types of classified images adapted to the study of travel patterns and urban development: classifications of urban fabrics and classifications of morphotypes of urban development. The construction of such classified images is based on theoretical and experimental which raise methodological issues regarding the classification of a statistically various urban spaces. To proceed exhaustively those spaces, we proposed a per-pixel classification method of urban fabrics by supervised transfer learning. Hidden Markov random fields are used to take into account the dependencies in the spatial data. The classifications of morphotypes are then obtained by broadening the knowledge of urban fabrics. These classifications are formalized from chorematique theoretical models and implemented by qualitative spatial reasoning. The analysis of these classifications by methods of quantitative spatial reasoning and factor analysis allowed us to reveal the morphological diversity of 50 metropolitan areas. It highlights the relevance of these classifications to characterize urban areas in accordance with various development issues related to the density or multipolar development
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

El, Hader Carla. „L'effet du guidage dans l'environnement GeoGebra et au niveau du raisonnement déductif : une propédeutique à la résolution des problèmes de démonstration de géométrie plane en 6e dans les écoles libanaises francophones homologuées“. Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM3053.

Der volle Inhalt der Quelle
Annotation:
Notre travail de recherche s’inscrit dans la problématique de l’apprentissage de la géométrie pour des élèves de 6e au collège, et porte plus particulièrement sur les difficultés imposées par la résolution des problèmes de démonstration de géométrie plane. Notre but consiste à étudier le fonctionnement cognitif des élèves en fonction des connaissances mobilisées et du taux de la charge cognitive générée par la résolution des problèmes, afin de mettre en place une stratégie de guidage permettant de remédier aux difficultés des élèves et d’optimiser leurs performances dans une situation de résolution des problèmes dans le domaine précité. En nous appuyant sur différentes théories issues de la psychologie, de la didactique (la théorie de l’instrumentation, la théorie de la charge cognitive, la théorie des situations, la théorie des champs conceptuels, etc.), nous avons fait l’hypothèse qu’une analyse cognitive de l’activité de l’élève dans un environnement papier-crayon permet de recueillir les indices pertinents permettant d’identifier les types de connaissances dont la mobilisation se révèle problématique pour les élèves, ainsi que les éléments de la tâche qui engendrent une charge cognitive élevée. A partir des éléments récupérés, nous avons conçu et testé un dispositif de guidage s’appuyant sur l’environnement de géométrie dynamique GeoGebra pour la résolution de problèmes de démonstration et dans lequel un guidage spécifique a été proposé au niveau de la construction de la figure, ainsi que pour l’élaboration d’un raisonnement déductif
Our research work is related to the problem of learning Geometry in grade 6, particularly the difficulties imposed by the resolution of the problems of demonstration. Our goal is to study the cognitive functioning of students on the basis of knowledge mobilized and the rate of the cognitive load generated by the resolution of the problems, in order to put in place a strategy to remedy the difficulties of the students and to optimize the intellectual performance in a situation of resolution of problems in the domain of geometry.Pressing on the different theories of cognitive psychology (the theory of the instrumentation, the theory of the cognitive load, etc.) and those of didactics (theory of situations and the theory of conceptual fields), we have made the assumption that a cognitive analysis of the activity of the student in the environment paper-pen, allows us to collect the relevant indices to identify the types of knowledge which mobilization proves to be problematic for the students, as well as the elements of the task that engender a high cognitive load.From the items retrieved, we have designed and tested a specific guidance in the environment of dynamic geometry GeoGebra for the resolution of problems of demonstration, related to the drawing of figures, as well as the development of a deductive reasoning
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Louarn, Amaury. „A topological approach to virtual cinematography“. Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S063.

Der volle Inhalt der Quelle
Annotation:
La recherche dans le domaine de la cinématographie virtuelle s'est essentiellement focalisée sur des aspects précis de la cinématographie mais n'ont pas adressé les nombreuses interdépendances entre les entités d'une scène. En effet, alors que la majorité des approches prennent en compte le fait que les caméras et lumières sont contraintes par les acteurs, elles oublient que les acteurs sont aussi contraints par les caméras et des lumières. Dans cette thèse, nous adressons ces interdépendances en modélisant les relations partagées par les entités et la topologie de l'environnement. Pour ce faire, nous proposons un langage permettant de décrire formellement une scène avec des contraintes de haut niveau qui représentent les relations des entités, auxquelles sont associés des opérateurs formels permettant d'appliquer ces contraintes géométriquement. Notre seconde contribution est un système de mise en scène cinématographique qui génère des configurations de mises en scène dans un environnement virtuel à partir d'une description écrite dans notre langage formel. Notre troisième contribution est un système de placement de caméras en temps réel générant des rails de caméras dans un environnement virtuel qui sont ensuite utilisés pour guider la caméra en temps réel
Research in the domain of virtual cinematography has mostly focused on specific aspects of cinematography but fail to take into account the interdependencies between all the entities in the scene. Indeed, while most approaches take into account the fact that the cameras and lights are constrained by the characters, most fail to acknowledge that the characters are also constrained by the cameras and lights. In this thesis we tackle these interdependencies by modeling the relations between the entities and the topology of the environment. To this end, we propose a language to be used to formally describe a scene thanks to high-level constraints that represent entity relations, to which are associated formal operators that can be used to enforce these constraints through geometry. Our second contribution is a cinematographic staging system that generates staging configurations in a virtual environment thanks to a description written in our formal language. Our third contribution is a real-time camera placement system that builds on a subset of our formal language and generates camera tracks in a virtual environment to be used to guide the camera in real-time
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Vandecasteele, Arnaud. „Modélisation ontologique des connaissances expertes pour l'analyse de comportements à risque : application à la surveillance maritime“. Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00819259.

Der volle Inhalt der Quelle
Annotation:
Dans nos sociétés où l'information est devenue omniprésente, la capacité à pouvoir capter et exploiter celle-ci est un enjeu majeur pour toute entité amenée à prendre une décision. En effet, de cette capacité dépendent ensuite les actions et les moyens d'interventions qui seront engagés. Mais, face à l'augmentation des données disponibles, au nombre croissant d'acteurs et à la complexification des menaces, l'environnement dans lequel évolue le décideur est marqué par une grande incertitude. Ce constat général se retrouve également au sein de la surveillance maritime qui se caractérise par des menaces hétérogènes, par une zone d'action très vaste et par un réseau important d'acteurs.De ce fait, cette thèse se propose d'étudier les potentialités des ontologies spatiales à la fois comme objet de modélisation, de partage et d'inférence. L'objectif est de fournir aux experts du domaine un environnement adapté permettant la modélisation des connaissances relatives aux comportements anormaux de navires. Néanmoins, ces connaissances sont par nature spatio-temporelles. Il a donc été nécessaire d'étendre les fonctionnalités initiales du langage SWRL afin de prendre en compte ces caractéristiques.Enfin, l'approche adoptée a ensuite été mise en application au sein du prototype OntoMap. De l'extraction des données, à l'analyse cartographique celui-ci offre les éléments nécessaires à la compréhension d'une situation anormale.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Gouia, Mouna. „Proposition d’une approche d’apprentissage de la foule au sein des plateformes Crowdsourcing (Cas d’une plateforme de Backlinks)“. Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4349.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se situe dans un axe novateur de recherches en ingénierie et en management des systèmes d’information, elle articule à la fois les aspects de quatre domaines de recherche issus de l’Informatique, des Sciences des Systèmes d’information et des Sciences Humaines et des aspects pratiques liées aux entreprises du Web 2.0. Le «Crowdsourcing», comme son nom l’indique, désigne l’approvisionnement par la foule; Les études et les recherches sur cette thèse se font rares mais celles qui existent confirment l’intérêt managérial des plateformes de Crowdsourcing, grâce à leur rôle incontestable dans la création de valeur. Néanmoins, la foule est composée de groupe d’amateurs hétérogènes, c’est pour cela qu’elle représente aussi une source d’incompétence. Dans ce cadre, notre hypothèse opérationnelle pose que l’apprentissage de la foule stimule la création de valeur dans les plateformes Crowdsourcing. Ainsi, notre travail est, principalement organisé autour de la conception et l’élaboration d’un outil pour l’apprentissage de la foule au sein des plateformes de Crowdsourcing. Ce travail est de nature complexe et relève à la fois d’un travail de recherche et d’une pratique d’ingénierie. C’est pour cela que nous optons pour une démarche constructiviste exploratoire de type qualitative moyennant la méthode de recherche ingénierique qui vise à définir et à concevoir une approche d’apprentissage adaptée aux plateformes de Crowdsourcing et à l’implémenter par la suite au sein d’une plateforme Crowdsourcing de test spécialisée dans les Backlinks. Des expérimentations basées sur des entretiens semi-directifs viendront, à la fin de ce travail, confirmer ou infirmer nos hypothèses
This thesis is situated in an innovative line of research in engineering and management information systems, it articulates both the aspects of four disciplines of research in the Computer Science, Information Systems, Human Sciences and practical aspects related to Web 2.0 companies. The "Crowdsourcing" as its name suggests, refers to the sourcing by the crowd, studies and research on this topic are infrequent but those that exist confirm the managerial interest of Crowdsourcing platforms, thanks to their undeniable role in value creation. Nevertheless, the crowd is composed of heterogeneous group of amateurs that is why it is also a source of incompetence. Our operating hypothesis posits that learning the crowd stimulates the creation of value in the Crowdsourcing platforms. Thus, our work is mainly organized around the design and development of a tool for learning the crowd in Crowdsourcing platforms. This work is complex and involves both a research work and practical engineering. That is why we choose an exploratory qualitative constructivist approach and an ingénierique research method to define and develop a suitable approach of learning adapted to the Crowdsourcing platforms and implement it thereafter within our test Crowdsourcing platform specializes in Backlinking. Experiments based on semi-structured interviews will, confirm or deny our hypotheses
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Ben, Rabah Nourhène. „APPROCHE INTELLIGENTE À BASE DE RAISONNEMENT À PARTIR DE CAS POUR LE DIAGNOSTIC EN LIGNE DES SYSTÈMES AUTOMATISÉS DE PRODUCTION“. Thesis, Reims, 2018. http://www.theses.fr/2018REIMS036/document.

Der volle Inhalt der Quelle
Annotation:
Les systèmes automatisés de production (SAP) représentent une classe importante des systèmes industriels qui sont de plus en plus complexes vue le grand nombre d’interaction et d’interconnexion entre leurs différents composants. En conséquence, ils sont plus sensibles aux dysfonctionnements dont les conséquences peuvent être importantes en termes de productivité, de sécurité et de qualité de production. Un défi majeur est alors de développer une approche intelligente qui peut être utilisée pour le diagnostic de ces systèmes afin de garantir leurs suretés de fonctionnement. Dans le cadre de cette thèse, nous nous intéressons seulement au diagnostic des SAP ayant une dynamique discrète. Nous présentons dans le premier chapitre ces systèmes, les dysfonctionnements possibles et la terminologie du diagnostic utilisée. Ensuite, nous présentons un état de l’art de différentes méthodes et approches existantes et aussi une synthèse de ces méthodes. Cette synthèse nous a motivé de choisir une approche à base de donnée qui s’appuie sur une technique d’apprentissage automatique, qui est le raisonnement à partir de cas (RàPC). Pour cela, nous avons présenté dans le deuxième chapitre un état de l’art sur l’apprentissage automatique et ses différentes méthodes en mettant l’accent essentiellement sur le RàPC et ses utilisations pour le diagnostic des systèmes industriels. Cette étude nous a permis de proposer dans le chapitre 3 une approche d’aide au diagnostic qui se base sur le RàPC. Cette approche s’appuie sur une phase hors ligne et une phase en ligne. La phase hors ligne permet de définir un format de représentation de cas et de construire une base de cas normaux (BCN) et une base de cas défaillants (BCD) à partir d’une base de données d’historique. La phase en ligne permet d’aider les opérateurs humains de surveillance à la prise de la décision du diagnostic la plus adéquate. Les résultats des expérimentations sur un système de tri de caisses ont présentés les piliers de cette approche qui résident au niveau du format de représentation de cas proposé et au niveau de la base de cas utilisé. Pour résoudre ces problèmes et améliorer les résultats, un nouveau format de représentation de cas est proposé dans le chapitre 4. Selon ce format et à partir des données issues du système simulé après son émulation en mode normal et fautif, les cas de la base de cas initiale sont construits. Ensuite, une phase de raisonnement et d’apprentissage incrémental est présentée. Cette phase permet non seulement le diagnostic du système surveillé mais aussi d’enrichir la base de cas suite à l’apparition des nouveaux comportements inconnus. Les expérimentations présentées dans le chapitre 5 sur « le plateau tournant » qui est un sous système du système « tri de caisses » ont permis de montrer l’amélioration des résultats et aussi d’évaluer et de comparer les performances de l’approche proposée vis-à-vis certaines approches d’apprentissage automatique et vis-à-vis une approche à base de modèle pour le diagnostic du plateau tournant
Automated production systems (APS) represents an important class of industrial systems that are increasingly complex given the large number of interactions and interconnections between their different components. As a result, they are more susceptible to malfunctions, whose consequences can be significant in terms of productivity, safety and quality of production. A major challenge is to develop an intelligent approach that can be used to diagnose these systems to ensure their operational safety. In this thesis, we are only interested in the diagnosis of APS with discrete dynamics. We present in the first chapter these systems, the possible malfunctions and the used terminology for the diagnosis. Then, we present a state of the art of the existing methods for the diagnosis of this class of systems and also a synthesis of these methods. This synthesis motivated us to choose a data-based approach that relies on a machine learning technique, which is Case-Based Reasoning (CBR). For this reason, we presented in the second chapter a state of the art on machine learning and its different methods with a focus mainly on the CBR and its uses for the diagnosis of industrial systems. This study allowed us to propose in Chapter 3 a Case Based Decision Support System for the diagnosis of APS. This system is based on an online block and an offline block. The Offline block is used to define a case representation format and to build a Normal Case Base (NCB) and a Faulty Case Base (FCB) from a historical database. The online block helps human operators of monitoring to make the most appropriate diagnosis decision. The experiments results perform on a sorting system presented the pillars of this approach, which reside in the proposed case representation format and in the used case base. To solve these problems and improve the results, a new case representation format is proposed in chapter 4. According to this format and from the data acquired from the simulated system after its emulation in normal and faulty mode, cases of the initial case base are build. Then, a reasoning and incremental learning phase is presented. This phase allows the system diagnosis and the enrichment of the case base following the appearance of new unknown behaviors. The experiments presented in Chapter 5 and perform on the 'turntable' which is a subsystem of the 'sorting system” allowed to show the improvement of the results and also to evaluate and compare the performances of the proposed approach with some automatic learning approaches and with a model-based approach to turntable diagnosis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Parès, Yves Jean Vincent. „Méthodes structurelles et sémantiques pour la mise en correspondance de cas textuels de dysmorphies fœtales“. Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066568/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se place dans le contexte d'Accordys, un projet d'ingénierie des connaissances qui vise à fournir un système de rapprochement de cas en fœtopathologie, qui est le domaine de l'étude des maladies rares et dysmorphies du fœtus. Ce projet se base sur un corpus de comptes rendus d'examens fœtaux. Ce matériel consiste en des comptes rendus en texte brut présentant un vocabulaire très spécifique (qui n'est que partiellement formalisé dans des terminologies médicales en français), des économies linguistiques (un style "prise de notes" très prononcé rendant difficile l'utilisation d'outils analysant la grammaire du texte) et une mise en forme matérielle exhibant une structuration commune latente (un découpage en sections, sous-sections, observations). Cette thèse vise à tester l'hypothèse qu'une uniformisation de la représentation des cas exploitant cette structure arborescente en la faisant correspondre à un modèle de cas (lui aussi arborescent) peut supporter la constitution d'une base de cas qui conserve les informations contenues dans les comptes rendus originaux et permette la mesure de similarité entre deux cas. La mise en correspondance entre cas et modèle (instanciation du modèle) est réalisée via un mapping d'arbres ayant pour base une méthode de Monte Carlo. Nous comparerons ceci avec des mesures de similarités obtenues en représentant nos comptes rendus (soit tels quels, soit enrichis sémantiquement grâce à un annotateur sémantique) dans un modèle vectoriel
This thesis is set within the context of Accordys, a knowledge engineering project aiming at providing a case-based reasoning system for fetopathology, i.e. the medical domain studying rare diseases and dysmorphia of fetuses. The project is based on a corpus of french fetal exam reports. This material consists in raw text reports diplaying a very specific vocabulary (only partially formalized in french medical terminologies), a "note taking" style that makes difficult to use tools analysing the grammar in the text, and a layout and formatting that shows a latent common structuration (organisation in sections, sub-sections, observations). This thesis aims at testing the hypothesis that a uniformisation of the representation of cases that could exploit this arborescent structure by mapping it with a tree-shaped case model can support the constitution of a case base which preserves the information contained in original reports and the similarity measurement between two cases. Mapping a case with the model (instanciating the case model) is done through a Monte Carlo tree matching method. We compare this with similarity measurements obtained by representing our reports (both without further processing and after semantic enrichment through a semantic annotator) in a vector model
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Reasonning"

1

Lbath, R., N. Giambiasi und C. Delorme. „FRaHM: Framework for Reasonning about Hierarchical/multi-vues Models“. In System Fault Diagnostics, Reliability and Related Knowledge-Based Approaches, 29–41. Dordrecht: Springer Netherlands, 1987. http://dx.doi.org/10.1007/978-94-009-3931-8_4.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Reasonning"

1

Mu-kun, Cao. „E-Commerce Automated Negotiation Based on Agent Reasonning“. In 2010 Fourth International Conference on Mangement of E-Commerce and E-Government (ICMeCG). IEEE, 2010. http://dx.doi.org/10.1109/icmecg.2010.15.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie