Gotowa bibliografia na temat „Fouille de règle”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Fouille de règle”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Artykuły w czasopismach na temat "Fouille de règle"

1

Callegher, Bruno. "Un ripostiglio di solidi di VII secolo (603-681) dalla costa mediterranea palestinese (Gaza?)". Revue numismatique 6, nr 178 (2021): 251–72. http://dx.doi.org/10.3406/numi.2021.3522.

Pełny tekst źródła
Streszczenie:
Le trésor qui fait l’objet de cet article a été découvert récemment lors de fouilles irrégulières dans la Bande de Gaza ou dans les environs de la côte du Sinaï égyptien. Il comprend 61 solidi de Phocas à Constantine IV et 1 tremissis de Constantin IV, frappés entre 603 et 674. Le trésor fut très probablement enterré à la fin du règne de Constantin IV (681) ; il témoigne des solidi disponibles dans la circulation monétaire en Palestine dans la seconde moitié du VIIe siècle lorsque le pouvoir islamique prenait forme.
Style APA, Harvard, Vancouver, ISO itp.
2

Di Jorio, Lisa, Sandra Bringay, Denis Brouillet, Anne Laurent, Sophie Martin i Maguelonne Teisseire. "Fouille de données issues d'études psychologiques liées au vieillissement. Extraction de règles graduelles". Techniques et sciences informatiques 29, nr 8-9 (20.11.2010): 939–57. http://dx.doi.org/10.3166/tsi.29.939-957.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
3

Ballet, Pascale, i Sandrine Élaigne. "Modèles exogènes de la production céramique des ateliers de Bouto (Delta, Égypte) : inspirations italiques du répertoire de la vaisselle de table". Revue archéologique 76, nr 2 (29.11.2023): 273–333. http://dx.doi.org/10.3917/arch.232.0273.

Pełny tekst źródła
Streszczenie:
Bouto, site majeur du Delta nord-ouest, se caractérise, notamment, par la présence d’importants ateliers de céramique gréco-romaine : prospections géophysiques et fouilles ont, durant les deux dernières décennies, mis en lumière un ensemble de fours ayant recours à la cuisson rayonnante par tubulures pour produire des céramiques fines rouges, associant vaisselle de table et flacons, et qui succèdent aux productions fines noires ptolémaïques. Nous soulignons dans cette contribution le caractère très spécifique et inédit de ces unités de production, qui emploient une technique de cuisson parfaitement connue en Occident et fabriquent des formes inspirées du répertoire méditerranéen (« paroi fine » et sigillées), en particulier italique, à partir du règne d’Auguste. Nous tentons d’exposer les modalités qui président à cette mobilité des techniques et du répertoire, en convoquant d’autres exemples de l’Orient méditerranéen, notamment en Asie Mineure.
Style APA, Harvard, Vancouver, ISO itp.
4

Ourya, Jalal. "La fouille dans la mémoire comme réaction aux fracas de l’Histoire dans la poésie de Léopold Sédar Senghor". Quêtes littéraires, nr 12 (30.12.2022): 60–72. http://dx.doi.org/10.31743/ql.14866.

Pełny tekst źródła
Streszczenie:
Cet article se propose de dévoiler l’importance de la mémoire dans la pratique poétique de Léopold Sédar Senghor. Il s’agit de montrer qu’en explorant la mémoire millénaire de l’Afrique, Senghor donne un fondement ontologique à sa race et déboulonne les clichés minimalistes forgés par les puissances coloniales au gré de leurs perspectives transversales. Cependant, il importe d’affirmer que la plongée dans la mémoire est aussi la démarche esthétique que privilégie le poète pour mettre au jour le ferment d’une utopie panhumaniste. Le mythique « Royaume d’Enfance » qu’il découvre par l’intercession de la mémoire est le lieu d’une symbiose aujourd’hui perdue et qu’il s’agit de restaurer au bénéfice de l’éthique unitaire. Il n’en reste pas moins vrai que l’errance dans le règne de la mémoire culmine dans la création de l’instant originel. En d’autres termes, si l’expérience poétique se transforme en expérience spirituelle, c’est que l’enjeu ultime, pour le poète, est de retrouver Dieu.
Style APA, Harvard, Vancouver, ISO itp.
5

ΓΑΛΑΝΗ-ΚΡΙΚΟΥ, Μίνα. "Θήβα: 10ος-14ος αιώνας. Η νομισματική μαρτυρία από την Αγία Τριάδα". BYZANTINA SYMMEIKTA 11 (29.09.1997): 113. http://dx.doi.org/10.12681/byzsym.827.

Pełny tekst źródła
Streszczenie:
<p>Mina Galani-Krikou</p><p>Thèbes: 10e-14e s. Le témoignage numismatique d'Hagia Trias</p><p>Les fouilles entreprises depuis 1986 par la 1ère Éphorie des Antiquités Byzantines à plusieurs sites de Thèbes et de la région de la Béotie ont donné des centaines de monnaies de l'époque byzantine.</p><p>Les monnaies, trouvées à Hagia Trias, site qui se trouve à l'ouest de la Kadmée, couvrent l'époque qui s'étend des empereurs Macédoniens, en particulier du règne de Léon VI, jusqu'au 14e siècle.</p><p>Nous constatons la circulation remarquable des «tetartera» des Comnènes, surtout ceux frappés par Manuel Ier, et des «imitations latines» du13e siècle.</p><p>La présence des princes Latins en Béotie est attestée par un trésor de «deniers tournois», enfoui probablement en 1311, lors de la bataille de Kifissos.</p><p>Le nombre restreint de monnaies vénitiennes, quatre torneselli de la fin du 14e siècle, qui complète le matériel numismatique de Hagia Trias, est un indice minime de la forte présence de Venise sur les territoires byzantins.</p><p>De façon générale, le témoignage numismatique de Hagia Trias ne diffère pas de celui que nous constatons à d'autres sites de la région.</p>
Style APA, Harvard, Vancouver, ISO itp.
6

Mcguire, Gregory. "The scientific study of "la morale" at the beginnings of modern social psychology in France/[l'étude scientifique de la morale aux origines de la psychologie sociale moderne en france]". Sociétés contemporaines 13, nr 1 (1.01.1993): 155–65. http://dx.doi.org/10.3917/soco.p1993.13n1.0155.

Pełny tekst źródła
Streszczenie:
Résumé [L'étude scientifique de là morale aux origines de la psychologie sociale modeme en France] : Dans cet article, on suggère qu 'à la fin du siècle dernier la science de la morale était d'une importance fondamentale au début de la psychologie sociale moderne. Les règles et les influences morales étaient envisagées comme des déterminants vitaux du comportement social à plusieurs niveaux : les éléments moraux intrinsèques (l'obligation morale) et les éléments moraux extrinsèques (le devoir moral) étaient considérés comme le fondement de phénomènes comme l'influence social, l'imitation, l'hypnose, et la suggestion, etc. On examine en détail l'évolution de l'étude scientifique de la morale depuis celle des théoriciens et moralistes sociaux de la fin du 18ème siècle et du début du 19ème siècle (Fourier, Comte, Saint-Simon, Cousin, etc.) jusqu 'au courant positiviste et spiritualiste de la fin du 19ème siècle et du début du 20ème siècle (Bergson, Boutroux, Fouillée, Durand de Gros, Guyau, etc.). La préoccupation de nombre de ces théoriciens avec la question de la dégénérescence de la société a fourni une impulsion importante au désir d'identifier d'une façon scientifique l'étendue des impératifs moraux dans la vie sociale. Le débat sur l 'essence de la morale avait deux points d'ancrage principaux : a)peut-on parler d'une morale scientifique dans le sens positiviste, et, b) quelle en est la source (intuition transcendantale, connaissance rationnelle, la société elle-même) ? En analysant l'influence de la morale sur la psychologie sociale du 20ème siècle dans les écrits de McDougall Ross, Blondel, et Allport, l'auteur constate son influence persistante sur plusieurs domaines de la psychologie sociale moderne.
Style APA, Harvard, Vancouver, ISO itp.
7

Aernout, E., G. Ficheur, M. Djennaoui, E. Chazard i R. Beuscart. "Codage automatisé à partir des comptes-rendus d’actes : construction et évaluation de règles de prédiction par une méthode mixte associant fouille de texte et validation experte". Revue d'Épidémiologie et de Santé Publique 62 (marzec 2014): S93. http://dx.doi.org/10.1016/j.respe.2014.01.070.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
8

Perko, Gregor. "Présentation". Linguistica 51, nr 1 (31.12.2011): 3–4. http://dx.doi.org/10.4312/linguistica.51.1.3-4.

Pełny tekst źródła
Streszczenie:
Au cours des dernières décennies où l’on assiste à une refondation de la morphologie, la discipline s’intéresse de plus en plus à des phénomènes « périphériques », « marginaux », « irréguliers » ou « extragrammaticaux », à des phénomènes n’appartenant pas aux « régions nodales » de la morphologie. Le présent numéro de Linguistica, premier numéro thématique de notre revue, réunit des études qui s’intéres- sent aux frontières internes et externes de la morphologie. La diversité et la richesse des thèmes abordés et des approches proposées témoignent d’un intérêt croissant que les linguistes, non pas uniquement les morphologues, portent à cette thématique.Les articles proposés s’articulent autour de cinq axes majeurs.Un premier axe rassemble les articles qui étudient les frontières entre différentes composantes de la morphologie. L’étude de Michel Roché examine les contraintes lexicales et morphophonologiques sur le paradigme des dérivés en –aie. Les résultats de son analyse remettent en question la notion de « règle de construction des lexèmes ». Irena Stramljič Breznik et Ines Voršič se penchent sur les néologismes de sport en slovène et essaient d’évaluer la productivité ou la créativité des procédés morphologiques en jeu. Dans une étude d’inspiration cognitiviste, Alexandra Bagasheva aborde l’hétérogénéité des verbes composés en anglais. En s’appuyant sur les données fournies par les para- digmes verbaux du maltais, Maris Camilleri examine la complexité du phénomène de classes flexionnelles basées sur les radicaux. Trois travaux concernent des procédés typiquement « extragrammaticaux » servant à former le plus souvent des occasionnalismes: Arnaud Léturgie tente de dégager des propriétés prototypiques de l’amalgamation lexicale en français, notamment celles de la création des mots-valises; Silvia Cacchiani analyse, à l’intérieur du cadre de la morphologie naturelle, les mots-valises formés à partir de noms propres et de substantifs, phénomène relativement récent en ita- lien ; Thomas Schwaiger, se fondant sur les données tirées de la base « Graz Database on Reduplication », traite des constructions rédupliquées dans une perspective universelle. Deux articles adoptent une perspective contrastive: celui d’Eva Sicherl et Andreja Žele étudie la productivité des diminutifs nominaux en slovène et en anglais ; celui de Marie-Anne Berron et Marie Mouton propose une analyse détaillée de l’importance quantificative et qualificative des procédés de la morphologie marginale dans le slam en France et en Allemagne. Géraldine Walther présente un nouveau modèle général, inscrit dans une approche réalisationnelle, qui permet d’évaluer et de formaliser la (non-)canonicité de phénomènes flexionnels.Un deuxième axe se situe sur la frontière séparant la morphologie dérivationnelle de la morphologie flexionnelle. Tatjana Marvin se penche sur le problème de la préservation de l’accent dans les dérivés anglais, mettant en comparaison les approches de Chomsky et de Marantz avec celle de la théorie de l’Optimalité. L’article de Patrizia Cordin explore la façon dont les constructions locatives verbales dans les langues et les dialectes romans, notamment dans le dialecte trentin, ont perdu en partie leur sens spatial au profit d’un sens grammatical plus abstrait (aspect, résultat, intensité etc.). Se focalisant sur la langue indigène d’Australie kayerdild, Erich Round insiste sur l’utilité de la notion de « morphome » qui permet d’instaurer un niveau de représentation linguistique intermédiaire entre les niveaux lexical, morphosyntaxique et morphophonologique. La contribution de Varja Cvetko Orešnik, qui adopte le cadre théorique de l’école ljubljanaise de la syntaxe naturelle, apporte quelques données nouvelles sur la morphophonologie et la morphosyntaxe du verbe en ancien indien.Les deux articles suivants examinent des questions d’ordre morphologique aux- quelles se heurtent les langues entrant en contact : Georgia Zellou traite du cas du cir- confixe /ta...-t/ que l’arabe marocain a emprunté au berbère, tandis que Chikako Shigemori Bučar analyse le sort réservé aux emprunts japonais en slovène.L’axe diachronique est exploré principalement par les articles de Douglas Lightfoot, de Javier E. Díaz Vera et de Metka Furlan. D. Lightfoot examine la perti- nence de la notion d’affixoïde et evalue la « suffixoïdité » de l’élément germanique « -mann ». J. E. Díaz Vera décrit la lexicalisation, voire la grammaticalisation des verbes causatifs en ancien anglais. Metka Furlan se penche sur une relation « morpho- logique » archaïque rattachant le nom protoslave pol’e à l’adjectif hittite palhi-.Autour du dernier axe se réunissent les contributions qui examinent la frontière entre la morphologie et les disciplines linguistiques voisines, telles que la phonologie ou la syntaxe. Marc Plénat étudie en détail les contraintes morphologiques, syntaxiques et phonologiques pesant sur la liaison de l’adjectif au masculin singulier sur le nom en français. Janez Orešnik, fondateur de l’école ljubljanaise de la syntaxe naturelle, explore le comportement morphologique de l’impératif dans une perspective universelle. Mojca Schlamberger Brezar propose une étude contrastive, à partir des don- nées tirées de corpus monolingues et parallèles, de la grammaticalisation du gérondif et du participe en français et en slovène. L’article de Gašper Ilc applique la notionde« cycle de Jespersen » à la négation dans le slovène standard et dans les dialectes pannoniens. Mojca Smolej propose une étude fouillée de l’émergence des articles défini et indéfini dans le slovène parlé spontané.
Style APA, Harvard, Vancouver, ISO itp.

Rozprawy doktorskie na temat "Fouille de règle"

1

Hamrouni, Tarek. "Fouille de représentations concises des motifs fréquents à travers les espaces de recherche conjonctif et disjonctif". Phd thesis, Université d'Artois, 2009. http://tel.archives-ouvertes.fr/tel-00465733.

Pełny tekst źródła
Streszczenie:
Durant ces dernières années, les quantités de données collectées, dans divers domaines d'application de l'informatique, deviennent de plus en plus importantes. Cela suscite le besoin d'analyser et d'interpréter ces données afin d'en extraire des connaissances utiles. Dans cette situation, le processus d'Extraction de Connaissances à partir des Données est un processus complet visant à extraire des connaissances cachées, nouvelles et potentiellement utiles à partir de grands volumes de données. Parmi ces étapes, la fouille de données offre les outils et techniques permettant une telle extraction. Plusieurs travaux de recherche en fouille de données concernent la découverte des règles d'association, permettant d'identifier des liens entre ensembles de descripteurs (ou attributs ou items) décrivant un ensemble d'objets (ou individus ou transactions). Les règles d'association ont montré leur utilité dans plusieurs domaines d'application tels que la gestion de la relation client en grande distribution (analyse du panier de la ménagère pour déterminer les produits souvent achetés simultanément, et agencer les rayons et organiser les promotions en conséquence), la biologie moléculaire (analyse des associations entre gènes), etc. De manière générale, la construction des règles d'association s'effectue en deux étapes : l'extraction des ensembles d'items (ou itemsets) fréquents, puis la génération des règles d'association à partir de des itemsets fréquents. Dans la pratique, le nombre de motifs (itemsets fréquents ou règles d'associations) extraits ou générés, peut être très élevé, ce qui rend difficile leur exploitation pertinente par les utilisateurs. Pour pallier ce problème, certains travaux de recherche proposent l'usage d'un noyau de motifs, appelés représentations concises, à partir desquels les motifs redondants peuvent être régénérés. Le but de telles représentations est de condenser les motifs extraits tout en préservant autant que possible les informations cachées et intéressantes sur des données. Dans la littérature, beaucoup de représentations concises des motifs fréquents ont été proposées, explorant principalement l'espace de recherche conjonctif. Dans cet espace, les itemsets sont caractérisés par la fréquence de leur co-occurrence. Ceci fait l'objet de la première partie de ce travail. Une étude détaillée proposée dans cette thèse prouve que les itemsets fermés et les générateurs minimaux sont un moyen de représenter avec concision les itemsets fréquents et les règles d'association. Les itemsets fermés structurent l'espace de recherche dans des classes d'équivalence tels que chaque classe regroupe les itemsets apparaissant dans le même sous-ensemble (appelé aussi objets ou transactions) des données. Un itemset fermé inclut l'expression la plus spécifique décrivant les transactions associées, alors qu'un générateur minimal inclut une des expressions les plus générales. Cependant, une redondance combinatoire intra-classe résulte logiquement de l'absence inhérente d'un seul générateur minimal associé à un itemset fermé donné. Ceci nous amotivé à effectuer une étude approfondie visant à maintenir seulement les générateurs minimaux irréductibles dans chaque classe d'équivalence, et d'élaguer les autres. À cet égard, il est proposé une réduction sans perte d'information de l'ensemble des générateurs minimaux grâce à un nouveau processus basé sur la substitution. Une étude complète des propriétés associées aux familles obtenues est présentée. Les résultats théoriques sont ensuite étendus au cadre de règles d'association afin de réduire autant que possible le nombre de règles maintenues sans perte d'information. Puis, est présentée une étude formelle complète du mécanisme d'inférence permettant de dériver toutes les règles d'association redondantes, à partir de celles maintenues. Afin de valider l'approche proposée, les algorithmes de construction de ces représentations concises de motifs sont présentés ainsi que les résultats des expérimentations réalisées en terme de concision et de temps de calcul. La seconde partie de ce travail est consacrée à une exploration complète de l'espace de recherche disjonctif des itemsets, où ceux-ci sont caractérisés par leurs supports disjonctifs. Ainsi dans l'espace disjonctif, un itemset vérifie une transaction si au moins un de ses items y est présent. Les itemsets disjonctifs véhiculent ainsi une connaissance au sujet des occurrences complémentaires d'items dans un ensemble de données. Cette exploration est motivée par le fait que, dans certaines applications, une telle information peut être utile aux utilisateurs. Lors de l'analyse d'une séquence génétique par exemple, le fait d'engendrer une information telle que " présence d'un gène X ou la présence d'un gène Y ou ... " présente un intérêt pour le biologiste. Afin d'obtenir une représentation concise de l'espace de recherche disjonctif, une solution intéressante consiste à choisir un seul élément pour représenter les itemsets couvrant le même ensemble de données. Deux itemsets sont équivalents si leurs items respectifs couvrent le même ensemble de données. À cet égard, un nouvel opérateur consacré à cette tâche, a été introduit. Dans chaque classe d'équivalence induite, les éléments minimaux sont appelés itemsets essentiels, alors que le plus grand élément est appelé itemset fermé disjonctif. L'opérateur présenté est alors à la base de nouvelles représentations concises des itemsets fréquents. L'espace de recherche disjonctif est ensuite exploité pour dériver des règles d'association généralisées. Ces dernières règles généralisent les règles classiques pour offrir également des connecteurs de disjonction et de négation d'items, en plus de celui conjonctif. Des outils (algorithme et programme) dédiés ont été alors conçus et mis en application pour extraire les itemsets disjonctifs et les règles d'association généralisées. Les résultats des expérimentations effectuées ont montré l'utilité de notre exploration et ont mis en valeur la concision des représentations concises proposées.
Style APA, Harvard, Vancouver, ISO itp.
2

Francisci, Dominique. "Techniques d'optimisation pour la fouille de données". Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00216131.

Pełny tekst źródła
Streszczenie:
Les technologies numériques ont engendré depuis peu, des volumes de données importants, qui peuvent receler des informations utiles. Ceci a donné naissance à l'extraction de connaissances à partir des données qui désigne le processus d'extraction d'informations implicites, précédemment inconnues et potentiellement utiles enfouies dans les données. La fouille de données comprend cinq phases dont la principale est l'extraction de modèles. Nous nous intéressons aux connaisances exprimées sous la forme de règles de dépendance et à la qualité de ces règles. Une règle de dépendance est une implication conditionnelle entre ensembles d'attributs. Les algorithmes standard ont pour but de rechercher les meilleurs modèles. Derrière ces processus se cache en fait une véritable problématique d'optimisation. Nous considérons la recherche des règles de dépendance les plus intéressantes comme étant un problème d'optimisation dans lequel la qualité d'une règle est quantifiée par des mesures. Ainsi, il convient d'étudier les espaces de recherche induits par les mesures ainsi que les algorithmes de recherche dans ces espaces. Il ressort que la plupart des mesures observées présentent des propriétés différentes suivant le jeu de données. Une approche analytique n'est donc pas envisageable dans fixer certains paramères. Nous observons les variations relatives de mesures évaluées simultanément ; certaines d'entre elles sont antagonistes ce qui ne permet pas d'obtenir "la" meilleure règle ; il faut alors considérer un ensemble de compromis satisfaisants. Nous apportons des solutions par le biais des algorithmes génétiques.
Style APA, Harvard, Vancouver, ISO itp.
3

Simonne, Lucas. "Mining differential causal rules in knowledge graphs". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG008.

Pełny tekst źródła
Streszczenie:
La fouille de règles d'association au sein de graphes de connaissances est un domaine de recherche important.En effet, ce type de règle permet de représenter des connaissances, et leur application permet de compléter un graphe en ajoutant des données manquantes ou de supprimer des données erronées.Cependant, ces règles ne permettent pas d'exprimer des relations causales, dont la sémantique diffère d'une simple association ou corrélation. Dans un système, un lien de causalité entre une variable A et une variable B est une relation orientée de A vers B et indique qu'un changement dans A cause un changement dans B, les autres variables du système conservant les mêmes valeurs.Plusieurs cadres d'étude existent pour déterminer des relations causales, dont le modèle d'étude des résultats potentiels, qui consiste à apparier des instances similaires ayant des valeurs différentes sur une variable nommée traitement pour étudier l'effet de ce traitement sur une autre variable nommée résultat.Nous proposons dans cette thèse plusieurs approches permettant de définir des règles représentant l'effet causal d'un traitement sur un résultat.Cet effet peut être local, i.e., valide pour un sous-ensemble d'instances d'un graphe de connaissances défini par un motif de graphe, ou bien moyen, i.e., valide en moyenne pour l'ensemble d'instances de la classe considérée. La découverte de ces règles se base sur le cadre d'étude des résultats potentiels en appariant des instances similaires, en comparant leurs descriptions RDF au sein du graphe ou bien leurs représentations vectorielles apprises à travers des modèles de plongements de graphes
The mining of association rules within knowledge graphs is an important area of research.Indeed, this type of rule makes it possible to represent knowledge, and their application makes it possible to complete a knowledge graph by adding missing triples or to remove erroneous triples.However, these rules express associations and do not allow the expression of causal relations, whose semantics differ from an association or a correlation.In a system, a causal link between variable A and variable B is a relationship oriented from A to B. It indicates that a change in A causes a change in B, with the other variables in the system maintaining the same values.Several frameworks exist for determining causal relationships, including the potential outcome framework, which involves matching similar instances with different values on a variable named treatment to study the effect of that treatment on another variable named the outcome.In this thesis, we propose several approaches to define rules representing a causal effect of a treatment on an outcome.This effect can be local, i.e., valid for a subset of instances of a knowledge graph defined by a graph pattern, or average, i.e., valid on average for the whole set of graph instances.The discovery of these rules is based on the framework of studying potential outcomes by matching similar instances and comparing their RDF descriptions or their learned vectorial representations through graph embedding models
Style APA, Harvard, Vancouver, ISO itp.
4

Boudane, Abdelhamid. "Fouille de données par contraintes". Thesis, Artois, 2018. http://www.theses.fr/2018ARTO0403/document.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous abordons les problèmes bien connus de clustering et de fouille de règles d’association. Notre première contribution introduit un nouveau cadre de clustering, où les objets complexes sont décrits par des formules propositionnelles. Premièrement, nous adaptons les deux fameux algorithmes de clustering, à savoir, le k-means et l’algorithme hiérarchique ascendant, pour traiter ce type d’objets complexes. Deuxièmement, nous introduisons un nouvel algorithme hiérarchique descendant pour le clustering des objets représentés explicitement par des ensembles de modèles. Enfin, nous proposons un encodage basé sur la satisfiabilité propositionnelle du problème de clustering des formules propositionnelles sans avoir besoin d’une représentation explicite de leurs modèles. Dans une seconde contribution, nous proposons une nouvelle approche basée sur la satisfiabilité pour extraire les règles d’association en une seule étape. La tâche est modélisée comme une formule propositionnelle dont les modèles correspondent aux règles à extraire. Pour montrer la flexibilité de notre cadre, nous abordons également d’autres variantes, à savoir, l’extraction des règles d’association fermées, minimales non redondantes, les plus générales et les indirectes. Les expérimentations sur de nombreux jeux de données montrent que sur la majorité des tâches de fouille de règles d’association considérées, notre approche déclarative réalise de meilleures performances que les méthodes spécialisées
In this thesis, We adress the well-known clustering and association rules mining problems. Our first contribution introduces a new clustering framework, where complex objects are described by propositional formulas. First, we extend the two well-known k-means and hierarchical agglomerative clustering techniques to deal with these complex objects. Second, we introduce a new divisive algorithm for clustering objects represented explicitly by sets of models. Finally, we propose a propositional satisfiability based encoding of the problem of clustering propositional formulas without the need for an explicit representation of their models. In a second contribution, we propose a new propositional satisfiability based approach to mine association rules in a single step. The task is modeled as a propositional formula whose models correspond to the rules to be mined. To highlight the flexibility of our proposed framework, we also address other variants, namely the closed, minimal non-redundant, most general and indirect association rules mining tasks. Experiments on many datasets show that on the majority of the considered association rules mining tasks, our declarative approach achieves better performance than the state-of-the-art specialized techniques
Style APA, Harvard, Vancouver, ISO itp.
5

Idoudi, Rihab. "Fouille de connaissances en diagnostic mammographique par ontologie et règles d'association". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0005/document.

Pełny tekst źródła
Streszczenie:
Face à la complexité significative du domaine mammographique ainsi que l'évolution massive de ses données, le besoin de contextualiser les connaissances au sein d'une modélisation formelle et exhaustive devient de plus en plus impératif pour les experts. C'est dans ce cadre que s'inscrivent nos travaux de recherche qui s'intéressent à unifier différentes sources de connaissances liées au domaine au sein d'une modélisation ontologique cible. D'une part, plusieurs modélisations ontologiques mammographiques ont été proposées dans la littérature, où chaque ressource présente une perspective distincte du domaine d'intérêt. D'autre part, l'implémentation des systèmes d'acquisition des mammographies rend disponible un grand volume d'informations issues des faits passés, dont la réutilisation devient un enjeu majeur. Toutefois, ces fragments de connaissances, présentant de différentes évidences utiles à la compréhension de domaine, ne sont pas interopérables et nécessitent des méthodologies de gestion de connaissances afin de les unifier. C'est dans ce cadre que se situe notre travail de thèse qui s'intéresse à l'enrichissement d'une ontologie de domaine existante à travers l'extraction et la gestion de nouvelles connaissances (concepts et relations) provenant de deux courants scientifiques à savoir: des ressources ontologiques et des bases de données comportant des expériences passées. Notre approche présente un processus de couplage entre l'enrichissement conceptuel et l'enrichissement relationnel d'une ontologie mammographique existante. Le premier volet comporte trois étapes. La première étape dite de pré-alignement d'ontologies consiste à construire pour chaque ontologie en entrée une hiérarchie des clusters conceptuels flous. Le but étant de réduire l'étape d'alignement de deux ontologies entières en un alignement de deux groupements de concepts de tailles réduits. La deuxième étape consiste à aligner les deux structures des clusters relatives aux ontologies cible et source. Les alignements validés permettent d'enrichir l'ontologie de référence par de nouveaux concepts permettant d'augmenter le niveau de granularité de la base de connaissances. Le deuxième processus s'intéresse à l'enrichissement relationnel de l'ontologie mammographique cible par des relations déduites de la base de données de domaine. Cette dernière comporte des données textuelles des mammographies recueillies dans les services de radiologies. Ce volet comporte ces étapes : i) Le prétraitement des données textuelles ii) l'application de techniques relatives à la fouille de données (ou extraction de connaissances) afin d'extraire des expériences de nouvelles associations sous la forme de règles, iii) Le post-traitement des règles générées. Cette dernière consiste à filtrer et classer les règles afin de faciliter leur interprétation et validation par l'expert vi) L'enrichissement de l'ontologie par de nouvelles associations entre les concepts. Cette approche a été mise en 'uvre et validée sur des ontologies mammographiques réelles et des données des patients fournies par les hôpitaux Taher Sfar et Ben Arous
Facing the significant complexity of the mammography area and the massive changes in its data, the need to contextualize knowledge in a formal and comprehensive modeling is becoming increasingly urgent for experts. It is within this framework that our thesis work focuses on unifying different sources of knowledge related to the domain within a target ontological modeling. On the one hand, there is, nowadays, several mammographic ontological modeling, where each resource has a distinct perspective area of interest. On the other hand, the implementation of mammography acquisition systems makes available a large volume of information providing a decisive competitive knowledge. However, these fragments of knowledge are not interoperable and they require knowledge management methodologies for being comprehensive. In this context, we are interested on the enrichment of an existing domain ontology through the extraction and the management of new knowledge (concepts and relations) derived from two scientific currents: ontological resources and databases holding with past experiences. Our approach integrates two knowledge mining levels: The first module is the conceptual target mammographic ontology enrichment with new concepts extracting from source ontologies. This step includes three main stages: First, the stage of pre-alignment. The latter consists on building for each input ontology a hierarchy of fuzzy conceptual clusters. The goal is to reduce the alignment task from two full ontologies to two reduced conceptual clusters. The second stage consists on aligning the two hierarchical structures of both source and target ontologies. Thirdly, the validated alignments are used to enrich the reference ontology with new concepts in order to increase the granularity of the knowledge base. The second level of management is interested in the target mammographic ontology relational enrichment by novel relations deducted from domain database. The latter includes medical records of mammograms collected from radiology services. This section includes four main steps: i) the preprocessing of textual data ii) the application of techniques for data mining (or knowledge extraction) to extract new associations from past experience in the form of rules, iii) the post-processing of the generated rules. The latter is to filter and classify the rules in order to facilitate their interpretation and validation by expert, vi) The enrichment of the ontology by new associations between concepts. This approach has been implemented and validated on real mammographic ontologies and patient data provided by Taher Sfar and Ben Arous hospitals. The research work presented in this manuscript relates to knowledge using and merging from heterogeneous sources in order to improve the knowledge management process
Style APA, Harvard, Vancouver, ISO itp.
6

Guillet, Fabrice. "Qualité, Fouille et Gestion des Connaissances". Habilitation à diriger des recherches, Université de Nantes, 2006. http://tel.archives-ouvertes.fr/tel-00481938.

Pełny tekst źródła
Streszczenie:
Qualité, Fouille et Gestion des Connaissances Lorem ipsum dolor sit amet, consectetuer adipiscing elit. Sed non risus. Suspendisse lectus tortor, dignissim sit amet, adipiscing nec, ultricies sed, dolor. Cras elementum ultrices diam. Maecenas ligula massa, varius a, semper congue, euismod non, mi. Proin porttitor, orci nec nonummy molestie, enim est eleifend mi, non fermentum diam nisl sit amet erat. Duis semper. Duis arcu massa, scelerisque vitae, consequat in, pretium a, enim. Pellentesque congue. Ut in risus volutpat libero pharetra tempor. Cras vestibulum bibendum augue. Praesent egestas leo in pede. Praesent blandit odio eu enim. Pellentesque sed dui ut augue blandit sodales
Style APA, Harvard, Vancouver, ISO itp.
7

Nguyen, Thi Kim Ngan. "Generalizing association rules in n-ary relations : application to dynamic graph analysis". Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00995132.

Pełny tekst źródła
Streszczenie:
Pattern discovery in large binary relations has been extensively studied. An emblematic success in this area concerns frequent itemset mining and its post-processing that derives association rules. In this case, we mine binary relations that encode whether some properties are satisfied or not by some objects. It is however clear that many datasets correspond to n-ary relations where n > 2. For example, adding spatial and/or temporal dimensions (location and/or time when the properties are satisfied by the objects) leads to the 4-ary relation Objects x Properties x Places x Times. Therefore, we study the generalization of association rule mining within arbitrary n-ary relations: the datasets are now Boolean tensors and not only Boolean matrices. Unlike standard rules that involve subsets of only one domain of the relation, in our setting, the head and the body of a rule can include arbitrary subsets of some selected domains. A significant contribution of this thesis concerns the design of interestingness measures for such generalized rules: besides a frequency measures, two different views on rule confidence are considered. The concept of non-redundant rules and the efficient extraction of the non-redundant rules satisfying the minimal frequency and minimal confidence constraints are also studied. To increase the subjective interestingness of rules, we then introduce disjunctions in their heads. It requires to redefine the interestingness measures again and to revisit the redundancy issues. Finally, we apply our new rule discovery techniques to dynamic relational graph analysis. Such graphs can be encoded into n-ary relations (n ≥ 3). Our use case concerns bicycle renting in the Vélo'v system (self-service bicycle renting in Lyon). It illustrates the added-value of some rules that can be computed thanks to our software prototypes.
Style APA, Harvard, Vancouver, ISO itp.
8

Papon, Pierre-Antoine. "Extraction optimisée de règles d'association positives et négatives intéressantes". Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22702/document.

Pełny tekst źródła
Streszczenie:
L’objectif de la fouille de données consiste à extraire des connaissances à partir de grandes masses de données. Les connaissances extraites peuvent prendre différentes formes. Dans ce travail, nous allons chercher à extraire des connaissances uniquement sous la forme de règles d’association positives et de règles d’association négatives. Une règle d’association négative est une règle dans laquelle la présence ainsi que l’absence d’une variable peuvent être utilisées. En considérant l’absence des variables dans l’étude, nous allons élargir la sémantique des connaissances et extraire des informations non détectables par les méthodes d’extraction de règles d’association positives. Cela va par exemple permettre aux médecins de trouver des caractéristiques qui empêchent une maladie de se déclarer, en plus de chercher des caractéristiques déclenchant une maladie. Cependant, l’ajout de la négation va entraîner différents défis. En effet, comme l’absence d’une variable est en général plus importante que la présence de ces mêmes variables, les coûts de calculs vont augmenter exponentiellement et le risque d’extraire un nombre prohibitif de règles, qui sont pour la plupart redondantes et inintéressantes, va également augmenter. Afin de remédier à ces problèmes, notre proposition, dérivée de l’algorithme de référence A priori, ne va pas se baser sur les motifs fréquents comme le font les autres méthodes. Nous définissons donc un nouveau type de motifs : les motifs raisonnablement fréquents qui vont permettre d’améliorer la qualité des règles. Nous nous appuyons également sur la mesure M G pour connaître les types de règles à extraire mais également pour supprimer des règles inintéressantes. Nous utilisons également des méta-règles nous permettant d’inférer l’intérêt d’une règle négative à partir d’une règle positive. Par ailleurs, notre algorithme va extraire un nouveau type de règles négatives qui nous semble intéressant : les règles dont la prémisse et la conclusion sont des conjonctions de motifs négatifs. Notre étude se termine par une comparaison quantitative et qualitative aux autres algorithmes d’extraction de règles d’association positives et négatives sur différentes bases de données de la littérature. Notre logiciel ARA (Association Rules Analyzer ) facilite l’analyse qualitative des algorithmes en permettant de comparer intuitivement les algorithmes et d’appliquer en post-traitement différentes mesures de qualité. Finalement, notre proposition améliore l’extraction au niveau du nombre et de la qualité des règles extraites mais également au niveau du parcours de recherche des règles
The purpose of data mining is to extract knowledge from large amount of data. The extracted knowledge can take different forms. In this work, we will seek to extract knowledge only in the form of positive association rules and negative association rules. A negative association rule is a rule in which the presence and the absence of a variable can be used. When considering the absence of variables in the study, we will expand the semantics of knowledge and extract undetectable information by the positive association rules mining methods. This will, for example allow doctors to find characteristics that prevent disease instead of searching characteristics that cause a disease. Nevertheless, adding the negation will cause various challenges. Indeed, as the absence of a variable is usually more important than the presence of these same variables, the computational costs will increase exponentially and the risk to extract a prohibitive number of rules, which are mostly redundant and uninteresting, will also increase. In order to address these problems, our proposal, based on the famous Apriori algorithm, does not rely on frequent itemsets as other methods do. We define a new type of itemsets : the reasonably frequent itemsets which will improve the quality of the rules. We also rely on the M G measure to know which forms of rules should be mined but also to remove uninteresting rules. We also use meta-rules to allow us to infer the interest of a negative rule from a positive one. Moreover, our algorithm will extract a new type of negative rules that seems interesting : the rules for which the antecedent and the consequent are conjunctions of negative itemsets. Our study ends with a quantitative and qualitative comparison with other positive and negative association rules mining algorithms on various databases of the literature. Our software ARA (Association Rules Analyzer ) facilitates the qualitative analysis of the algorithms by allowing to compare intuitively the algorithms and to apply in post-process treatments various quality measures. Finally, our proposal improves the extraction in the number and the quality of the extracted rules but also in the rules search path
Style APA, Harvard, Vancouver, ISO itp.
9

David, Jérôme. "AROMA : une méthode pour la découverte d'alignements orientés entre ontologies à partir de règles d'association". Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00200040.

Pełny tekst źródła
Streszczenie:
Ce travail de thèse s'inscrit à l'intersection des deux domaines de recherche que sont l'extraction des connaissances dans les données (ECD) et de l'ingénierie des connaissances. Plus précisément, en nous appuyant sur la combinaison des travaux menés, d'une part sur l'alignement des ontologies, et d'autre part sur la fouille de règles d'association, nous proposons une nouvelle méthode d'alignement d'ontologies associées à des corpus textuels (taxonomies, hiérarchies documentaires, thésaurus, répertoires ou catalogues Web), appelée AROMA (\emph{Association Rule Matching Approach}).

Dans la littérature, la plupart des travaux traitant des méthodes d'alignement d'ontologies ou de schémas s'appuient sur une définition intentionnelle des schémas et utilisent des relations basées sur des mesures de similarité qui ont la particularité d'être symétriques (équivalences). Afin d'améliorer les méthodes d'alignement, et en nous inspirant des travaux sur la découverte de règles d'association, des mesures de qualité associées, et sur l'analyse statistique implicative, nous proposons de découvrir des appariements asymétriques (implications) entre ontologies. Ainsi, la contribution principale de cette thèse concerne la conception d'une méthode d'alignement extensionnelle et orientée basée sur la découverte des implications significatives entre deux hiérarchies plantées dans un corpus textuel.
Notre méthode d'alignement se décompose en trois phases successives. La phase de prétraitement permet de préparer les ontologies à l'alignement en les redéfinissant sur un ensemble commun de termes extraits des textes et sélectionnés statistiquement. La phase de fouille extrait un alignement implicatif entre hiérarchies. La dernière phase de post-traitement des résultats permet de produire des alignements consistants et minimaux (selon un critère de redondance).

Les principaux apports de cette thèse sont : (1) Une modélisation de l'alignement étendue pour la prise en compte de l'implication. Nous définissons les notions de fermeture et couverture d'un alignement permettant de formaliser la redondance et la consistance d'un alignement. Nous étudions également la symétricité et les cardinalités d'un alignement. (2) La réalisation de la méthode AROMA et d'une interface d'aide à la validation d'alignements. (3) Une extension d'un modèle d'évaluation sémantique pour la prise en compte de la présence d'implications dans un alignement. (4) L'étude du comportement et de la performance d'AROMA sur différents types de jeux de tests (annuaires Web, catalogues et ontologies au format OWL) avec une sélection de six mesures de qualité.

Les résultats obtenus sont prometteurs car ils montrent la complémentarité de notre méthode avec les approches existantes.
Style APA, Harvard, Vancouver, ISO itp.
10

Martin, Florent. "Pronostic de défaillances de pompes à vide - Exploitation automatique de règles extraites par fouille de données". Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENA011.

Pełny tekst źródła
Streszczenie:
Cette thèse présente une méthode de pronostic basée sur des règles symboliques extraites par fouille de données. Une application de cette méthode au cas du grippage de pompes à vide est aussi détaillée. Plus précisément, à partir d'un historique de données vibratoires, nous modélisons le comportement des pompes par extraction d'un type particulier de règles d'épisode appelé « First Local Maximum episode rules » (FLM-règles). L'algorithme utilisé pour extraire ces FLM-règles extrait aussi de manière automatique leur fenêtre optimale respective, i.e. la fenêtre dans laquelle la probabilité d'observer la prémisse et la conclusion de la règle est maximale. Un sous-ensemble de ces FLM-règles est ensuite sélectionné pour prédire les grippages à partir d'un flux de données vibratoires. Notre contribution porte sur la sélection des FLM-règles les plus fiables, la recherche de ces FLM-règles dans un flux continu de données vibratoires et la construction d'un intervalle de pronostic de grippage à partir des fenêtres optimales des FLM-règles retrouvées
This thesis presents a symbolic rule-based method that addresses system prognosis. It also details a successful application to complex vacuum pumping systems. More precisely, using historical vibratory data, we first model the behavior of the pumps by extracting a given type of episode rules, namely the First Local Maximum episode rules (FLM-rules). The algorithm that extracts FLM-rules also determines automatically their respective optimal temporal window, i.e. the temporal window in which the probability of observing the premiss and the conclusion of a rule is maximum. A subset of the extracted FLM-rules is then selected in order to further predict pumping system failures in a vibratory data stream context. Our contribution consists in selecting the most reliable FLM-rules, continuously matching them in a data stream of vibratory data and building a forecast time interval using the optimal temporal windows of the FLM-rules that have been matched
Style APA, Harvard, Vancouver, ISO itp.

Części książek na temat "Fouille de règle"

1

Abel, Véronique. "Chapitre 8. Du début au milieu du XVIIIe s. : le règne des productions de la vallée de l’Huveaune". W Fouilles à Marseille, 221–37. Publications du Centre Camille Jullian, 2014. http://dx.doi.org/10.4000/books.pccj.3641.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii