To see the other types of publications on this topic, follow the link: Exploration de données cachées.

Dissertations / Theses on the topic 'Exploration de données cachées'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Exploration de données cachées.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hayat, Khizar. "Visualisation 3D adaptée par insertion synchronisée de données cachées." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00400762.

Full text
Abstract:
L'objectif principal de ces travaux de thèse est d'unifier différentes informations 2D et 3D afin de réaliser une visualisation adaptée dans un environnement client/serveur hétérogène en termes de réseau, de traitement et de ressources mémoire. Dans ce contexte, nous avons exploité la nature multi-résolution de la transformée en ondelettes discrètes (TOD) du codeur JPEG2000. L'unification des données est réalisée par insertion aveugle, synchrone ou partiellement synchrone, des données cachées dans le domaine des ondelettes. Une visualisation 3D classique nécessite au moins deux types de donnée
APA, Harvard, Vancouver, ISO, and other styles
2

Meuel, Peter. "Insertion de données cachées dans des vidéos au format H. 264." Montpellier 2, 2009. http://www.theses.fr/2009MON20218.

Full text
Abstract:
Cette thèse adresse deux problèmes majeurs rencontrés par l'adoption massive du format vidéo H. 264: la protection de la vie privée dans la vidéo-surveillance et le besoin de méthodes sûres pour le tatouage robuste. Une première contribution pour la t permet d'obtenir un unique flux vidéo compatible H. 264 qui restreint l'accès aux visages filmées aux seules personnes détentrices d'une clé de chiffrement. La performance des résultats obtenus valident la possibilité d'utilisation en temps-réel dans des caméras de vidéo-surveillance Une seconde contribution concernant le tatouage robuste a pour
APA, Harvard, Vancouver, ISO, and other styles
3

Liu, Zhenjiao. "Incomplete multi-view data clustering with hidden data mining and fusion techniques." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS011.

Full text
Abstract:
Le regroupement de données multivues incomplètes est un axe de recherche majeur dans le domaines de l'exploration de données et de l'apprentissage automatique. Dans les applications pratiques, nous sommes souvent confrontés à des situations où seule une partie des données modales peut être obtenue ou lorsqu'il y a des valeurs manquantes. La fusion de données est une méthode clef pour l'exploration d'informations multivues incomplètes. Résoudre le problème de l'extraction d'informations multivues incomplètes de manière ciblée, parvenir à une collaboration flexible entre les vues visibles et les
APA, Harvard, Vancouver, ISO, and other styles
4

Jansen, van rensburg Bianca. "Sécurisation des données 3D par insertion de données cachées et par chiffrement pour l'industrie de la mode." Electronic Thesis or Diss., Université de Montpellier (2022-....), 2023. http://www.theses.fr/2023UMONS044.

Full text
Abstract:
Au cours des dernières décennies, les objets 3D sont devenus un élément essentiel de la vie quotidienne, tant dans le contexte privé que professionnel. Ces objets 3D sont souvent stockés sur le cloud et transférés sur des réseaux plusieurs fois au cours de leur existence, où ils sont susceptibles de faire l'objet d'attaques malveillantes. Par conséquent, des méthodes de sécurisation des objets 3D, comme le chiffrement ou l'insertion des données cachées, sont essentielles. Le chiffrement est utilisé pour protéger la confidentialité visuelle du contenu d’un objet 3D. Il est également possible d'
APA, Harvard, Vancouver, ISO, and other styles
5

Rouan, Lauriane. "Apports des chaînes de Markov cachées à l'analyse de données de capture-recapture." Montpellier 2, 2007. http://www.theses.fr/2007MON20188.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Eng, Catherine. "Développement de méthodes de fouille de données basées sur les modèles de Markov cachés du second ordre pour l'identification d'hétérogénéités dans les génomes bactériens." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10041/document.

Full text
Abstract:
Les modèles de Markov d’ordre 2 (HMM2) sont des modèles stochastiques qui ont démontré leur efficacité dans l’exploration de séquences génomiques. Cette thèse explore l’intérêt de modèles de différents types (M1M2, M2M2, M2M0) ainsi que leur couplage à des méthodes combinatoires pour segmenter les génomes bactériens sans connaissances a priori du contenu génétique. Ces approches ont été appliquées à deux modèles bactériens afin d’en valider la robustesse : Streptomyces coelicolor et Streptococcus thermophilus. Ces espèces bactériennes présentent des caractéristiques génomiques très distinctes
APA, Harvard, Vancouver, ISO, and other styles
7

Itier, Vincent. "Nouvelles méthodes de synchronisation de nuages de points 3D pour l'insertion de données cachées." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS017/document.

Full text
Abstract:
Cette thèse aborde les problèmes liés à la protection de maillages d'objets 3D. Ces objets peuvent, par exemple, être créés à l'aide d'outil de CAD développés par la société STRATEGIES. Dans un cadre industriel, les créateurs de maillages 3D ont besoin de disposer d'outils leur permettant de vérifier l'intégrité des maillages, ou de vérifier des autorisations pour l'impression 3D par exemple. Dans ce contexte nous étudions l'insertion de données cachées dans des maillages 3D. Cette approche permet d'insérer de façon imperceptible et sécurisée de l'information dans un maillage. Il peut s'agir d
APA, Harvard, Vancouver, ISO, and other styles
8

Lazrak, El Ghali. "Fouille de données stochastique pour la compréhension des dynamiques temporelles et spatiales des territoires agricoles. Contribution à une agronomie numérique." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00782768.

Full text
Abstract:
L'agriculture est l'activité humaine qui utilise et transforme la plus grande partie de la surface terrestre. Son intensification et son uniformisation ont engendré plusieurs problèmes écologiques et environnementaux. Comprendre les dynamiques passées et actuelles des territoires agricoles à des échelles régionales, compatibles avec les échelles où s'expriment les services environnementaux et écologiques, est nécessaire pour mieux gérer l'évolution future des territoires agricoles. Pourtant, la plupart des travaux qui ont étudié les dynamiques agricoles à des échelles régionales ne distinguent
APA, Harvard, Vancouver, ISO, and other styles
9

Negre, Elsa. "Exploration collaborative de cubes de données." Thesis, Tours, 2009. http://www.theses.fr/2009TOUR4023/document.

Full text
Abstract:
Data warehouses store large volumes of consolidated and historized multidimensional data to be explored and analysed by various users. The data exploration is a process of searching relevant information in a dataset. In this thesis, the dataset to explore is a data cube which is an extract of the data warehouse that users query by launching sequences of OLAP (On-Line Analytical Processing) queries. However, this volume of information can be very large and diversified, it is thus necessary to help the user to face this problem by guiding him/her in his/her data cube exploration in order to find
APA, Harvard, Vancouver, ISO, and other styles
10

Gaumer, Gaëtan. "Résumé de données en extraction de connaissances à partir des données (ECD) : application aux données relationnelles et textuelles." Nantes, 2003. http://www.theses.fr/2003NANT2025.

Full text
Abstract:
Les travaux présentés dans cette thèse ont été réalisés dans le cadre d'un contrat CNET JMINER, dont le but est l'étude de pré-traitement et post-traitements en extraction de connaissances à partir des données, appliqués aux lettres de réclamation de France Télécom. Les caractéristiques particulières des données de cette application ont orienté nos travaux de recherche. Nous nous sommes tout d'abord intéressés aux problèmes liés à l'extraction de connaissances à partir de très importants volumes de données. Nous proposons, pour résoudre ces problèmes, de remplacer les données à traiter par un
APA, Harvard, Vancouver, ISO, and other styles
11

Maitre, Julien. "Détection et analyse des signaux faibles. Développement d’un framework d’investigation numérique pour un service caché Lanceurs d’alerte." Thesis, La Rochelle, 2022. http://www.theses.fr/2022LAROS020.

Full text
Abstract:
Ce manuscrit s’inscrit dans le cadre du développement d’une plateforme d’analyse automatique de documents associée à un service sécurisé lanceurs d’alerte, de type GlobalLeaks. Nous proposons une chaine d’extraction à partir de corpus de document, d’analyse semi-automatisée et de recherche au moyen de requêtes Web pour in fine, proposer des tableaux de bord décrivant les signaux faibles potentiels. Nous identifions et levons un certain nombre de verrous méthodologiques et technologiques inhérents : 1) à l’analyse automatique de contenus textuels avec un minimum d’a priori, 2) à l’enrichissemen
APA, Harvard, Vancouver, ISO, and other styles
12

El, Ghaziri Angélina. "Relation entre tableaux de données : exploration et prédiction." Thesis, Nantes, Ecole nationale vétérinaire, 2016. http://www.theses.fr/2016ONIR088F/document.

Full text
Abstract:
La recherche développée dans le cadre de cette thèse aborde différents aspects relevant de l’analyse statistique de données. Dans un premier temps, une analyse de trois indices d’associations entre deux tableaux de données est développée. Par la suite, des stratégies d’analyse liées à la standardisation de tableaux de données avec des applications en analyse en composantes principales (ACP) et en régression, notamment la régression PLS sont présentées. La première stratégie consiste à proposer une standardisation continuum des variables. Une standardisation plus générale est aussi abordée cons
APA, Harvard, Vancouver, ISO, and other styles
13

Rommel, Cédric. "Exploration de données pour l'optimisation de trajectoires aériennes." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX066/document.

Full text
Abstract:
Cette thèse porte sur l'utilisation de données de vols pour l'optimisation de trajectoires de montée vis-à-vis de la consommation de carburant.Dans un premier temps nous nous sommes intéressé au problème d'identification de modèles de la dynamique de l'avion dans le but de les utiliser pour poser le problème d'optimisation de trajectoire à résoudre. Nous commençont par proposer une formulation statique du problème d'identification de la dynamique. Nous l'interpretons comme un problème de régression multi-tâche à structure latente, pour lequel nous proposons un modèle paramétrique. L'estimation
APA, Harvard, Vancouver, ISO, and other styles
14

Saffar, Imen. "Vers une agentification de comportements observés : une approche originale basée sur l’apprentissage automatique pour la simulation d’un environnement réel." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10190/document.

Full text
Abstract:
La conception d'outils de simulation capables de reproduire la dynamique et l'évolution de phénomènes complexes réels est une tâche difficile. La modélisation de ces phénomènes par des approches analytiques est souvent impossible, obligeant le concepteur à s'orienter vers des approches comportementales. Dans ce contexte, les simulations multi-agents représentent aujourd'hui une alternative crédible aux simulations classiques. Elles restent cependant délicates à mettre en œuvre. En effet, le concepteur de la simulation doit être capable de transcrire en comportement d'agents la dynamique du phé
APA, Harvard, Vancouver, ISO, and other styles
15

Barret, Nelly. "User-oriented exploration of semi-structured datasets." Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAX001.

Full text
Abstract:
La création, l'utilisation et le partage sans précédent des données à travers le monde contribue à de nouvelles applications et opportunités économiques. Ces données sont souvent larges, hétérogènes en schéma et en modèle, et plus ou moins structurées. Pour mettre de l’ordre dans toutes ces données, le consortium du World Wide Web recommande de partager des graphes RDF, ce qui a été majoritairement adopté dans l'Open Data, mais beaucoup d’autres formats sont utilisés en pratique.C’est souvent le cas des journalistes qui récoltent des jeux de données de différents acteurs, qui ne se sont pas co
APA, Harvard, Vancouver, ISO, and other styles
16

Turmeaux, Teddy. "Contraintes et fouille de données." Orléans, 2004. http://www.theses.fr/2004ORLE2048.

Full text
Abstract:
La fouille de données est un domaine de recherche actif, visant à découvrir des connaissances implicites dans des bases de données. Nous étudions ici l'intérêt de formalismes issus de la logique du premier ordre pour la fouille de données. En particulier, nous examinons l'intérêt des contraintes, vues comme des formules du premier ordre et interprétées sur un domaine particulier. Un point important de tout formalisme utilisé en ECD est la définition d'une relation de généralité qui permet de structurer l'espace des motifs, et de faciliter ainsi la recherche de motifs intéressants. Nous nous in
APA, Harvard, Vancouver, ISO, and other styles
17

Djedaini, Mahfoud. "Automatic assessment of OLAP exploration quality." Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4038/document.

Full text
Abstract:
Avant l’arrivée du Big Data, la quantité de données contenues dans les bases de données était relativement faible et donc plutôt simple à analyser. Dans ce contexte, le principal défi dans ce domaine était d’optimiser le stockage des données, mais aussi et surtout le temps de réponse des Systèmes de Gestion de Bases de Données (SGBD). De nombreux benchmarks, notamment ceux du consortium TPC, ont été mis en place pour permettre l’évaluation des différents systèmes existants dans des conditions similaires. Cependant, l’arrivée de Big Data a complètement changé la situation, avec de plus en plus
APA, Harvard, Vancouver, ISO, and other styles
18

Syla, Burhan. "Relais de perte de synchronisme par exploration de données." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29102/29102.pdf.

Full text
Abstract:
Le but de ce document est de vérifier la faisabilité d’un relais de protection de synchronisme en utilisant la fouille de données et les arbres de décisions. En utilisant EMTP-RV, 180 simulations ont été effectuées sur le réseau Anderson en variant l’endroit auquel survient le court-circuit, la durée, le type, ainsi que le load-flow. Pour chacune de ces simulations, 39 mesures électriques ainsi que huit mesures mécaniques sont sauvegardées. Ces simulations sont ensuite classées stables et instables en utilisant le centre d’inertie d’angle et de vitesse. Trente-trois nouvelles autres variables
APA, Harvard, Vancouver, ISO, and other styles
19

Grollemund, Vincent. "Exploration et modélisation de données peu ou pas structurées." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS027.

Full text
Abstract:
Les modèles d'apprentissage supervisé sont généralement entraînés sur des données aux contraintes limitées. Malheureusement, les données sont souvent rares, incomplètes et biaisées dans de nombreux cas d’applications, et cela entrave la conception de modèles efficaces. De telles données peuvent et doivent néanmoins être exploitées, car elles demeurent des sources précieuses d’information. Elles permettent de découvrir des corrélations pertinentes et de parvenir à des conclusions significatives. Dans cette thèse, nous étudions une approche d'apprentissage non supervisé pour isoler des échantill
APA, Harvard, Vancouver, ISO, and other styles
20

Clech, Jérémie. "Contribution méthodologique à la fouille de données complexes." Lyon 2, 2004. http://theses.univ-lyon2.fr/documents/lyon2/2004/clech_j.

Full text
Abstract:
Au cours de cette thèse, nous abordons la problématique de l'extraction de connaissances à partir de données complexes. Notre motivation est issue de l'accroissement du besoin de traiter de telles données, du principalement à l'explosion des technologies de l'information véhiculant une forte diffusion de documents complexes. La fouille de données complexes se propose de fournir un modèle d'analyse permettant d'intégrer de larges variétés de données, structurées ou non, locales ou distantes. Le point de vue retenu est de dire que face à une tâche d'extraction des connaissances, l'utilisateur do
APA, Harvard, Vancouver, ISO, and other styles
21

El, Golli Aicha. "Extraction de données symboliques et cartes topologiques : Application aux données ayant une structure complexe." Paris 9, 2004. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2004PA090026.

Full text
Abstract:
Un des objectifs de l'analyse de données symboliques est de permettre une meilleure modélisation des variations et des imprécisions des données réelles. Ces données expriment en effet, un niveau de connaissance plus élevé, la modélisation doit donc offrir un formalisme plus riche que dans le cadre de l'analyse de données classiques. Un ensemble d'opérateurs de généralisation symbolique existent et permettent une synthèse et représentation des données par le formalisme des assertions, formalisme défini en analyse de données symboliques. Cette généralisation étant supervisée, est souvent sensibl
APA, Harvard, Vancouver, ISO, and other styles
22

Sansen, Joris. "La visualisation d’information pour les données massives : une approche par l’abstraction de données." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0636/document.

Full text
Abstract:
L’évolution et la démocratisation des technologies ont engendré une véritable explosion de l’information et notre capacité à générer des données et le besoin de les analyser n’a jamais été aussi important. Pourtant, les problématiques soulevées par l’accumulation de données (stockage, temps de traitement, hétérogénéité, vitesse de captation/génération, etc. ) sont d’autant plus fortes que les données sont massives, complexes et variées. La représentation de l’information, de part sa capacité à synthétiser et à condenser des données, se constitue naturellement comme une approche pour les analys
APA, Harvard, Vancouver, ISO, and other styles
23

Boullé, Marc. "Recherche d'une représentation des données efficace pour la fouille des grandes bases de données." Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003023.

Full text
Abstract:
La phase de préparation du processus de fouille des données est critique pour la qualité des résultats et consomme typiquement de l'ordre de 80% d'une étude. Dans cette thèse, nous nous intéressons à l'évaluation automatique d'une représentation, en vue de l'automatisation de la préparation des données. A cette fin, nous introduisons une famille de modèles non paramétriques pour l'estimation de densité, baptisés modèles en grille. Chaque variable étant partitionnée en intervalles ou groupes de valeurs selon sa nature numérique ou catégorielle, l'espace complet des données est partitionné en un
APA, Harvard, Vancouver, ISO, and other styles
24

Braud, Agnès. "Fouille de données par algorithmes génétiques." Orléans, 2002. http://www.theses.fr/2002ORLE2011.

Full text
Abstract:
La fouille de données est un processus visant à la découverte de connaissances potentiellement utiles, enfouies dans les bases de données. Parmi les problématiques de ce domaine, nous nous intéressons à l'apprentissage de concepts à partir d'exemples. Nous nous concentrons sur l'apprentissage de descriptions de concepts exprimées sous forme d'un ensemble de règles, et sur l'apport des algorithmes génétiques dans ce domaine.
APA, Harvard, Vancouver, ISO, and other styles
25

Aouiche, Kamel. "Techniques de fouille de données pour l'optimisation automatique des performances des entrepôts de données." Lyon 2, 2005. http://theses.univ-lyon2.fr/documents/lyon2/2005/aouiche_k.

Full text
Abstract:
Avec le développement des bases de données en général et des entrepôts de données en particulier, il est devenu très important de réduire les tâches d'administration des systèmes de gestion de base de données. Les systèmes auto-administratifs ont pour objectif de s'administrer et de s'adapter eux-mêmes, automatiquement, sans perte ou même avec un gain de performance. L'idée d'utiliser des techniques de fouille de données pour extraire des connaissances utiles à partir des données stockées pour leur administration est une approche très prometteuse, notamment dans le domaine des entrepôts de don
APA, Harvard, Vancouver, ISO, and other styles
26

Do, Thanh-Nghi. "Visualisation et séparateurs à vaste marge en fouille de données." Nantes, 2004. http://www.theses.fr/2004NANT2072.

Full text
Abstract:
Nous présentons différentes approches coopératives combinant des méthodes de visualisation et des séparateurs à vaste marge (SVM) pour l'extraction de connaissances dans les données (ECD). La plupart des méthodes existantes à l'heure actuelle en fouille de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Par ailleurs, ces méthodes doivent pouvoir traiter des quantités de plus en plus importantes de données. Nous visons d'une part à augmenter le rôle de l'utilisateur dans le processus de fouille (par le biais de la visualisation) et d'autre pa
APA, Harvard, Vancouver, ISO, and other styles
27

Legrand, Gaëlle. "Approche méthodologique de sélection et construction de variables pour l'amélioration du processus d'extraction des connaissances à partir de grandes bases de données." Lyon 2, 2004. http://theses.univ-lyon2.fr/documents/lyon2/2004/legrand_g.

Full text
Abstract:
De nos jours, du fait de la présence de grandes bases de données, l'amélioration de la qualité de représentation des données est au centre des préoccupations. Deux types de transformation de variables permettent d'extraire la connaissance pertinente à partir des données. La sélection de variables est un processus qui choisit un sous-ensemble optimal de variables en fonction d'un critère particulier et qui réduit l'espace des variables en supprimant les variables non pertinentes. Cette transformation permet la réduction de l'espace de représentation, l'élimination du bruit et l'élimination de l
APA, Harvard, Vancouver, ISO, and other styles
28

Masson, Cyrille. "Contribution au cadre des bases de données inductives : formalisation et évaluation des scénarios d'extraction de connaissances." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0042/these.pdf.

Full text
Abstract:
Le succès des techniques de bases de données permet de collecter une quantité toujours plus grande d'informations dans différents domaines. L'ECD (Extraction de Connaissance dans les Données) se donne pour but d'aller plus loin dans le processus d'interrogation des données pour y découvrir, sous forme de motifs, de la connaissance cachée. La notion de base de données inductive (BDI) généralise le concept de base de données en intégrant données et motifs dans un cadre commun. Un processus d'ECD peut alors être vu comme un processus d'interrogation étendu sur une BDI. Cette thèse s'intéresse `a
APA, Harvard, Vancouver, ISO, and other styles
29

Mitas̃iūnaite, Ieva. "Mining string data under similarity and soft-frequency constraints : application to promoter sequence analysis." Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0036/these.pdf.

Full text
Abstract:
Nous étudions l'extraction de motifs sous contraintes dans des collections de chaînes de caractères et le développement de solveurs complets et génériques pour l'extraction de tous les motifs satisfaisant une combinaison de contraintes primitives. Un solveur comme FAVST permet d'optimiser des conjonctions de contraintes dites monotones et/ou anti-monotones (e. G. , des contraintes de fréquence maximale et minimale). Nous avons voulu compléter ce type d'outil en traitant des contraintes pour la découverte de motifs tolérants aux exceptions. Nous proposons différentes définitions des occurrences
APA, Harvard, Vancouver, ISO, and other styles
30

Jouve, Pierre-Emmanuel. "Apprentissage non supervisé et extraction de connaissances à partir de données." Lyon 2, 2003. http://theses.univ-lyon2.fr/documents/lyon2/2003/jouve_pe.

Full text
Abstract:
Les travaux constituant cette dissertation concernent la classification non supervisée. Cette problématique, commune à de multiples domaines (et ainsi connue sous diverses acceptions : apprentissage/classification non supervisé(e) en reconnaissance de formes, taxonomie en sciences de la vie, typologie en sciences humaines. . . ), est ici envisagée selon la perspective Ingénierie des Connaissances et plus spécifiquement dans le cadre de son intégration au sein du processus dExtraction de Connaissances à partir de Données (ECD). D'une part, nos travaux participent à l'amélioration du processus d
APA, Harvard, Vancouver, ISO, and other styles
31

Mokrane, Abdenour. "Représentation de collections de documents textuels : application à la caractérisation thématique." Montpellier 2, 2006. http://www.theses.fr/2006MON20162.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Huynh, Hiep Xuan. "Interestingness measures for association rules in a KDD process : postprocessing of rules with ARQAT tool." Nantes, 2006. http://www.theses.fr/2006NANT2110.

Full text
Abstract:
Ce travail s'insère dans le cadre de l'extraction de connaissances dans les données (ECD), souvent dénommé "fouille de données". Ce domaine de recherche multidisciplinaire offre également de nombreuses applications en entreprises. L'ECD s'attache à la découverte de connaissances cachées au sein de grandes masses de données. Parmi les modèles d'extraction de connaissances disponibles, celui des règles d'association est fréquemment utilisé. Il offre l'avantage de permettre une découverte non supervisée de tendances implicatives dans les données, mais, en retour, délivre malheureusement de grande
APA, Harvard, Vancouver, ISO, and other styles
33

Chambefort, Françoise. "Mimèsis du flux, exploration des potentialités narratives des flux de données." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCC004.

Full text
Abstract:
Art du flux, data art, l’art numérique s’approprie les flux de données. Le rapport au réel et au temps qui s’y joue semble propice à la narration, pourtant les œuvres intègrent rarement des récits. Choisissant la voie de la recherche création, cette thèse explore les potentialités narratives des flux de données. Articulant les approches techniques, sémiotiques, sociales et esthétiques, la réflexion se nourrit, outre les sciences de l’information et de la communication, de disciplines variées telles que l’informatique, la philosophie, la sociologie, les sciences cognitives et la narratologie. L
APA, Harvard, Vancouver, ISO, and other styles
34

Ouksili, Hanane. "Exploration et interrogation de données RDF intégrant de la connaissance métier." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV069.

Full text
Abstract:
Un nombre croissant de sources de données est publié sur le Web, décrites dans les langages proposés par le W3C tels que RDF, RDF(S) et OWL. Une quantité de données sans précédent est ainsi disponible pour les utilisateurs et les applications, mais l'exploitation pertinente de ces sources constitue encore un défi : l'interrogation des sources est en effet limitée d'abord car elle suppose la maîtrise d'un langage de requêtes tel que SPARQL, mais surtout car elle suppose une certaine connaissance de la source de données qui permet de cibler les ressources et les propriétés pertinentes pour les b
APA, Harvard, Vancouver, ISO, and other styles
35

Karoui, Lobna. "Extraction contextuelle d'ontologie par fouille de données." Paris 11, 2008. http://www.theses.fr/2008PA112220.

Full text
Abstract:
L’objectif de cette thèse est d’automatiser au maximum le processus de construction d’une ontologie à partir de pages web, en étudiant notamment l’impact que peut avoir la fouille de données dans une telle tâche. Pour construire l’ontologie, nous avons exploité la structure HTML du document étudié afin de pouvoir bien définir le contexte à mettre en œuvre. Ce dernier est structuré sous la forme d’une hiérarchie de contextes. Puis, nous avons défini un algorithme de clustering hiérarchique dédié à l’extraction de concepts ontologiques intitulé ‘ECO’ ; il est basé sur l’algorithme Kmeans et guid
APA, Harvard, Vancouver, ISO, and other styles
36

Ben, Messaoud Riadh. "Couplage de l'analyse en ligne et de la fouille de données pour l'exploration, l'agrégation et l'explication des données complexes." Lyon 2, 2006. http://theses.univ-lyon2.fr/documents/lyon2/2006/benmessaoud_r.

Full text
Abstract:
Les entrepôts de données présentent une solution efficace à la gestion des grandes volumétries des données. L'analyse en ligne (OLAP) complète les entrepôts de données en proposant des outils pour la visualisation, la structuration et l'exploration des cubes de données afin d'y découvrir des informations pertinentes. D'un autre côté, la fouille de données emploie des techniques d'apprentissage afin d'induire des modèles de connaissances valides couvrant la description, la classification et l'explication. L'idée de combiner l'analyse en ligne et la fouille de données est une solution prometteus
APA, Harvard, Vancouver, ISO, and other styles
37

Le, Corre Laure. "Données actuelles de l'exploration fonctionnelle thyroi͏̈dienne." Paris 5, 1992. http://www.theses.fr/1992PA05P133.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Charantonis, Anastase Alexandre. "Méthodologie d'inversion de données océaniques de surface pour la reconstitution de profils verticaux en utilisant des chaînes de Markov cachées et des cartes auto-organisatrices." Paris 6, 2013. http://www.theses.fr/2013PA066761.

Full text
Abstract:
Les observations satellitaires permettent d'estimer les valeurs de différents paramètres biogéochimiques à la surface des océans. D’une manière générale, les paramètres observés sont reliés à des grandeurs géophysiques de l’océan comme : les profils verticaux de concentrations en Chlorophylle-A, les profils de Salinité et de Température… La dimensionnalité de ces données environnementales est très grande, autant dans le cas des données de surface que des profils verticaux. A cause de leur grande dimensionnalité, et de la dynamique complexe qui relie ces données, il est difficile de modéliser l
APA, Harvard, Vancouver, ISO, and other styles
39

Rannou, Éric. "Modélisation explicative de connaissances à partir de données." Toulouse 3, 1998. http://www.theses.fr/1998TOU30290.

Full text
Abstract:
Dans ce document, nous proposons d’étudier quelques méthodes d'extraction de connaissances d'un ensemble de données. L'extraction de connaissances qui est proposée consiste à exploiter les capacités des règles floues pour le résumé de données, et par extension, pour la modélisation de connaissances imprécises intelligibles pour un expert. En effet, les règles floues peuvent tout aussi bien traduire une information complexe décrivant le comportement dynamique d'un système (en modélisation floue) qu'une information intelligible destinée à la découverte de connaissances (dans une interface numeri
APA, Harvard, Vancouver, ISO, and other styles
40

Aboa, Yapo Jean-Pascal. "Méthodes de segmentation sur un tableau de variables aléatoires." Paris 9, 2002. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2002PA090042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Blachon, Sylvain. "Exploration des données SAGE par des techniques de fouille de données en vue d'extraire des groupes de synexpression impliqués dans l'oncogénèse." Lyon, INSA, 2007. http://theses.insa-lyon.fr/publication/2007ISAL0034/these.pdf.

Full text
Abstract:
Avec le développement de techniques de biologie moléculaire à haut débit, l'accumulation de grandes quantités de données permet de poser de nouvelles questions tant méthodologiques que fondamentales, en biologie comme en informatique. Ces questions ouvrent la voie à l'étude de la complexité du vivant. Ce travail de thèse s'inscrit dans ce contexte de bioinformatique. L'essentiel de notre contribution réside dans l'étude et l'interrogation des données SAGE humaines issues du Cancer Genome Anatomy Project. Nous avons ainsi étudié en profondeur les qualités particulières de ces données, ainsi que
APA, Harvard, Vancouver, ISO, and other styles
42

Méger, Nicolas. "Recherche automatique des fenêtres temporelles optimales des motifs séquentiels." Lyon, INSA, 2004. http://theses.insa-lyon.fr/publication/2004ISAL0095/these.pdf.

Full text
Abstract:
Ce mémoire concerne l'extraction sous contraintes de motifs dans une séquence d'événements. Les motifs extraits sont des règles d'épisodes. L'apport principal réside dans la détermination automatique de la fenêtre temporelle optimale de chaque règle d'épisodes. Nous proposons de n'extraire que les règles pour lesquelles il existe une telle fenêtre. Ces règles sont appelées FLM-règles. Nous présentons un algorithme, WinMiner, pour extraire les FLM-règles, sous les contraintes de support minimum, de confiance minimum, et de gap maximum. Les preuves de la correction de cet algorithme sont fournie
APA, Harvard, Vancouver, ISO, and other styles
43

Bykowski, Artur. "Condensed representations of frequent sets : application to descriptive pattern discovery." Lyon, INSA, 2002. http://theses.insa-lyon.fr/publication/2002ISAL0053/these.pdf.

Full text
Abstract:
L'extraction de motifs intéressants a connu récemment un développement impressionnant dû à une pression accrue des propriétaires de données sous-exploitées et à la réponse des chercheurs par de nombreux résultats théoriques et pratiques. A l'origine, les données analysées provenaient du domaine de la vente et les motifs intéressants se présentaient sous forme de règles d'association. Des solutions performantes à ce problème pratique ont été élaborées (ex. APRIORI). Puis, les propriétaires d'autres types de données se sont interrogés sur l'utilité de ces premières solutions pour analyser leurs
APA, Harvard, Vancouver, ISO, and other styles
44

Jollois, François-Xavier. "Contribution de la classification automatique à la fouille de données." Metz, 2003. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2003/Jollois.Francois_Xavier.SMZ0311.pdf.

Full text
Abstract:
La classification est une étape essentielle dans un processus de fouille de données. Les méthodes usuelles que nous décrivons se basent sur des critères métriques. Mais, l'utilisation des modèles de mélange dans la classification est devenue une approche classique et puissante. En traitant la classification sous cette approche, à partir des algorithmes de type EM, nous nous sommes intéressés aux problèmes suivants : recherche du nombre de classes, gestion des données manquantes, stratégies d'initialisation et accélération de l'algorithme. L'algorithme EM est devenu quasiment incontournable dan
APA, Harvard, Vancouver, ISO, and other styles
45

Couturier, Olivier. "Contribution à la fouille de données : règles d'association et interactivité au sein d'un processus d'extraction de connaissances dans les données." Artois, 2005. http://www.theses.fr/2005ARTO0410.

Full text
Abstract:
Au regard du nombre croissant des grandes bases de données, déterminer la façon dont sont organisées les données, les interpréter et en extraire des informations utiles est un problème difficile et ouvert. En effet, à l'heure actuelle, notre capacité à collecter et stocker les données de tout type, outrepasse nos possibilités d'analyse, de synthèse et d'extraction de connaissances dans les données. Notre travail se situe au niveau de la recherche de règles d'association qui constitue une tâche de fouille de données. Cette dernière présente des résultats qui permettent aux experts de facilement
APA, Harvard, Vancouver, ISO, and other styles
46

Berasaluce, Sandra. "Fouille de données et acquisition de connaissances à partir de bases de données de réactions chimiques." Nancy 1, 2002. http://docnum.univ-lorraine.fr/public/SCD_T_2002_0266_BERASALUCE.pdf.

Full text
Abstract:
Les bases de données de réactions, outils indispensables pour les chimistes organiciens, ne sont pas exemptes de défauts. Dans cette thèse, nous avons entrepris d'ajouter des connaissances structurant les données pour dépasser les limites des bases et envisager de nouveaux modes d'interrogation de ces bases. In fine, l'objectif est de concevoir des systèmes possédant des fonctionnalités de BD et de SBC. Dans le processus d'acquisition de connaissances, nous avons mis l'accent sur la modélisation des objets chimiques. Ainsi, nous sommes intéressés aux méthodes de synthèse que nous avons décrite
APA, Harvard, Vancouver, ISO, and other styles
47

Merroun, Omar. "Traitement à grand échelle des données symboliques." Paris 9, 2011. http://www.theses.fr/2011PA090027.

Full text
Abstract:
Les méthodes de l’Analyse de Données (AD) classiques ont été généralisées dans l’Analyse de Données Symboliques (ADS) en prenant en charge les données complexes (intervalles, ensembles, histogrammes, etc. ). Ces méthodes expriment des operations de haut niveau et sont très complexes. Le modèle de l’ADS, qui est implanté dans le logiciel SODAS2, ne supporte pas le traitement de volumes importants de données symboliques. Conformément à la démarche classique en modélisation et traitement de masses de données, nous proposons un nouveau modèle de données pour représenter les données symboliques et
APA, Harvard, Vancouver, ISO, and other styles
48

Favre, Cécile. "Evolution de schémas dans les entrepôts de données : mise à jour de hiérarchies de dimension pour la personnalisation des analyses." Lyon 2, 2007. http://theses.univ-lyon2.fr/documents/lyon2/2007/favre_c.

Full text
Abstract:
Dans cette thèse, nous proposons une solution pour la personnalisation des analyses dans les entrepôts de données. Cette solution se base sur une évolution du schéma de l'entrepôt guidée par les utilisateurs. Il s'agit en effet de recueillir les connaissances de l'utilisateur et de les intégrer dans l'entrepôt de données afin de créer de nouveaux axes d'analyse. Cette solution se base sur la définition d'un modèle formel d'entrepôt de données évolutif, basé sur des règles <>, que nous appelons règles d'agrégation. Notre modèle d'entrepôt évolutif est soutenu par une architecture qui perm
APA, Harvard, Vancouver, ISO, and other styles
49

Cerf, Loïc. "Constraint-based mining of closed patterns in noisy n-ary relations." Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0050/these.pdf.

Full text
Abstract:
Useful knowledge discovery processes can be based on patterns extracted from large datasets. Designing efficient data mining algorithms to compute collections of relevant patterns is an active research domain. Many datasets record whether some properties hold for some objects, e. G. , whether an item is bought by a customer or whether a gene is over-expressed in a biological sample. Such datasets are binary relations and can be represented as 0/1 matrices. In such matrices, a closed itemset is a maximal rectangle of ’1’s modulo arbitrary permutations of the lines (objects) and the columns (pro
APA, Harvard, Vancouver, ISO, and other styles
50

Tanasa, Doru. "Web usage mining : contributions to intersites logs preprocessing and sequential pattern extraction with low support." Nice, 2005. http://www.theses.fr/2005NICE4019.

Full text
Abstract:
Le Web Usage Mining (WUM), domaine de recherche assez récent, correspond au processus d’extraction des connaissances à partir des données (ECD) appliquées aux données d’usage sur le Web. Il comporte trois étapes principales : le prétraitement des données, la découverte des schémas et l’analyse des résultats. La quantité des données d’usage à analyser ainsi que leur faible qualité (en particulier l’absence de structuration) sont les principaux problèmes en WUM. Les algorithmes classiques de fouille de données appliquées sur ces données donnent généralement des résultats décevants en termes de p
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!