Letteratura scientifica selezionata sul tema "Fouille de données hybride"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Fouille de données hybride".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Fouille de données hybride":

1

Ganachaud, Clément, Ludovic Seifert e David Adé. "L’importation de méthodes non-supervisées en fouille de données dans le programme de recherche empirique et technologique du cours d’action : Apports et réflexions critiques". Staps N° 141, n. 3 (17 gennaio 2024): 97–108. http://dx.doi.org/10.3917/sta.141.0097.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Actuellement, les méthodes mixtes de recherche suscitent un intérêt croissant dans le domaine des sciences du sport. À ce jour, des réflexions épistémologiques et paradigmatiques ont été engagées lorsqu’il s’agit d’articuler des méthodes, outils et/ou données hétérogènes dans ce type de recherche. Cet article s’inscrit dans cette veine. Il propose une réflexion critique sur des études conduites dans le cadre du programme de recherche empirique et technologique du cours d’action (PRETCA) ayant eu recours à la fouille de données pour mettre en forme des données phénoménologiques à des fins de présentation des résultats de recherche. Cette réflexion est l’occasion de mettre en avant des apports et des points de questionnement sur le recours à la fouille de données, notamment lorsqu’il s’agit de conduire une analyse de classification hiérarchique non supervisée pour identifier des modes typiques d’expériences en situation de pratique sportive. Il ressort que cette importation d’outils et de méthodes de fouille de données nous semble traduire chez les chercheurs du PRETCA une volonté de sophistiquer le traitement des données et la présentation des résultats de recherche.
2

Hai, Phan Nhat, Pascal Poncelet e Maguelone Teisseire. "Get_Move : fouille de données d’objets mobiles". Ingénierie des systèmes d'information 18, n. 4 (31 agosto 2013): 145–69. http://dx.doi.org/10.3166/isi.18.4.145-169.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Mathieux, Néguine. "Myrina : nouvelles données d’une fouille du XIXe siècle". Dialogues d'histoire ancienne 37, n. 2 (2011): 183–91. http://dx.doi.org/10.3406/dha.2011.3277.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Ayrault, Clémence, e Sandy Goury. "Administrateur de données éditoriales, un métier hybride". I2D - Information, données & documents 52, n. 3 (2015): 11. http://dx.doi.org/10.3917/i2d.153.0011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Schiappa, R., Y. Chateau, J. Gal, G. Daideri, P. Lemoine, E. Besrest, F. Paugam, E. François, J. Viotti e E. Chamorey. "Fouille de données : comment valoriser les ressources de données médicales dans les centres hospitaliers ?" Revue d'Épidémiologie et de Santé Publique 66 (maggio 2018): S132—S133. http://dx.doi.org/10.1016/j.respe.2018.03.338.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Monmarché, Nicolas, Christiane Guinot e Gilles Venturini. "Fouille visuelle et classification de données par nuage d'insectes volants". Revue d'intelligence artificielle 16, n. 6 (1 dicembre 2002): 729–52. http://dx.doi.org/10.3166/ria.16.729-752.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Novelli, Noël, e David Auber. "Calcul et fouille visuelle orientée-pixel de cubes de données". Revue d'intelligence artificielle 22, n. 3-4 (1 agosto 2008): 329–52. http://dx.doi.org/10.3166/ria.22.329-352.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Derai, Sid Ali, e Abdelhamid Kaabeche. "Modélisation et dimensionnement d’un système hybride Eolien/ Photovoltaïque autonome". Journal of Renewable Energies 19, n. 2 (9 gennaio 2024): 265–76. http://dx.doi.org/10.54966/jreen.v19i2.566.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une méthodologie d’optimisation et de dimensionnement des systèmes hybrides photovoltaïque/éolien avec batteries de stockage est présentée dans ce papier. Cette méthodologie est basée sur les concepts de la probabilité de perte d’énergie (DPSP) comme critère technique et du coût du kilowattheure minimal comme critère économique. La simulation est effectuée sur une période d’analyse d’une année, en utilisant les données horaires de l’irradiation solaire sur le plan horizontal, de la vitesse du vent et de la température ambiante enregistrées au sein du CDER, (Centre de Développement des Energies Renouvelables). Ces données nous ont permis de calculer la puissance horaire produite conjointement par l’aérogénérateur et le générateur photovoltaïque et ce, sur la même période d’analyse. Un profil de consommation journalier type a été adopté, il est supposé identique pour tous les jours de l’année et correspond au profil de consommation rencontré généralement dans les sites isolés.
9

Hachour, Hakim. "De la fouille à la visualisation de données : un processus interprétatif". I2D - Information, données & documents 52, n. 2 (2015): 42. http://dx.doi.org/10.3917/i2d.152.0042.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Casali, Alain, Rosine Cicchetti e Lotfi Lakhal. "Treillis cubes contraints pour la fouille de bases de données multidimensionnelles". Techniques et sciences informatiques 22, n. 10 (1 dicembre 2003): 1325–52. http://dx.doi.org/10.3166/tsi.22.1325-1352.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Tesi sul tema "Fouille de données hybride":

1

Shahzad, Atif. "Une Approche Hybride de Simulation-Optimisation Basée sur la fouille de Données pour les problèmes d'ordonnancement". Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00647353.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une approche hybride basée sur la fouille de données pour découvrir de nouvelles règles de priorité pour le problème l'ordonnancement job-shop est présentée. Cette approche est basée sur la recherche de connaissances supposées être intégrés dans les solutions efficaces fournies par un module d'optimisation préalablement mis en oeuvre et utilisant la recherche tabou. L'objectif est de découvrir les principes directeurs de l'ordonnancement à l'aide de la fouille de données et donc d'obtenir un ensemble de règles capables d'obtenir des solutions efficaces pour un problème d'ordonnancement. Une structure basée sur fouille de données est présentée et mise en œuvre pour un problème de job shop avec comme objectifs le retard maximum et le retard moyen. Les résultats obtenus sont très prometteurs.
2

Shahzad, Muhammad Atif. "Une approche hybride de simulation-optimisation basée sur la fouille de données pour les problèmes d'ordonnancement". Nantes, 2011. http://archive.bu.univ-nantes.fr/pollux/show.action?id=53c8638a-977a-4b85-8c12-6dc88d92f372.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une approche hybride basée sur la fouille de données pour découvrir de nouvelles règles de priorité pour le problème d'ordonnancement job-shop est présentée. Cette approche est basée sur la recherche de connaissances supposées être intégrés dans les solutions efficaces fournies par un module d'optimisation préalablement mis en oeuvre et utilisant la recherche tabou. L'objectif est de découvrir les principes directeurs de l’ordonnancement à l'aide de la fouille de données et donc d'obtenir un ensemble de règles capables d’obtenir des solutions efficaces pour un problème d'ordonnancement. Une structure basée sur fouille de données est présentée et mise en oeuvre pour un problème de job shop avec comme objectifs le retard maximum et le retard moyen. Les résultats obtenus sont très prometteurs
A data mining based approach to discover previously unknown priority dispatching rules for job shop scheduling problem is presented. This approach is based upon seeking the knowledge that is assumed to be embedded in the efficient solutions provided by the optimization module built using tabu search. The objective is to discover the scheduling concepts using data mining and hence to obtain a set of rules capable of approximating the efficient solutions for a job shop scheduling problem (JSSP). A data mining based scheduling framework is presented and implemented for a job shop problem with maximum lateness and mean tardiness as the scheduling objectives. The results obtained are very promising
3

Theobald, Claire. "Bayesian Deep Learning for Mining and Analyzing Astronomical Data". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0081.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous abordons le problème de la confiance que nous pouvons avoir en des systèmes prédictifs de type réseaux profonds selon deux directions de recherche complémentaires. Le premier axe s'intéresse à la capacité d'une IA à estimer de la façon la plus juste possible son degré d'incertitude liée à sa prise de décision. Le second axe quant à lui se concentre sur l'explicabilité de ces systèmes, c'est-à-dire leur capacité à convaincre l'utilisateur humain du bien fondé de ses prédictions. Le problème de l'estimation des incertitudes est traité à l'aide de l'apprentissage profond bayésien. Les réseaux de neurones bayésiens admettent une distribution de probabilité sur leurs paramètres, qui leur permettent d'estimer différents types d'incertitudes. Tout d'abord, l'incertitude aléatoire qui est liée aux données, mais également l'incertitude épistémique qui quantifie le manque de connaissance que le modèle possède sur la distribution des données. Plus précisément, cette thèse propose un modèle de réseau de neurones bayésien capable d'estimer ces incertitudes dans le cadre d'un problème de régression multivarié. Ce modèle est appliqué dans le contexte du projet ANR "AstroDeep'' à la régression des ellipticités complexes sur des images de galaxies. Ces dernières peuvent être corrompues par différences sources de perturbation et de bruit qui peuvent être estimées de manière fiable par les différentes incertitudes. L'exploitation de ces incertitudes est ensuite étendue à la cartographie de galaxies, puis au "coaching'' du réseau de neurones bayésien. Cette dernière technique consiste à générer des données de plus en plus complexes durant l'apprentissage du modèle afin d'en améliorer les performances. Le problème de l'explicabilité est quant à lui abordé via la recherche d'explications contrefactuelles. Ces explications consistent à identifier quels changements sur les paramètres en entrée auraient conduit à une prédiction différente. Notre contribution dans ce domaine s'appuie sur la génération d'explications contrefactuelles basées sur un autoencodeur variationnel (VAE) et sur un ensemble de prédicteurs entrainés sur l'espace latent généré par le VAE. Cette méthode est plus particulièrement adaptée aux données en haute dimension, telles que les images. Dans ce cas précis, nous parlerons d'explications contrefactuelles visuelles. En exploitant à la fois l'espace latent et l'ensemble de prédicteurs, nous arrivons à produire efficacement des explications contrefactuelles visuelles atteignant un degré de réalisme supérieur à plusieurs méthodes de l'état de l'art
In this thesis, we address the issue of trust in deep learning predictive systems in two complementary research directions. The first line of research focuses on the ability of AI to estimate its level of uncertainty in its decision-making as accurately as possible. The second line, on the other hand, focuses on the explainability of these systems, that is, their ability to convince human users of the soundness of their predictions.The problem of estimating the uncertainties is addressed from the perspective of Bayesian Deep Learning. Bayesian Neural Networks assume a probability distribution over their parameters, which allows them to estimate different types of uncertainties. First, aleatoric uncertainty which is related to the data, but also epistemic uncertainty which quantifies the lack of knowledge the model has on the data distribution. More specifically, this thesis proposes a Bayesian neural network can estimate these uncertainties in the context of a multivariate regression task. This model is applied to the regression of complex ellipticities on galaxy images as part of the ANR project "AstroDeep''. These images can be corrupted by different sources of perturbation and noise which can be reliably estimated by the different uncertainties. The exploitation of these uncertainties is then extended to galaxy mapping and then to "coaching'' the Bayesian neural network. This last technique consists of generating increasingly complex data during the model's training process to improve its performance.On the other hand, the problem of explainability is approached from the perspective of counterfactual explanations. These explanations consist of identifying what changes to the input parameters would have led to a different prediction. Our contribution in this field is based on the generation of counterfactual explanations relying on a variational autoencoder (VAE) and an ensemble of predictors trained on the latent space generated by the VAE. This method is particularly adapted to high-dimensional data, such as images. In this case, they are referred as counterfactual visual explanations. By exploiting both the latent space and the ensemble of classifiers, we can efficiently produce visual counterfactual explanations that reach a higher degree of realism than several state-of-the-art methods
4

Boudane, Abdelhamid. "Fouille de données par contraintes". Thesis, Artois, 2018. http://www.theses.fr/2018ARTO0403/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous abordons les problèmes bien connus de clustering et de fouille de règles d’association. Notre première contribution introduit un nouveau cadre de clustering, où les objets complexes sont décrits par des formules propositionnelles. Premièrement, nous adaptons les deux fameux algorithmes de clustering, à savoir, le k-means et l’algorithme hiérarchique ascendant, pour traiter ce type d’objets complexes. Deuxièmement, nous introduisons un nouvel algorithme hiérarchique descendant pour le clustering des objets représentés explicitement par des ensembles de modèles. Enfin, nous proposons un encodage basé sur la satisfiabilité propositionnelle du problème de clustering des formules propositionnelles sans avoir besoin d’une représentation explicite de leurs modèles. Dans une seconde contribution, nous proposons une nouvelle approche basée sur la satisfiabilité pour extraire les règles d’association en une seule étape. La tâche est modélisée comme une formule propositionnelle dont les modèles correspondent aux règles à extraire. Pour montrer la flexibilité de notre cadre, nous abordons également d’autres variantes, à savoir, l’extraction des règles d’association fermées, minimales non redondantes, les plus générales et les indirectes. Les expérimentations sur de nombreux jeux de données montrent que sur la majorité des tâches de fouille de règles d’association considérées, notre approche déclarative réalise de meilleures performances que les méthodes spécialisées
In this thesis, We adress the well-known clustering and association rules mining problems. Our first contribution introduces a new clustering framework, where complex objects are described by propositional formulas. First, we extend the two well-known k-means and hierarchical agglomerative clustering techniques to deal with these complex objects. Second, we introduce a new divisive algorithm for clustering objects represented explicitly by sets of models. Finally, we propose a propositional satisfiability based encoding of the problem of clustering propositional formulas without the need for an explicit representation of their models. In a second contribution, we propose a new propositional satisfiability based approach to mine association rules in a single step. The task is modeled as a propositional formula whose models correspond to the rules to be mined. To highlight the flexibility of our proposed framework, we also address other variants, namely the closed, minimal non-redundant, most general and indirect association rules mining tasks. Experiments on many datasets show that on the majority of the considered association rules mining tasks, our declarative approach achieves better performance than the state-of-the-art specialized techniques
5

Cohen, Jérémy E. "Fouille de données tensorielles environnementales". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT054/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Parmi les techniques usuelles de fouille de données, peu sont celles capables de tirer avantage de la complémentarité des dimensions pour des données sous forme de tableaux à plusieurs dimensions. A l'inverse les techniques de décomposition tensorielle recherchent spécifiquement les processus sous-jacents aux données, qui permettent d'expliquer les données dans toutes les dimensions. Les travaux rapportés dans ce manuscrit traitent de l'amélioration de l'interprétation des résultats de la décomposition tensorielle canonique polyadique par l'ajout de connaissances externes au modèle de décomposition, qui est par définition un modèle aveugle n'utilisant pas la connaissance du problème physique sous-jacent aux données. Les deux premiers chapitres de ce manuscrit présentent respectivement les aspects mathématiques et appliqués des méthodes de décomposition tensorielle. Dans le troisième chapitre, les multiples facettes des décompositions sous contraintes sont explorées à travers un formalisme unifié. Les thématiques abordées comprennent les algorithmes de décomposition, la compression de tenseurs et la décomposition tensorielle basée sur les dictionnaires. Le quatrième et dernier chapitre présente le problème de la modélisation d'une variabilité intra-sujet et inter-sujet au sein d'un modèle de décomposition contraint. L'état de l'art en la matière est tout d'abord présenté comme un cas particulier d'un modèle flexible de couplage de décomposition développé par la suite. Le chapitre se termine par une discussion sur la réduction de dimension et quelques problèmes ouverts dans le contexte de modélisation de variabilité sujet
Among commonly used data mining techniques, few are those which are able to take advantage of the multiway structure of data in the form of a multiway array. In contrast, tensor decomposition techniques specifically look intricate processes underlying the data, where each of these processes can be used to describe all ways of the data array. The work reported in the following pages aims at incorporating various external knowledge into the tensor canonical polyadic decomposition, which is usually understood as a blind model. The first two chapters of this manuscript introduce tensor decomposition techniques making use respectively of a mathematical and application framework. In the third chapter, the many faces of constrained decompositions are explored, including a unifying framework for constrained decomposition, some decomposition algorithms, compression and dictionary-based tensor decomposition. The fourth chapter discusses the inclusion of subject variability modeling when multiple arrays of data are available stemming from one or multiple subjects sharing similarities. State of the art techniques are studied and expressed as particular cases of a more general flexible coupling model later introduced. The chapter ends on a discussion on dimensionality reduction when subject variability is involved, as well a some open problems
6

Turmeaux, Teddy. "Contraintes et fouille de données". Orléans, 2004. http://www.theses.fr/2004ORLE2048.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La fouille de données est un domaine de recherche actif, visant à découvrir des connaissances implicites dans des bases de données. Nous étudions ici l'intérêt de formalismes issus de la logique du premier ordre pour la fouille de données. En particulier, nous examinons l'intérêt des contraintes, vues comme des formules du premier ordre et interprétées sur un domaine particulier. Un point important de tout formalisme utilisé en ECD est la définition d'une relation de généralité qui permet de structurer l'espace des motifs, et de faciliter ainsi la recherche de motifs intéressants. Nous nous intéressons tout d'abord aux bases de données contraintes qui étendent à la fois les bases de données relationnelles, déductives et spatiales, et qui permettent la définition d'ensembles infinis grâce à la notion de tuples généralisés. Nous étudions ensuite le formalisme des clauses contraintes utilisées en Programmation Logique avec Contraintes. Nous reprenons la définition classique de généralité entre clauses contraintes et nous déterminons dans ce cadre le moindre généralisé, le moindre spécialisé et des opérateurs de raffinement. Nous montrons comment les calculer en pratique sur plusieurs domaines de contraintes spécifiques. Enfin nous introduisons un nouveau motif: les règles caractéristiques. Ces règles sont la combinaison d'un chemin quantifié et d'une contrainte et permettent de capturer la notion de lien entre entités et de contraintes sur ces entités. Nous montrons l'intérêt de telles règles dans le cadre de bases de données géographiques, notamment sur des données géologiques fournies par le Bureau de Recherche Géologique et Minières.
7

Prudhomme, Elie. "Représentation et fouille de données volumineuses". Thesis, Lyon 2, 2009. http://www.theses.fr/2009LYO20048/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le stockage n'étant plus soumis à des contraintes de coût importantes, les systèmes d'information collectent une quantité croissante de données, souvent via des processus d'acquisition automatique. En parallèle, les objets d'intérêt sont devenus plus complexes. C'est le cas, par exemple, des images, du texte ou encore des puces à ADN. Pour leur analyse, les méthodes d'apprentissage doivent alors prendre en compte l'augmentation massive et conjointe du nombre d'exemples et d'attributs qui en résultent. Or, les outils classiques de l'apprentissage automatique ne sont pas toujours adaptés à ce changement de volumétrie tant au niveau de leur complexité algorithmique que pour appréhender la structure des données. Dans ce contexte de données volumineuses en apprentissage supervisé, nous nous sommes intéressés à l'extraction de deux catégories de connaissances, conjointement à la prédiction, la première relative à l'organisation des exemples entre eux et la seconde relative aux interactions qui existent entre les attributs. Pour nous intéresser aux relations entre les exemples, nous définissons le concept de représentation en apprentissage supervisé comme une modélisation et une visualisation des données à la fois du point de vue de la proximité entre les exemples et du lien entre la position des exemples et leur étiquette. Parmi les différents algorithmes recensés qui conduisent à l'obtention d'une telle représentation, nous retenons les cartes auto-organisatrices qui présentent la plus faible complexité algorithmique, ce qui les rend adaptées aux données volumineuses. L'algorithme des cartes auto-organisatrices étant nonsupervis é, nous proposons une adaptation à l'apprentissage supervisé par le biais des cartes étiquetées (Prudhomme et Lallich, 2005b). Nous montrons également qu'il est possible de valider statistiquement la qualité de la représentation obtenue par une telle carte (Prudhomme et Lallich, 2005a). Les statistiques que nous proposons sont corrélées avec le taux d'erreur en généralisation, ce qui permet de juger a priori de la qualité de la prédiction qui résulte de la carte. Néanmoins, la prédiction des cartes auto-organisatrices n'est pas toujours satisfaisante face à des données en grandes dimensions. Dans ce cas, nous avons recours aux méthodes ensemblistes. Ces méthodes agrègent la prédiction de plusieurs classifieurs simples. En créant une certaine diversité entre les prédictions de ces classifieurs, les méthodes ensemblistes améliorent la prédiction qui aurait été obtenue par un seul classifieur. Pour créer cette diversité, nous apprenons chaque classifieur simple (dans notre cas, des cartes auto-organisatrices) sur un sous-espace de l'espace d'apprentissage. La diversité est ainsi l'occasion de diminuer la dimensionnalité du problème. Afin de choisir au mieux les sous-espaces, nous nous sommes inspirés des connaissances théoriques disponibles sur la répartition de l'erreur en généralisation d'un ensemble. Nous avons alors proposé deux heuristiques. La première heuristique est non-supervisée. Elle repose sur l'interprétation des corrélations entre attributs pour déterminer les sous-espaces à apprendre (Prudhomme et Lallich, 2007). La seconde heuristique, au contraire, est supervisée. Elle optimise par un algorithme génétique une mesure de l'erreur d'un ensemble en fonction de l'erreur des classifieurs qui le composent (Prudhomme et Lallich, 2008b). Ces deux heuristiques conduisent à des ensembles de cartes (ou des comités de cartes) dont l'erreur en généralisation est plus faible que celle d'une carte seule apprise sur la totalité des attributs. Néanmoins, ils conduisent également à une multitude de représentations. Pour proposer une seule représentation à l'issue de l'apprentissage, nous introduisons la notion de stacking géographique. (...)
/
8

Braud, Agnès. "Fouille de données par algorithmes génétiques". Orléans, 2002. http://www.theses.fr/2002ORLE2011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La fouille de données est un processus visant à la découverte de connaissances potentiellement utiles, enfouies dans les bases de données. Parmi les problématiques de ce domaine, nous nous intéressons à l'apprentissage de concepts à partir d'exemples. Nous nous concentrons sur l'apprentissage de descriptions de concepts exprimées sous forme d'un ensemble de règles, et sur l'apport des algorithmes génétiques dans ce domaine.
9

Francisci, Dominique. "Techniques d'optimisation pour la fouille de données". Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00216131.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les technologies numériques ont engendré depuis peu, des volumes de données importants, qui peuvent receler des informations utiles. Ceci a donné naissance à l'extraction de connaissances à partir des données qui désigne le processus d'extraction d'informations implicites, précédemment inconnues et potentiellement utiles enfouies dans les données. La fouille de données comprend cinq phases dont la principale est l'extraction de modèles. Nous nous intéressons aux connaisances exprimées sous la forme de règles de dépendance et à la qualité de ces règles. Une règle de dépendance est une implication conditionnelle entre ensembles d'attributs. Les algorithmes standard ont pour but de rechercher les meilleurs modèles. Derrière ces processus se cache en fait une véritable problématique d'optimisation. Nous considérons la recherche des règles de dépendance les plus intéressantes comme étant un problème d'optimisation dans lequel la qualité d'une règle est quantifiée par des mesures. Ainsi, il convient d'étudier les espaces de recherche induits par les mesures ainsi que les algorithmes de recherche dans ces espaces. Il ressort que la plupart des mesures observées présentent des propriétés différentes suivant le jeu de données. Une approche analytique n'est donc pas envisageable dans fixer certains paramères. Nous observons les variations relatives de mesures évaluées simultanément ; certaines d'entre elles sont antagonistes ce qui ne permet pas d'obtenir "la" meilleure règle ; il faut alors considérer un ensemble de compromis satisfaisants. Nous apportons des solutions par le biais des algorithmes génétiques.
10

Collard, Martine. "Fouille de données, Contributions Méthodologiques et Applicatives". Habilitation à diriger des recherches, Université Nice Sophia Antipolis, 2003. http://tel.archives-ouvertes.fr/tel-01059407.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés dans ce mémoire, ont été développés sur le thème de la découverte de motifs intéressants à travers la fouille de données et mis en oeuvre dans le cadre de la conception de systèmes d'information. Ils sont essentiellement consacrés aux problèmes soulevés par l'étape de fouille pour la découverte de modèles et de motifs fréquents. Ils sont à la fois d'ordre méthodologique et applicatif.

Libri sul tema "Fouille de données hybride":

1

Tan, Pang-Ning. Introduction to Data Mining. ADDISON WESLEY PUBLI, 2006.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Web metrics for library and information professionals. Facet Publishing, 2013.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Stuart, David. Web Metrics for Library and Information Professionals. Facet Publishing, 2017.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Big Data Work Dispelling The Myths Uncovering The Opportunities. Harvard Business Press, 2014.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Capitoli di libri sul tema "Fouille de données hybride":

1

Bayat, Sahar, Marc Cuggia, Delphine Rossille e Luc Frimar. "Prédire l’accès à la liste d’attente de transplantation rénale: comparaison de deux méthodes de fouille de données". In Informatique et Santé, 239–50. Paris: Springer Paris, 2009. http://dx.doi.org/10.1007/978-2-287-99305-3_22.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Goetz, Christophe, Aurélien Zang e Nicolas Jay. "Apports d’une méthode de fouille de données pour la détection des cancers du sein incidents dans les données du programme de médicalisation des systèmes d’information". In Informatique et Santé, 189–99. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_17.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

"3. Les données de la fouille". In Une ferme seigneuriale au XIVe siècle. Éditions de la Maison des sciences de l’homme, 1989. http://dx.doi.org/10.4000/books.editionsmsh.34495.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

"Walīlā aux Moyen Age : les données de la fouille". In Volubilis après Rome, 74–108. BRILL, 2018. http://dx.doi.org/10.1163/9789004371583_010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

PROVAN, Gregory. "Diagnostic des systèmes stochastiques". In Diagnostic et commande à tolérance de fautes 1, 145–66. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9058.ch4.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La prise en compte de l’incertitude est cruciale pour la détection précise des défauts. L'incertitude peut provenir de modèles imprécis ou de mesures bruitées. Une approche standard en deux étapes identifie les défauts par des résidus. Nous proposons un cadre de principes pour classifier les méthodes de diagnostic stochastique et guider leur application. Trois approches principales sont explorées : modèle, données et hybride.
6

Nagatsuka, Makoto. "L’exception du droit d’auteur japonais favorisant la fouille de texte et de données (TDM)". In L'entreprise et l'intelligence artificielle - Les réponses du droit, 315–32. Presses de l’Université Toulouse 1 Capitole, 2022. http://dx.doi.org/10.4000/books.putc.15424.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Lechevrel, Nadège. "Chapitre 5. Fouille de données textuelles et recherche documentaire automatiques pour l’histoire des théories linguistiques". In Apparenter la pensée ?, 219. Editions Matériologiques, 2014. http://dx.doi.org/10.3917/edmat.charb.2014.01.0219.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Gérard Yao, Kouamé. "Les seuils du théâtre". In D'un seuil à l'autre, 189–97. Editions des archives contemporaines, 2017. http://dx.doi.org/10.17184/eac.771.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le théâtre s'offre comme un sol idéal pour faire l'expérience et l'étude des seuils. D'une part, dans son rapport à la vie réelle dont il procède, le théâtre soulève la question du seuil comme limite ou obstacle entre deux choses données. Art de la représentation dramatique et scénique de la vie, le théâtre tient celle-ci à distance en raison de sa nature artistique; ce qui fait du théâtre la limite de la vie réelle. En outre, quoique de nature différente, le théâtre et la vie ne sont pas séparés par une frontière étanche. Au contraire, le premier se présente comme une entrée discrète creusée au sein de la seconde pour mieux la surprendre, l'interroger, la connaître et, au besoin, la transformer. De ce point de vue, le théâtre emprunte au seuil l'idée d'entrée. Enfin, la nature hybride même du théâtre pose le problème du seuil comme l'entre-deux, voire la synthèse de deux réalités hétérogènes. Le théâtre est-il un art poétique et/ou un art du spectacle? Suivant les différentes approches historiques et esthétiques de la question, il ressort que le théâtre est tout à la fois l'un et l'autre, même si, d'un autre point de vue, le versant poétique du théâtre peut se maintenir sans s'adosser forcément au versant spectaculaire et vice versa. En d'autres termes, le théâtre est le seuil esthétique où se touchent, se confondent et se fécondent mutuellement l'art poétique et l'art de la scène ou art du spectacle. Art par excellence de la combinaison, le théâtre n'est pas que le seuil entre poièsis et opsis, il est aussi et surtout un carrefour des arts et non une frontière de séparation posée entre les différents arts qu'il utilise puisqu'il montre que différents arts peuvent se fondre en un autre et donner naissance à une sorte de méta-art comme on parlerait de métadiscours. Pour tout dire, le théâtre se présente comme un seuil artistique culturel, celui où différents arts et cultures entrent en dialogue et s'enrichissent mutuellement en donnant naissance à une réalité nouvelle. De ce point de vue, il répond parfaitement à la conception de la culture défendue par Léopold Sédar Senghor, à savoir le rendez-vous du donner et du recevoir. Il est l'espace privilégié et même la promesse de la réalisation du donner et du recevoir rêvés par ce penseur et poète africain. Ce sont tous ces différents seuils qui, abordés dans la présente étude, en font «Le théâtre des seuils».

Atti di convegni sul tema "Fouille de données hybride":

1

Sureau, Florian, Fatma Bouali e Gilles Venturini. "Extension de DataTube pour la fouille visuelle de données temporelles". In the 20th International Conference of the Association Francophone d'Interaction Homme-Machine. New York, New York, USA: ACM Press, 2008. http://dx.doi.org/10.1145/1512714.1512722.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Rapporti di organizzazioni sul tema "Fouille de données hybride":

1

Nédellec, Claire, Adeline Nazarenko, Francis André, Catherine Balivo, Béatrice Daille, Anastasia Drouot, Jorge Flores et al. Recommandations sur l’analyse automatique de documents : acquisition, gestion, exploration. Ministère de l'enseignement supérieur et de la recherche, settembre 2019. http://dx.doi.org/10.52949/10.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le groupe de travail "Fouille de textes et analyse de données" du Comité pour la science ouverte émet des recommandations sur les bonnes pratiques pour l'analyse de données. Elles portent sur l'acquisition et le partage des documents, l'utilisation de logiciels de gestion, d’exploration ou d’analyse, l'exploitation des résultats et la diffusion d’extraits de documents.
2

Béjaoui, Ali, Sylvie St-Onge, Ingrid Peignier e Felix Bellesteros Leivas. Les diverses facettes du travail hybride. Seconds résultats d’un projet longitudinal de recherche. CIRANO, ottobre 2023. http://dx.doi.org/10.54932/qymj5601.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La pandémie de 2020 a forcé le travail à distance pour de nombreux travailleurs au Canada. Aujourd’hui, plusieurs d’entre eux continuent de travailler à distance, au moins en partie. Ce nouveau mode d’organisation « hybride » permet d’offrir aux employés une plus grande flexibilité. Quels sont les divers modes de travail hybrides adoptés par les employés ? Quels sont leurs déterminants, leurs incidences ainsi que leurs conditions de succès ? Une équipe du CIRANO mène une étude longitudinale novatrice auprès d’employé(e)s de plusieurs organisations afin d’offrir des données probantes pour aider les employeurs. Ce texte résume les principaux résultats de la première et de la seconde phase du projet menées au Québec à l’été 2022 et au printemps 2023. La troisième et dernière phase de la recherche aura lieu à l’hiver 2024.
3

Rousseau, Henri-Paul. Gutenberg, L’université et le défi numérique. CIRANO, dicembre 2022. http://dx.doi.org/10.54932/wodt6646.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Introduction u cours des deux derniers millénaires, il y a eu plusieurs façons de conserver, transmettre et même créer la connaissance ; la tradition orale, l’écrit manuscrit, l’écrit imprimé et l’écrit numérisé. La tradition orale et le manuscrit ont dominé pendant plus de 1400 ans, et ce, jusqu’à l’apparition du livre imprimé en 1451, résultant de l’invention mécanique de Gutenberg. Il faudra attendre un peu plus de 550 ans, avant que l’invention du support électronique déloge à son tour le livre imprimé, prenant une ampleur sans précédent grâce à la révolution numérique contemporaine, résultat du maillage des technologies de l’informatique, de la robotique et de la science des données. Les premières universités qui sont nées en Occident, au Moyen Âge, ont développé cette tradition orale de la connaissance tout en multipliant l’usage du manuscrit créant ainsi de véritables communautés de maîtres et d’étudiants ; la venue de l’imprimerie permettra la multiplication des universités où l’oral et l’écrit continueront de jouer un rôle déterminant dans la création et la transmission des connaissances même si le « support » a évolué du manuscrit à l’imprimé puis vers le numérique. Au cours de toutes ces années, le modèle de l’université s’est raffiné et perfectionné sur une trajectoire somme toute assez linéaire en élargissant son rôle dans l’éducation à celui-ci de la recherche et de l’innovation, en multipliant les disciplines offertes et les clientèles desservies. L’université de chaque ville universitaire est devenue une institution florissante et indispensable à son rayonnement international, à un point tel que l’on mesure souvent sa contribution par la taille de sa clientèle étudiante, l’empreinte de ses campus, la grandeur de ses bibliothèques spécialisées ; c’est toutefois la renommée de ses chercheurs qui consacre la réputation de chaque université au cours de cette longue trajectoire pendant laquelle a pu s’établir la liberté universitaire. « Les libertés universitaires empruntèrent beaucoup aux libertés ecclésiastiques » : Étudiants et maîtres, qu'ils furent, ou non, hommes d'Église, furent assimilés à des clercs relevant de la seule justice ecclésiastique, réputée plus équitable. Mais ils échappèrent aussi largement à la justice ecclésiastique locale, n'étant justiciables que devant leur propre institution les professeurs et le recteur, chef élu de l’université - ou devant le pape ou ses délégués. Les libertés académiques marquèrent donc l’émergence d'un droit propre, qui ménageait aux maîtres et aux étudiants une place à part dans la société. Ce droit était le même, à travers l'Occident, pour tous ceux qui appartenaient à ces institutions supranationales que furent, par essence, les premières universités. À la fin du Moyen Âge, l'affirmation des États nationaux obligea les libertés académiques à s'inscrire dans ce nouveau cadre politique, comme de simples pratiques dérogatoires au droit commun et toujours sujettes à révision. Vestige vénérable de l’antique indépendance et privilège octroyé par le prince, elles eurent donc désormais un statut ambigu » . La révolution numérique viendra fragiliser ce statut. En effet, la révolution numérique vient bouleverser cette longue trajectoire linéaire de l’université en lui enlevant son quasi monopole dans la conservation et le partage du savoir parce qu’elle rend plus facile et somme toute, moins coûteux l’accès à l’information, au savoir et aux données. Le numérique est révolutionnaire comme l’était l’imprimé et son influence sur l’université, sera tout aussi considérable, car cette révolution impacte radicalement tous les secteurs de l’économie en accélérant la robotisation et la numérisation des processus de création, de fabrication et de distribution des biens et des services. Ces innovations utilisent la radio-identification (RFID) qui permet de mémoriser et de récupérer à distance des données sur les objets et l’Internet des objets qui permet aux objets d’être reliés automatiquement à des réseaux de communications .Ces innovations s’entrecroisent aux technologies de la réalité virtuelle, à celles des algorithmiques intelligentes et de l’intelligence artificielle et viennent littéralement inonder de données les institutions et les organisations qui doivent alors les analyser, les gérer et les protéger. Le monde numérique est né et avec lui, a surgi toute une série de compétences radicalement nouvelles que les étudiants, les enseignants et les chercheurs de nos universités doivent rapidement maîtriser pour évoluer dans ce Nouveau Monde, y travailler et contribuer à la rendre plus humain et plus équitable. En effet, tous les secteurs de l’activité commerciale, économique, culturelle ou sociale exigent déjà clairement des connaissances et des compétences numériques et technologiques de tous les participants au marché du travail. Dans cette nouvelle logique industrielle du monde numérique, les gagnants sont déjà bien identifiés. Ce sont les fameux GAFAM (Google, Apple, Facebook, Amazon et Microsoft) suivis de près par les NATU (Netflix, Airbnb, Tesla et Uber) et par les géants chinois du numérique, les BATX (Baidu, Alibaba, Tenant et Xiaomi). Ces géants sont alimentés par les recherches, les innovations et les applications mobiles (APPs) créées par les partenaires de leurs écosystèmes regroupant, sur différents campus d’entreprises, plusieurs des cerveaux qui sont au cœur de cette révolution numérique. L’université voit donc remise en question sa capacité traditionnelle d’attirer, de retenir et de promouvoir les artisans du monde de demain. Son aptitude à former des esprits critiques et à contribuer à la transmission des valeurs universelles est également ébranlée par ce tsunami de changements. Il faut cependant reconnaître que les facultés de médecine, d’ingénierie et de sciences naturelles aux États-Unis qui ont développé des contacts étroits, abondants et suivis avec les hôpitaux, les grandes entreprises et l’administration publique et cela dès la fin du 19e siècle ont été plus en mesure que bien d’autres, de recruter et retenir les gens de talent. Elle ont énormément contribué à faire avancer les connaissances scientifiques et la scolarisation en sciences appliquées ..La concentration inouïe des Prix Nobel scientifiques aux États-Unis est à cet égard très convaincante . La révolution numérique contemporaine survient également au moment même où de grands bouleversements frappent la planète : l’urgence climatique, le vieillissement des populations, la « déglobalisation », les déplacements des populations, les guerres, les pandémies, la crise des inégalités, de l’éthique et des démocraties. Ces bouleversements interpellent les universitaires et c’est pourquoi leur communauté doit adopter une raison d’être et ainsi renouveler leur mission afin des mieux répondre à ces enjeux de la civilisation. Cette communauté doit non seulement se doter d’une vision et des modes de fonctionnement adaptés aux nouvelles réalités liées aux technologies numériques, mais elle doit aussi tenir compte de ces grands bouleversements. Tout ceci l’oblige à s’intégrer à des écosystèmes où les connaissances sont partagées et où de nouvelles compétences doivent être rapidement acquises. Le but de ce texte est de mieux cerner l’ampleur du défi que pose le monde numérique au milieu universitaire et de proposer quelques idées pouvant alimenter la réflexion des universitaires dans cette démarche d’adaptation au monde numérique. Or, ma conviction la plus profonde c’est que la révolution numérique aura des impacts sur nos sociétés et notre civilisation aussi grands que ceux provoqués par la découverte de l’imprimerie et son industrialisation au 15e siècle. C’est pourquoi la première section de ce document est consacrée à un rappel historique de la révolution de l’imprimerie par Gutenberg alors que la deuxième section illustrera comment les caractéristiques de la révolution numérique viennent soutenir cette conviction si profonde. Une troisième section fournira plus de détails sur le défi d’adaptation que le monde numérique pose aux universités alors que la quatrième section évoquera les contours du changement de paradigme que cette adaptation va imposer. La cinquième section servira à illustrer un scénario de rêves qui permettra de mieux illustrer l’ampleur de la gestion du changement qui guette les universitaires. La conclusion permettra de revenir sur quelques concepts et principes clefs pour guider la démarche vers l’action. L’université ne peut plus « être en haut et seule », elle doit être « au centre et avec » des écosystèmes de partenariats multiples, dans un modèle hybride physique/virtuel. C’est ainsi qu’elle pourra conserver son leadership historique de vigie du savoir et des connaissances d’un monde complexe, continuer d’établir l’authenticité des faits et imposer la nécessaire rigueur de la science et de l’objectivité.

Vai alla bibliografia