Дисертації з теми "Bruit des ensembles de données"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Bruit des ensembles de données.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Bruit des ensembles de données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Al, Jurdi Wissam. "Towards next generation recommender systems through generic data quality." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCD005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes de recommandation sont essentiels pour filtrer les informations en ligne et fournir un contenu personnalisé, réduisant ainsi l’effort nécessaire pour trouver des informations pertinentes. Ils jouent un rôle crucial dans divers domaines, dont le commerce électronique, en aidant les clients à trouver des produits pertinents, améliorant l’expérience utilisateur et augmentant les ventes. Un aspect significatif de ces systèmes est le concept d’inattendu, qui implique la découverte d’éléments nouveaux et surprenants. Cependant, il est complexe et subjectif, nécessitant une compréhension approfondie des recommandations fortuites pour sa mesure et son optimisation. Le bruit naturel, une variation imprévisible des données, peut influencer la sérendipité dans les systèmes de recommandation. Il peut introduire de la diversité et de l’inattendu dans les recommandations, conduisant à des surprises agréables. Cependant, il peut également réduire la pertinence de la recommandation. Par conséquent, il est crucial de concevoir des systèmes qui équilibrent le bruit naturel et la sérendipité. Cette thèse souligne le rôle de la sérendipité dans l’amélioration des systèmes de recommandation et la prévention des bulles de filtre. Elle propose des techniques conscientes de la sérendipité pour gérer le bruit, identifie les défauts de l’algorithme, suggère une méthode d’évaluation centrée sur l’utilisateur, et propose une architecture basée sur la communauté pour une performance améliorée
Recommender systems are essential for filtering online information and delivering personalized content, thereby reducing the effort users need to find relevant information. They can be content-based, collaborative, or hybrid, each with a unique recommendation approach. These systems are crucial in various fields, including e-commerce, where they help customers find pertinent products, enhancing user experience and increasing sales. A significant aspect of these systems is the concept of unexpectedness, which involves discovering new and surprising items. This feature, while improving user engagement and experience, is complex and subjective, requiring a deep understanding of serendipitous recommendations for its measurement and optimization. Natural noise, an unpredictable data variation, can influence serendipity in recommender systems. It can introduce diversity and unexpectedness in recommendations, leading to pleasant surprises. However, it can also reduce recommendation relevance, causing user frustration. Therefore, it is crucial to design systems that balance natural noise and serendipity. Inconsistent user information due to natural noise can negatively impact recommender systems, leading to lower-quality recommendations. Current evaluation methods often overlook critical user-oriented factors, making noise detection a challenge. To provide powerful recommendations, it’s important to consider diverse user profiles, eliminate noise in datasets, and effectively present users with relevant content from vast data catalogs. This thesis emphasizes the role of serendipity in enhancing recommender systems and preventing filter bubbles. It proposes serendipity-aware techniques to manage noise, identifies algorithm flaws, suggests a user-centric evaluation method, and proposes a community-based architecture for improved performance. It highlights the need for a system that balances serendipity and considers natural noise and other performance factors. The objectives, experiments, and tests aim to refine recommender systems and offer a versatile assessment approach
2

Durand, Marianne. "Combinatoire analytique et algorithmique des ensembles de données." Phd thesis, Ecole Polytechnique X, 2004. http://pastel.archives-ouvertes.fr/pastel-00000810.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite d'algorithmique des ensembles de données en adoptant le point de vue de la combinatoire analytique. On traite ici de trois problèmes qui illustrent cette approche: les listes à sauts associées à de l'analyse asymptotique bivariée, le hachage à essai aléatoire avec pagination et le comptage probabiliste. Les listes à sauts sont une structure de données intermédiaire entre les skiplists et les arbres binaires de recherche. L'étude de cette structure a donné lieu à un problème d'asymptotique bivariée avec coalescence de singularités. Le hachage avec essai aléatoire est un algorithme qui gère les collisions d'une table de hachage. Dans le contexte étudié qui est celui de la pagination, on obtient la moyenne, ainsi que tous les moments successifs du coût de construction. Les algorithmes de comptage probabilistes originaux Loglog et Super Loglog permettent d'estimer le cardinal d'un ensemble en utilisant un kilooctet de mémoire avec une précision d'environ 3%.
3

Pont, Mathieu. "Analysis of Ensembles of Topological Descriptors." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS436.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse topologique de données forme un ensemble d'outils visant à révéler de manière générique, robuste et efficace les caractéristiques structurelles implicites cachées dans des ensembles de données complexes. Ces outils permettent de calculer une représentation topologique pour chaque membre d'un ensemble de données en encodant ses principales caractéristiques d'intérêt de manière concise et informative. Un défi majeur consiste ensuite à concevoir des outils d'analyse pour de tels ensembles de descripteurs topologiques. Plusieurs outils ont été bien étudiées pour les diagrammes de persistance, l'un des descripteurs les plus utilisés. Cependant, ils souffrent d'un manque de spécificité, pouvant donner des représentations de données identiques pour des données significativement différentes. Dans cette thèse, nous avons cherché à développer des outils d'analyse plus avancés pour des ensembles de descripteurs topologiques, capables de résoudre le problème de discriminabilité des diagrammes de persistance et d'aller au-delà de ce qui était déjà disponible pour ces objets. Tout d'abord nous adaptons aux arbres de fusion, descripteurs ayant une meilleur spécificité, les outils déjà disponibles pour les diagrammes de persistance tels que le calcul de distances, géodésiques et barycentres. Ensuite, nous souhaitons aller au-delà de cette simple notion de moyenne qu'est le barycentre pour étudier la variabilité au sein d'un ensemble de descripteurs topologiques. Nous adaptons alors le cadre de l'Analyse en Composantes Principales aux diagrammes de persistance et les arbres de fusion, résultant une méthode de réduction de dimensions qui indique quelles structures dans l'ensemble sont les plus responsables de la variabilité. Cependant, ce cadre permet uniquement de détecter des tendances linéaires de variabilité dans l'ensemble. Pour résoudre ce problème, nous proposons de généraliser ce cadre aux Auto-Encodeurs afin de détecter des motifs non linéaires, i.e. plus complexes, dans un ensembles d'arbres de fusions ou de diagrammes de persistance. Plus précisément, nous proposons une nouvelle couche de réseau de neurones capable de traiter nativement ces objets. Nous présentons des applications de ces travaux pour le suivi de structures dans un ensemble de données variant dans le temps pour la réduction de données pour compresser un ensemble de descripteurs topologiques, dans le partitionnement pour former des groupes homogènes dans un ensemble, et dans la réduction de dimensions pour créer une carte visuelle indiquant comment les données sont organisées les unes par rapport aux autres dans l'ensemble
Topological Data Analysis (TDA) forms a collection of tools to generically, robustly and efficiently reveal implicit structural patterns hidden in complex datasets. These tools allow to compute a topological representation for each member of an ensemble of datasets by encoding its main features of interest in a concise and informative manner. A major challenge consists then in designing analysis tools for such ensembles of topological descriptors. Several tools have been well studied for persistence diagrams, one of the most used descriptor. However, they suffer from a lack of specificity, which can yield identical data representations for significantly distinct datasets. In this thesis, we aimed at developing more advanced analysis tools for ensembles of topological descriptors, capable of tackling the lack of discriminability of persistence diagrams and going beyond what was already available for these objects. First, we adapt to merge trees, descriptors having a better specificity, the tools already available for persistence diagrams such as distances, geodesics and barycenters. Then, we want to go beyond this notion of average being the barycenter in order to study the variability within an ensemble of topological descriptors. We then adapt the Principal Component Analysis framework to persistence diagrams and merge trees, resulting in a dimensionality reduction method that indicates which structures in the ensemble are most responsible for the variability. However, this framework allows only to detect linear patterns of variability in the ensemble. To tackle this we propose to generalize this framework to Auto-Encoder in order to detect non-linear, i.e. more complex, patterns in an ensemble of merge trees or persistence diagrams. Specifically, we propose a new neural network layer capable of processing natively these objects. We present applications of all this work in feature tracking in a time-varying ensemble, data reduction to compress an ensemble of topological descriptors, clustering to form homogeneous groups in an ensemble, and dimensionality reduction to create a visual map indicating how the data are organized regarding each other in the ensemble
4

Boudjeloud-Assala, Baya Lydia. "Visualisation et algorithmes génétiques pour la fouille de grands ensembles de données." Nantes, 2005. http://www.theses.fr/2005NANT2065.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous présentons des approches coopératives combinant des méthodes interactives de visualisation et des méthodes automatiques de sélection de dimensions pour l'extraction de connaissances à partir de données. La plupart des méthodes actuelles de fouille de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Nous souhaitons impliquer de manière plus significative l'utilisateur dans le processus de fouille pour améliorer sa confiance et sa compréhension des modèles ou résultats obtenus. Par ailleurs ces méthodes doivent pouvoir traiter des quantités de plus en plus importantes de données. Nous cherchons aussi à améliorer les performances des algorithmes de fouille pour pouvoir traiter des ensembles de données de grandes dimensions. Nous avons développé un algorithme génétique de sélection de dimensions avec une fonction d'évaluation à base de distance pour la détection d'individu atypique (ou outlier) dans les ensembles de données ayant un grand nombre de dimensions. Cet algorithme recherche les outliers en n'utilisant qu'un petit sous-ensemble de dimensions et permet de retrouver les mêmes individus outliers que dans l'ensemble total des données. On peut ainsi traiter plus facilement de grands ensembles de données. De plus, comme le nombre de dimensions utilisées est faible, nous pouvons utiliser des méthodes de visualisation pour expliquer et interpréter les résultats de l'algorithme de détection d'outlier. Nous pouvons ainsi construire un modèle de l'expertise de l'expert des données pour qualifier les éléments détectés par exemple en tant qu'erreurs ou simplement individus atypiques (outliers). Nous avons ensuite développé une mesure pour la sélection de dimensions en classification non supervisée (clustering) et détection d'outlier. Cette mesure nous permet à la fois de retrouver les mêmes clusters que dans l'ensemble de données avec toutes ses dimensions et des clusters pouvant contenir très peu d'éléments (des outliers). L'interprétation visuelle des résultats obtenus nous indique les dimensions impliquées, ce sont les dimensions pertinentes et intéressantes pour le clustering ou la détection d'outlier. Enfin nous présentons un algorithme génétique semi-interactif permettant d'impliquer l'utilisateur dans le processus de sélection et d'évaluation du sous-ensemble de dimensions à utiliser
We present cooperative approaches using interactive visualization methods and automatic dimension selection methods for knowledge discovery in databases. Most existing data mining methods work in an automatic way, the user is not implied in the process. We try to involve more significantly the user role in the data mining process in order to improve his confidence and comprehensibility of the obtained models or results. Furthermore, the size of data sets is constantly increasing, these methods must be able to deal with large data sets. We try to improve the performances of the algorithms to deal with these high dimensional data sets. We developed a genetic algorithm for dimension selection with a distance-based fitness function for outlier detection in high dimensional data sets. This algorithm uses only a few dimensions to find the same outliers as in the whole data sets and can easily treat high dimensional data sets. The number of dimensions used being low enough, it is also possible to use visualization methods to explain and interpret outlier detection algorithm results. It is then possible to create a model from the data expert for example to qualify the detected element as an outlier or simply an error. We have also developed an evaluation measure for dimension selection in unsupervised classification and outlier detection. This measure enables us to find the same clusters as in the data set with its whole dimensions as well as clusters containing very few elements (outliers). Visual interpretation of the results shows the dimensions implied, they are considered as relevant and interesting for the clustering and outlier detection. Finally we present a semi-interactive genetic algorithm involving more significantly the user in the selection and evaluation process of the algorithm
5

Gueunet, Charles. "Calcul haute performance pour l'analyse topologique de données par ensembles de niveaux." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS120.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse de données topologique nécessite des algorithmes de plus en plus efficaces pour être capable de traiter des jeux de données dont la taille et le niveau de détail augmente continûment. Dans cette thèse, nous nous concentrons sur trois abstractions topologiques fondamentales dérivées des ensembles de niveaux : l'arbre de jointure, l'arbre de contour et le graphe de Reeb. Nous proposons trois nouveaux algorithmes parallèles efficaces pour leur calcul sur des stations de travail composées de processeurs multi-cœur en mémoire partagée. Le premier algorithme élaboré durant cette thèse se base sur du parallélisme multi-thread pour le calcul de l'arbre de contour. Une seconde approche revisite l'algorithme séquentiel de référence pour le calcul de cette structure et se base sur des propagations locales exprimables en tâches parallèles. Ce nouvel algorithme est en pratique deux fois plus rapide en séquentiel que l'algorithme de référence élaboré en 2000 et offre une accélération d'un ordre de grandeur en parallèle. Un dernier algorithme basé sur une approche locale par tâches est également présenté pour une abstraction plus générique : le graphe de Reeb. Contrairement aux approches concurrentes, nos algorithmes construisent les versions augmentées de ces structures, permettant de supporter l'ensemble des applications pour l'analyse de données par ensembles de niveaux. Les méthodes présentées dans ce manuscrit ont donné lieu à des implémentations qui sont les plus rapides parmi celles disponibles pour le calcul de ces abstractions. Ce travail a été intégré à la bibliothèque libre : Topology Toolkit (TTK)
Topological Data Analysis requires efficient algorithms to deal with the continuously increasing size and level of details of data sets. In this manuscript, we focus on three fundamental topological abstractions based on level sets: merge trees, contour trees and Reeb graphs. We propose three new efficient parallel algorithms for the computation of these abstractions on multi-core shared memory workstations. The first algorithm developed in the context of this thesis is based on multi-thread parallelism for the contour tree computation. A second algorithm revisits the reference sequential algorithm to compute this abstraction and is based on local propagations expressible as parallel tasks. This new algorithm is in practice twice faster in sequential than the reference algorithm designed in 2000 and offers one order of magnitude speedups in parallel. A last algorithm also relying on task-based local propagations is presented, computing a more generic abstraction: the Reeb graph. Contrary to concurrent approaches, these methods provide the augmented version of these structures, hence enabling the full extend of level-set based analysis. Algorithms presented in this manuscript result today in the fastest implementations available to compute these abstractions. This work has been integrated into the open-source platform: the Topology Toolkit (TTK)
6

Ndiaye, Marie. "Exploration de grands ensembles de motifs." Thesis, Tours, 2010. http://www.theses.fr/2010TOUR4029/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'abondance des motifs générés par les algorithmes d'extraction de connaissances représente un grand problème dans le domaine de fouille de données. Afin de faciliter l'exploration de ces motifs,deux approches sont souvent utilisées : la première consiste à résumer les ensembles de motifs extraits et la seconde approche repose sur la construction de représentations visuelles de ces motifs. Cependant, les résumés ne sont pas structurés et ils sont proposés sans méthode d'exploration. D'autre part, les représentations visuelles n'offrent pas une vue globale des ensembles de motifs. Nous définissons un cadre générique qui combine les avantages des ces deux approches.Il permet de construire des résumés d'ensembles de motifs à plusieurs niveaux de détail. Ces résumés donnent une vue globale des ensembles de motifs. De plus, ils sont structurés sous forme de cubes sur lesquels des opérateurs de navigation OLAP peuvent être appliqués pour explorer les ensembles de motifs. Par ailleurs, nous proposons un algorithme qui fournit un résumé de bonne qualité dont la taille est inférieure à un seuil donné. Enfin, nous instancions notre cadre avec les règles d'association
The abundance of patterns generated by knowledge extraction algorithms is a major problem in data mining. Ta facilitate the exploration of these patterns, two approaches are often used: the first is to summarize the sets of extracted patterns and the second approach relies on the construction of visual representations of the patterns. However, the summaries are not structured and they are proposed without exploration method. Furthermore, visualizations do not provide an overview of the pattern .sets. We define a generic framework that combines the advantages of bath approaches. It allows building summaries of patterns sets at different levels of detail. These summaries provide an overview of the pattern sets and they are structured in the form of cubes on which OLAP navigational operators can be applied in order to explore the pattern sets. Moreover, we propose an algorithm which provides a summary of good quality whose size is below a given threshold. Finally, we instantiate our framework with association rules
7

Ould, Yahia Sabiha. "Interrogation multi-critères d'une base de données spatio-temporelles." Troyes, 2005. http://www.theses.fr/2005TROY0006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux décrits dans cette thèse s'inscrivent dans le cadre du projet interrégional intitulé CAractérisation Symbolique de SItuations de ConduitE (CASSICE) qui regroupe plusieurs équipes de chercheurs. L'objectif du projet CASSICE est l'automatisation et l'alimentation d'une base de données de situations de conduite. Cela comprend notamment la reconnaissance des manoeuvres. Ces manoeuvres réalisées par le conducteur sont détectées à partir des données issues de capteurs installés sur un véhicule expérimental en situation de conduite réelle. Il s'agit dans cette thèse de proposer une interface permettant à un expert psychologue une analyse des comportements du conducteur mis en évidence par la base de données. Le projet CASSICE permet l'accès à une base de données à représentation continue, numériques ou symboliques, associées à des images. Le langage d'interrogation doit être le plus proche possible des critères de recherche employés par les experts psychologues. Ces fonctionnalités sont proposées dans le système CIBAM (Construction et Interrogation d'une BAse de données Multimédia) qui utilise une méthode d'indexation et d'interrogation multi-critères d'une base de données représentant une situation dynamique
The study of the human behavior in driving situations is of primary importance for the improvement of drivers security. This study is complex because of the numerous situations in which the driver may be involved. The objective of the CASSICE project (Symbolic Characterization of Driving Situations) is to elaborate a tool in order to simplify the analysis task of the driver's behavior. In this paper, we will mainly take an interest in the indexation and querying of a multimedia database including the numerical data and the video sequences relating to a type of driving situations. We will put the emphasis on the queries to this database. They are often complex because they are formulated according to criteria depending on time, space and they use terms of the natural language
8

Guerra, Thierry-Marie. "Analyse de données objectivo-subjectives : Approche par la théorie des sous-ensembles flous." Valenciennes, 1991. https://ged.uphf.fr/nuxeo/site/esupversions/a3f55508-7363-49a4-a531-9d723ff55359.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de cette thèse est, dans le cadre de systèmes à composante humaine, d'établir un lien entre les sous-ensembles flous et l'analyse des données multidimensionnelles. Les sous-ensembles flous ont pris une part de plus en plus importante pour traiter le problème de l'imprécis et de l'incertain. Il semble alors important, dans le cadre de données subjectives, d'inclure des outils propres aux mathématiques floues permettant le traitement de telles données. En conséquence, une première méthode fondée sur la théorie des sous-ensembles aléatoires flous a été mise au point permettant de traiter des questionnaires laissant une liberté importante au répondeur. Dans le domaine complexe des systèmes à composante humaine, les données recueillies sont très souvent de deux types : données subjectives et objectives. Il est alors nécessaire de vérifier l'adéquation entre ces deux types de données recueillies et, dans ce contexte, d'établir s'il existe des relations stables entre ces deux groupes de données. Le formalisme flou utilise pour mettre au point la méthode de traitement de données subjectives a permis le développement d'une méthode multidimensionnelle répondant a ce problème. Cette méthode s'appuie sur les outils classiques des mathématiques floues, l'inférence déductive et le modus ponens généralisé. Ces deux méthodes ont été appliquées à une étude ergonomique d'un poste de travail bureautique et ont permis de mettre en évidence l'efficacité de cette nouvelle approche. Enfin, les perspectives liées aux méthodologies développées sont discutées ainsi que le problème général de l'extraction des connaissances.
9

Dahabiah, Anas. "Extraction de connaissances et indexation de données multimédia pour la détection anticipée d'événements indésirables." Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0117.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Tout système ayant pour but d'analyser ou d'organiser automatiquement un ensemble de données ou de connaissances doit utiliser, sous une forme ou une autre, un opérateur de similarité dont le but est d'établir les ressemblances ou les relations qui existent entre les informations manipulées. Cette notion de similarité a fait l'objet d'importantes recherches dans des domaines extrêmement divers où les informations peuvent comporter des données hétérogènes au niveau de l'échelle de mesure (quantitatives, qualitatives, ordinales, etc. ), et qui peuvent être affectées par des différents types d'imperfection (imprécision, incertitude, ambigüité, ignorance, etc. ). Néanmoins, toutes les mesures qui ont été proposées auparavant prennent en compte uniquement quelques formes de l'hétérogénéité et d'imperfection en négligeant les autres et/ou en ignorant l'existence simultanée de tous ces aspects. De surcroît les approches conçues pour traiter simultanément l'hétérogénéité et l'imperfection de l'information requièrent la définition de nombreuses contraintes et une lourde mise en place. Ces mesures consomment également un temps considérable lors du traitement d'une masse importante de données, comme c'est le cas des différentes applications de Fouille de Données. Dans cette thèse, nous montrons que la théorie des possibilités peut traiter aisément l'hétérogénéité et l'imperfection de l'information offrant, en plus, aux utilisateurs l'option d'exprimer et d'intégrer leurs points de vue lors du calcul de similarité, via des fonctions de tolérance que nous avons proposées. Cette modélisation possibiliste de la similarité a été matérialisée via divers modèles représentatifs spatiaux, graphiques, et structurels, et a été exploitée dans un certain nombre d'applications de Fouille de Données (classification, ordination, estimation) en utilisant une base de données médicales. Nous montrons via les différents exemples que la généralité, la rapidité, la simplicité et l'efficacité de cette approche sont toujours garanties
Similarity measuring is the essential quoin of the majority of data mining techniques and tasks in which information elements can take any type (quantities, qualitative, binary, ordinal, etc. ) and may be affected with various forms of imperfection (uncertainty, imprecision, ambiguity, etc. ). Additionally, the points of view of the experts and data owners must sometimes be considered and integrated even if presented in ambiguous or imprecise manners. Nonetheless, all the existing methods and approaches have partially handled some aspects of the aforementioned points disregarding the others. In reality, the heterogeneity, the imperfection, and the personalization have been separately conducted in prior works, using some constraints and assumptions that can overburden the procedure, limit their applications, and increase its computing time which is a crucial issue in data mining. In this thesis, we propose a novel approach essentially based on possibility theory to deal with all the aforementioned aspects within a unified general integrated framework. In order to get deeper insight and understanding of the information elements, the possibilistic modeling has been materialized via spatial, graphical and structural representations and applied to several data mining tasks using a medical database
10

Raschia, Guillaume. "SaintEtiq : une approche floue pour la génération de résumés à partir de bases de données relationnelles." Nantes, 2001. http://www.theses.fr/2001NANT2099.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans cette thèse s'inscrit dans une double orientation de recherche dont les objectifs sont d'une part la synthèse de données volumineuses, et d'autre part la mise en oeuvre de techniques floues à différents niveaux du processus de résumé. La théorie des ensembles flous (Zadeh, 1965) propose un cadre formel solide pour la représentation des informations imparfaites, notamment par le biais de l'extension possibiliste du modèle relationnel des bases de données. L'intégration de mécanismes issus de la théorie des ensembles flous dans le processus de génération de résumés permet aussi de nuancer les raisonnements, apportant souplesse et robustesse au système. Par ailleurs, le modèle SaintEtiQ détaillé dans cette thèse met en oeuvre un algorithme d'apprentissage de concepts qui génère de façon incrémentale une hiérarchie de résumés partiellement ordonné du plus générique aux plus spécifiques, et individuellement représentatifs d'une partie des données de la base. . .
11

Kaliky, Pierre-Yves. "Etude des modèles de bruit impulsif dans les transmissions de données : Application à un modem numérique utilisant une modulation de phase octavalente." Nancy 1, 1991. http://www.theses.fr/1991NAN10416.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Renard, François. "Inversion de données sismiques : prise en compte de la nature corrélée du bruit." Montpellier 2, 2003. http://www.theses.fr/2003MON20014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Voglozin, W. Amenel Abraham. "Le résumé linguistique de données structurées comme support pour l'interrogation." Nantes, 2007. http://www.theses.fr/2007NANT2040.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans cette thèse traite de l'utilisation des résumés de données dans l'interrogation. Dans le contexte des résumés linguistiques du modèle SaintEtiQ sur lequel se focalise cette thèse, un résumé est une description du contenu d'une table relationnelle. Grâce à la définition de variables linguistiques, il est possible d'tiliser des termes du langage pour caractériser les données structurées de la table. En outre, l'organisation des résumés en hiérarchie offre divers niveaux de granularité. Nous nous intéressons à fournir une application concrète aux résumés déjà construits. D'une part, nous étudions les possibilités d'utilisation des résumés dans une interrogation à but descriptif. L'objectif est de décrire entièrement des données dont certaines caractéristiques sont bien connues. Nous proposons une démarche de recherche de concepts et une instanciation de cette démarche. Ensuite, une étude des systèmes d'interrogation flexible, dont certains ont, ainsi que le SaintEtiQ, la théorie des sous-ensembles flous comme base, nous permet d'enrichir la démarche proposée par des fonctionnalités plus avancées. D'autre part, nous avons intégré les résumés linguistiques de SaintEtiq au SGBD PostgreSQL. L'objectif est d'aider le SGBd à identifier des enregistrements. Nous présentons un état de l'art des techniques d'indexation, ainsi que le détail de l'implémentation des résumés en tant que méthode d'accès dans PostgreSQL.
14

Saint-Paul, Régis. "Une architecture pour le résumé en ligne de données relationnelles et ses applications." Nantes, 2005. http://www.theses.fr/2005NANT2029.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans cette thèse s'inscrit dans une double orientation de recherche dont les objectifs sont d'une part la synthèse de données volumineuses sous forme d'un ensemble organisé de résumés, d'autre part les applications qui peuvent naître d'une telle synthèse. Le processus de résumé envisagé s'appuie sur la théorie des sous-ensembles flous (Zadeh, 1965) pour proposer une représentation linguistique floue des données et permettre ainsi une prise en charge dans un cadre formel des données imparfaites au travers, en particulier, de l'extension possibiliste du modèle relationnel. Les résumés produits proposent ainsi une description d'un sous-ensemble de la base initiale au moyen d'un ensemble de descripteurs linguistiques flous. Le processus est conçu pour permettre une prise en compte incrémentale des modifications qui peuvent être faites sur la base de données résumée. La conception orientée message sur la base de services web du système lui permet d'optimiser les besoins en mémoire vive dans le cadre du traitement de volumes importants et favorise son intégration dans les systèmes d'information existants. Des tests effectués sur des données de taille importante ont permis de valider la capacité du système à passer à l'échelle et de vérifier sa complexité algorithmique linéaire. Enfin, des applications d'aide à la décision, de navigation dans une base de données multimédia, de prototypage ou de classification, conduites sur des données réelles et volumineuses ont pu mettre en évidence l'utilité des résumés produits
This work is intended to provide some contribution in two research area: large database summarization through fuzzy set-based techniques and the application perspectives offered by the produced summaries. The summarization process is based on Zadeh's fuzzy set theory which offers a strong theoretical model for the representation of uncertain or non-precise data, especially through the possibilistic extension of the relational database model. Produced summaries exhibit a description of subsets of the original database at different granularity levels. The process is designed to be able to incrementally take into account the update operations that are performed on the summarized database. Its message-oriented architecture, based on Web-Services, allows the process to optimize memory consumption as well as processing cost. This open architecture is also designed to facilitate the summarization system integration within existing database management systems. Tests, performed on very large datasets, confirmed the process scalability and its linear time complexity. Applications in decision making as well as multimedia databases, based on real-life datasets, also confirm the practical usefulness of the produced summaries
15

Azé, Jérôme. "Extraction de Connaissances à partir de Données Numériques et Textuelles." Phd thesis, Université Paris Sud - Paris XI, 2003. http://tel.archives-ouvertes.fr/tel-00011196.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail réalisé dans le cadre de cette thèse concerne l'extraction de connaissances dans des données transactionnelles.
L'analyse de telles données est souvent contrainte par la définition d'un support minimal utilisé pour filtrer les connaissances non intéressantes.
Les experts des données ont souvent des difficultés pour déterminer ce support.
Nous avons proposé une méthode permettant de ne pas fixer un support minimal et fondée sur l'utilisation de mesures de qualité.
Nous nous sommes focalisés sur l'extraction de connaissances de la forme "règles d'association".
Ces règles doivent vérifier un ou plusieurs critères de qualité pour être considérées comme intéressantes et proposées à l'expert.
Nous avons proposé deux mesures de qualité combinant différents critères et permettant d'extraire des règles intéressantes.

Nous avons ainsi pu proposer un algorithme permettant d'extraire ces règles sans utiliser la contrainte du support minimal.
Le comportement de notre algorithme a été étudié en présence de données bruitées et nous avons pu mettre en évidence la difficulté d'extraire automatiquement des connaissances fiables à partir de données bruitées.
Une des solutions que nous avons proposée consiste à évaluer la résistance au bruit de chaque règle et d'en informer l'expert lors de l'analyse et de la validation des connaissances obtenues.

Enfin, une étude sur des données réelles a été effectuée dans le cadre d'un processus de fouille de textes.
Les connaissances recherchées dans ces textes sont des règles d'association entre des concepts définis par l'expert et propres au domaine étudié.
Nous avons proposé un outil permettant d'extraire les connaissances et d'assister l'expert lors de la validation de celles-ci.
Les différents résultats obtenus montrent qu'il est possible d'obtenir des connaissances intéressantes à partir de données textuelles en minimisant la sollicitation de l'expert dans la phase d'extraction des règles d'association.
16

Thomopoulos, Rallou. "Représentation et interrogation élargie de données imprécises et faiblement structurées." Paris, Institut national d'agronomie de Paris Grignon, 2003. http://www.theses.fr/2003INAP0018.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse se situe dans le cadre d'un projet appliqué à la microbiologie prévisionnelle, s'appuyant sur une base de données et sur son système d'interrogation. Les données du projet sont faiblement structurées, elles peuvent être imprécises et ne permettent pas de répondre à toute requête de façon exacte, de sorte qu'un système d'interrogation souple de la base de données est nécessaire. Nous nous appuyons sur le modèle des graphes conceptuels pour prendre en compte les données faiblement structurées et sur la théorie des sous-ensembles flous pour représenter les données imprécises et les requêtes floues. L'objet de cette thèse est la combinaison de ces deux formalismes
This work is part of a project applied to predictive microbiology, which is built on a database and on its querying system. The data used in the project are weakly structured, they may be imprecise, and cannot provide exact answers to every query, so that a flexible querying system is necessary for the querying of the database. We use the conceptual graph model in order to take into account weakly structured data, and fuzzy set theory, in order to represent imprecise data and fuzzy queries. The purpose of this work is to provide a combination of these two formalisms
17

Spill, Yannick. "Développement de méthodes d'échantillonnage et traitement bayésien de données continues : nouvelle méthode d'échange de répliques et modélisation de données SAXS." Paris 7, 2013. http://www.theses.fr/2013PA077237.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La détermination de la structure de protéines et d'autres complexes macromoléculaires est de plus en plus difficile. Les cas les plus simples ont étés déterminés, et la recherche actuelle en bioinformatique se focalise sur des cibles de plus en plus compliquées. Pour déterminer la structure de ces complexes, il est devenu nécessaire de combiner différentes expériences et d'utiliser des données de moins bonne qualité. En d'autres termes, la détermination de structures utilise de plus en plus de données éparses, bruitées et incohérentes. Par conséquent, il est devenu essentiel de pouvoir quantifier l'exactitude d'une structure, une fois déterminée. Cette quantification est parfaitement accomplie par inférence statistique. Dans cette thèse, je développe un nouvel algorithme d'échantillonnage, l'Échange de Répliques Convectif, qui perme de trouver des structures probables de façon plus robuste. Je propose également un traitement statistique de données continues, comme celles obtenues par diffusion des rayons X aux petits angles
The determination of protein structures and other macromolecular complexes is becoming more and more difficult. The simplest cases have already been determined, and today's research in structural bioinformatics focuses on ever more challenging targets. To successfully determine the structure of these complexes, it has become necessary to combine several kinds of experiments and to relax the quality standards during acquisition. In other words, structure determination makes an increasing use of sparse, noisy and inconsistent data. It is therefore becoming essential to quantify the accuracy of a determined structure. This quantification is superbly achieved by statistical inference. In this thesis, I develop a new sampling algorithm, Convective Replica-Exchange, sought to find probable structures more robustly. I also propose e proper statistical treatment for continuous data, such as Small-Angle X-Ray Scattering data
18

Alilaouar, Abdeslame. "Contribution à l'interrogation flexible de données semi-structurées." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/90/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour manipuler les Données Semi-Structurées (DSS) et en extraire les informations pertinentes en termes de structure et/ou de contenu pour l'utilisateur, de nombreux langages de requêtes ont été proposés. Ces langages de requêtes devraient donc prendre en compte non seulement le contenu mais aussi la structure sous-jacente car cette dernière peut changer complètement leur pertinence et leur adéquation vis à vis des besoins exprimés par l'utilisateur. Cependant, la non connaissance a priori et l'hétérogénéité de structure de DSS rendent les langages d'interrogation de BD classiques incompatibles avec l'interrogation de telles collections semi-structurées. Les techniques standards d'interrogations basées sur l'appariement exact sont donc inadaptées pour interroger des sources de DSS : une requête peut aboutir à un ensemble vide ou incomplet de réponses lors de l'interrogation même s'il existe des réponses pertinentes dans la(les) source(s) à interroger. Un autre problème relève de la prise en compte de l'information "manquante". En effet, puisque la structure de l'instance de document est par essence incomplète, il est possible que l'information ne soit pas explicitement signifiée ou encore qu'elle n'ait pas été correctement élicitée. Ceci implique de ne pas considérer cette absence d'information comme une information négative, mais de traiter ces cas avec l'incertitude qui convient, dans un algorithme général de "ranking". Pour résoudre ces problèmes le recours aux techniques d'appariement flexible (approximatif) et la réponse sous forme des listes ordonnées de réponses selon les préférences de l'utilisateur, représentent un choix presque inévitable. Les travaux menés jusqu'ici dans le cadre de l'interrogation flexible de BD ont révélé que la logique floue constitue un cadre particulièrement bien adapté pour modéliser la notion de flexibilité et de préférences selon le raisonnement humain. Dans ce sens, nous proposons un modèle d'interrogation flexible pour les DSS en général et pour les documents XML en particulier, en prenant en compte le contenu et la structure sous-jacente des DSS. La logique floue sera utilisée pour représenter les préférences de l'utilisateur sur le contenu et la structure des DSS. D'autre part, à la fin du processus d'interrogation, chaque réponse est associée à un degré compris dans l'intervalle ]0,1]. Plus ce degré est faible, moins la réponse semble pertinente. Ce degré est calculé en utilisant le degré d'appartenance (m) et des mesures de similarité connues dans les systèmes de recherche d'informations (SRI) pour le contenu, et l'arbre recouvrant minimal pour la structure. Le modèle proposé a été évalué et validé dans le cadre de plateforme PRETI et d'INEX, grâce au prototype que nous avons développé
Many querying languages have been proposed to manipulate Semi-Structured Data (SSD) and to extract relevant information (in terms of structure and/or content) to the user. Such querying languages should take into account not only the content but also the underlying structure since it can completely change their relevance and adequacy with respect to the needs expressed by the user. However, not having prior knowledge and the heterogeneity of SSD structure makes classical database languages inadequate. The work undertaken on database flexible querying revealed that fuzzy logic is particularly well-suited for modelling the notion of flexibility and preferences according to human reasoning. In this sense, we propose a model of flexible query for SSD in general and XML documents, taking into account the content and the underlying structure of SSD. Fuzzy logic is used to represent the user's preferences on the content and structure of SSD. At the end of the evaluation process, every response is associated with a degree in the interval ]0. 1]. The more this degree is low, the answer seems less relevant. This degree is calculated using the degree of ownership and measures known similarity in information retrieval systems for content, and the minimum spanning tree for the structure. The proposed model has been reviewed and validated using PRETI Platform and INEX benchmark, thanks to the prototype that we've developped
19

Hebert, Pierre-Alexandre. "Analyse de données sensorielles : une approche ordinale floue." Compiègne, 2004. http://www.theses.fr/2004COMP1542.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse de profils sensoriels vise à décrire la façon dont un ensemble de produits est perçu par un groupe d'individus entraînés, ou juges, selon un ensemble de descripteurs sensoriels. Les évaluations, consistant en l'attribution de notes, sont répétées. L'approche proposée doit son originalité à une modélisation ordinale floue de l'information exprimée. Dans une première étape, une relation floue de dominance faible entre produits est synthétisée par répétition. Puis une procédure d'agrégation sur les répétitions permet de résumer la perception de chaque juge. Une agrégation similaire sur les juges conduit à la synthèse d'une relation consensuelle, caractéristique du descripteur traité. Les procédures d'extraction et de fusion s'inscrivent dans le cadre de la théorie des préférences floues, de façon à faciliter l'interprétation des relations obtenues. Leur analyse mono ou multidimensionnelle est finalement conduite par un ensemble d'outils de représentation graphique
Sensory profile data aims at describing the sensory perceptions of human subjects. Such a data is composed of scores attributed by human sensory experts (or judges) in order to describe a set of products according to sensory descriptors. AlI assessments are repeated, usually three times. The thesis describes a new analysis method based on a fuzzy modelling of the scores. The first step of the method consists in extracting and encoding the relevant information of each replicate into a fuzzy weak dominance relation. Then an aggregation procedure over the replicates allows to synthesize the perception of each judge into a new fuzzy relation. Ln a similar way, a consensual relation is finally obtained for each descriptor by fusing the relations of the judges. So as to ensure the interpretation of fused relations, fuzzy preference theory is used. A set of graphical tools is then proposed for the mono and multidimensional analysis of the obtained relations
20

Longueville, Véronique. "Modélisation, calcul et évaluation de liens pour la navigation dans les grands ensembles d'images fixes." Toulouse 3, 1993. http://www.theses.fr/1993TOU30149.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception et l'etude d'un systeme de recherche d'images peut se resumer a une double interrogation: comment optimiser l'acces a l'information pour repondre au mieux aux attentes des utilisateurs et comment evaluer les performances du systeme par rapport a ces attentes? dans ce contexte, cette these traite a la fois de la construction et de l'evaluation des graphes de connexion pour la navigation visuelle dans les grands ensembles d'images fixes. Pour un ensemble donne d'images, chaque sommet du graphe represente une image et les arcs reliant les sommets dans le graphe definissent l'ensemble des liens existants entre les images. Via une interface de parcours visuel dans le graphe adaptee, ce sont ces liens que les utilisateurs suivent lors de leurs recherches en naviguant d'image en image. Au-dela des outils de construction d'un graphe de liens dans un grand ensemble d'images, les apports principaux de cette these se situent: sur le plan des interfaces utilisateur: la notion de vues differentes sur un meme ensemble de liens permet a l'utilisateur de mettre en uvre differents types de parcours visuels; sur le plan de l'evaluation: plusieurs modeles d'utilisation d'un systeme de recherche de documents sont proposes et des protocoles et mesures d'evaluation leur sont associes. Les protocoles de test ont ete mis en uvre lors d'experimentations reelles par des utilisateurs, et les resultats correspondants sont presentes et discutes. On y trouve la confirmation de l'efficacite de la navigation visuelle pour l'exploration d'un ensemble d'images et la generalisation de selections preexistantes, mais aussi une meilleure quantification de ses limites pour la recherche finalisee d'une image ou d'un petit nombre d'images
21

Makhalova, Tatiana. "Contributions à la fouille d'ensembles de motifs : des données complexes à des ensembles de motifs signifiants et réutilisables." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0124.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions différents aspects de l’exploration ou fouille de motifs dans des jeux de données tabulaires binaires et numériques. L’objectif de l’exploration de motifs est de découvrir un petit ensemble de motifs non redondants qui peuvent recouvrir presque entièrement un ensemble de données et être interprétés comme des unités de connaissances significatives et utiles. Nous nous concentrons sur les questions clés telles que la définition formelle de l’intérêt des motifs, la minimisation de l’explosion combinatoire des motifs, la définition de mesures pour évaluer les performances des méthodes d’exploration de motifs, et le rapprochement entre l’intérêt et la qualité des ensembles de motifs. Nous proposons une structure dite “de niveaux de fermetures” et l’algorithme GDPM qui la calcule. Cette structure nous permet d’estimer à la fois la complexité des données et celle des motifs. En pratique, cette structure peut être utilisée pour représenter la topologie des données par rapport à une mesure d’intérêt. Du point de vue conceptuel, cette structure autorise un analyste à comprendre la configuration intrinsèque des données avant de sélectionner une mesure d’intérêt plutôt que de comprendre les données au moyen d’une mesure d’intérêt choisie arbitrairement. Nous discutons également de la différence entre l’intérêt et la qualité des ensembles de motifs. Nous proposons d’adopter les bonnes pratiques de l’apprentissage supervisé et de les adapter à la fouille de motifs. Ainsi, nous avons développé un algorithme d’exploration d’ensembles de motifs appelé KeepItSimple, qui met en relation l’intérêt et la qualité des ensembles de motifs et qui permet de retrouver de façon efficace un ensemble de motifs intéressants sans craindre d’explosion combinatoire. De plus, nous proposons un algorithme glouton d’énumération de motifs susceptibles d’intérêt qui remplace les méthodes classiques d’énumération de motifs fermés fréquents lorsque les motifs sont trop nombreux. Enfin une dernière contribution porte sur le développement d’un algorithme qui s’appuie sur le principe MDL appelé Mint qui a pour objectif d’extraire des ensembles de motifs dans les données numériques. Il repose sur des bases théoriques solides tout en ayant l’objectif pratique de retourner un ensemble concis de motifs numériques qui sont non redondants et informatifs. Les expérimentations montrent que Mint surpasse généralement ses concurrents en efficacité et qualité des motifs retournés
In this thesis, we study different aspects of pattern mining in binary and numerical tabular datasets. The objective of pattern mining is to discover a small set of non-redundant patterns that may cover entirely a given dataset and be interpreted as useful and significant knowledge units. We focus on some key issues such as (i) formal definition of pattern interestingness, (ii) the minimization of pattern explosion, (iii) measure for evaluating the performance of pattern mining, and (iv) the discrepancy between interestingness and quality of the discovered pattern sets. Moreover, we go beyond the typical perspectives of pattern mining and investigate the intrinsic structure underlying a tabular dataset. The main contributions of this research work are theoretical, conceptual, and practical. Regarding the theoretical novelty, we propose a so-called closure structure and the GDPM algorithm for its computing. The closure structure allows us to estimate both the data and pattern complexity. Furthermore, practically the closure structure may be used to represent the data topology w.r.t. an interestingness measure. Conceptually, the closure structure allows an analyst to understand the intrinsic data configuration before selecting any interestingness measure rather than to understand the data by means of an arbitrarily selected interestingness measure. In this research work, we also discuss the difference between interestingness and quality of pattern sets. We propose to adopt the best practices of supervised learning in pattern mining. Based on that, we developed an algorithm for itemset mining, called KeepItSimple, which relates interestingness and the quality of pattern sets. In practice, KeepItSimple allows us to efficiently mine a set of interesting and good-quality patterns without any pattern explosion. In addition, we propose an algorithm for a greedy enumeration of likely-occurring itemsets that can be used when frequent closed itemset miners return too many itemsets. The last practical contribution consists in developing an MDL-based algorithm called Mint for mining pattern sets in numerical data. The Mint algorithm relies on a strong theoretical foundation and at the same time has a practical objective in returning a small set of numerical, non-redundant, and informative patterns. The experiments show that Mint has very good behavior in practice and usually outperforms its competitors
22

Toutain, Matthieu. "EdP géometriques pour le traitement et la classification de données sur graphes." Caen, 2015. https://hal.archives-ouvertes.fr/tel-01258738.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les équations aux dérivées partielles (EDPs) jouent un rôle clé dans la modélisation mathématiques des phénomènes en sciences appliquées. En en traitement et analyse d'image et en vision par ordinateur, les EDPs géométriques ont été utilisées avec succès pour résoudre différents problèmes, tels que la restauration, la segmentation, l'inpainting, etc. De nos jours, de plus en plus de données sont collectées sous la forme de graphes ou réseaux, ou de fonctions définies sur ces réseaux. Il y a donc un intérêt à étendre les EDPs pour traiter des données irrégulières ou des graphes de topologies arbitraires. Les travaux de cette thèse s'inscrivent dans ce contexte. Ils traitent précisément des EDPs géométriques pour le traitement et la classification de données sur graphes. Dans une première partie, nous proposons une adaptation du SpS-Laplacien normalisé sur graphes pondérés de topologie arbitraire en utilisant le cadre des équations aux différences partielles (EdPs). Cette adaptation nous permet d'introduire une nouvelle classe de SpS-Laplacien sur graphe sous la forme d'une non-divergence. Nous introduisons aussi dans cette partie une formulation du SpS-Laplacien sur graphe définie comme une combinaison convexe de gradient. Nous montrons que cette formulation unifie et généralise différents opérateurs de différences sur graphe existants. Nous utilisons ensuite cet opérateur à travers l'équation de Poisson afin de calculer des distances généralisées sur graphe. Dans une deuxième partie, nous proposons d'appliquer les opérateurs sur graphes que nous avons proposés pour les tâches de classification semi-supervisée et de clustering, et de les comparer aux opérateurs sur graphes existants ainsi qu'a certaines méthodes de la littérature, telles que le Multiclass Total Variation clustering (MTV), le clustering par nonnegative matrix factorization (NMFR), ou encore la méthode INCRES
Partial differential equations (PDEs) play a key role in the mathematical modelization of phenomena in applied sciences. In particular, in image processing and computer vision, geometric PDEs have been successfuly used to solve many problems, such as image restoration, segmentation, inpainting, etc. Nowadays, more and more data are collected as graphs or networks, or functions defined on these networks. Knowing this, there is an interest to extend PDEs to process irregular data or graphs of arbitrary topology. The presented work follows this idea. More precisely, this work is about geometric partial difference equations (PdEs) for data processing and classification on graphs. In the first part, we propose a transcription of the normalized SpSLaplacian on weighted graphs of arbitrary topology by using the framework of PdEs. This adaptation allows us to introduce a new class of SpSaplacian on graphs as a non-divergence form. In this part, we also introduce a formulation of the SpSaplacian on graphs defined as a convex combination of gradient terms. We show that this formulation unifies and generalize many existing difference operators defined on graphs. Then, we use this operator with the Poisson equation to compute generalized distances on graphs. In the second part, we propose to apply the operators on graphs we defined, for the tasks of semi-supervised classification and clustering. We compare them to existing graphs operators and to some of the state of the art methods, such as Multiclass Total Variation clustering (MTV), clustering by non-negative matrix factorization (NMFR) or the INCRES method
23

Bouron, Pascal. "Méthodes ensemblistes pour le diagnostic, l'estimation d'état et la fusion de données temporelles." Compiègne, 2002. http://www.theses.fr/2002COMP1395.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse constituent une contribution à l'utilisation de méthodes ensemblistes pour l'estimation d'état et le diagnostic capteurs. Ces méthodes sont mises en oeuvre dans le cas des applications concrètes de la localisation et du diagnostic dynamique d'un véhicule. Après avoir décrit le système ayant servi de support à l'étude et défini un modèle de son comportement, nous présentons une adaptation de la méthode classique de diagnostic basée sur la redondance analytique dans le cas d'une modélisation des bruits à erreurs bornées. Cette méthode a été validée sur des données réelles issues de notre démonstrateur. Le deuxième aspect original de ce travail est l'utilisation de méthodes ensemblistes pour l'estimation d'état. Cela nous a conduit à développer des méthodes alternatives qui permettent d'améliorer les temps de calcul de certains algorithmes. Enfin, le développement d'un module d'analyse syntaxique nous a permis de traiter facilement les méthodes à base de propagation de contraintes. Nous avons validé ces méthodes avec des données réelles pour la localisation, et avec des données simulées pour l'estimation de la dérive. De plus, une comparaison de la précision de l'estimation avec le filtrage de Kalman étendu a été réalisée
Set-membership methods for diagnosis, state estimation and data fusion The works presented in this thesis constitute a contribution to the use of set-membership methods the state estimation and fault detection and isolation. These methods are used in the actual context of localisation and dynamic diagnosis of a vehicle. After describing the system used in the analysis and defining dynamical model, we expose an adaptation of the classical diagnosis method based on analytical redundancy in the context of a bounded-error modelisation of the noises. This method has been validated with real data coming froID our demonstrator. The second original aspect of this work is the utilization of set-membership methods for state estimation. It has led to the elaboration of alternative methods to improve the mn times of Sallie algorithms. Finally, the development of a syntaxical analysis module allowed us to easily process the methods based on constraint propagation. We have validated these methods with actual data for the localization, and with simulated data for the estimation of the drift. Moreover, a comparison of the accuracy of the estimation with the Extended Kalman Filtering has been realized
24

Zemirline, Abdelhamid. "Définition et fusion de systèmes diagnostic à l'aide d'un processus de fouille de données : Application aux systèmes diagnostics." Télécom Bretagne, 2008. http://www.theses.fr/2008TELB0047.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nos jours, la fouille de donnée est utilisée par de nombreuses applications, et dans divers domaines. En médecine par exemple, elle connaît de grands développements. Néanmoins, les applications médicales réalisant la fouille de donnée demeurent souvent au stade expérimental. Ces prototypes sont rarement intégrés à la pratique quotidienne des professionnels de santé, et ceci pour plusieurs raisons : la difficulté de représentation de certaines notions plus ou moins objectives telles que la graduation et la quantification ; la fiabilité des nouvelles connaissances ; etc. . . Notre travail a consisté, entre autres, en la conception de deux systèmes d'aide au diagnostic. Tous deux intègrent la théorie des ensembles flous, afin de modéliser l'incertitude et de produire une analyse, qui se rapproche du raisonnement humain. Cependant, le premier de ces systèmes repose sur une base de cas, tandis que le second est un système de raisonnement à base de règles. Nous nous sommes par ailleurs intéressés à la fusion de connaissances homogènes issues de systèmes de diagnostic distincts. Un tel procédé permet de regrouper diverses expériences dans un même système, tout en tenant compte des caractéristiques des différentes sources. Nous faisons alors l'économie d'une laborieuse et coûteuse reconstruction des bases de connaissances. Par la suite, nous avons appliqué ce procédé de fusion sur des connaissances issues des deux systèmes de diagnostic décrits précédemment. Nous avons pu alors évaluer le fonctionnement de cet ensemble en l'appliquant sur une véritable base de données médicale. En guise de conclusion de notre thèse, nous nous sommes longuement interrogés sur les moyens concrets d'intégrer de tels systèmes à un environnement médical, en considérant les contraintes associées à ce domaine d'application. .
Nowadays, the number of applications requiring Data Mining is growing rapidly in all domains. In medical, we find a number of such applications, however, they are still at experimental or prototype stage. Due to various reasons, a very small number of them enters the daily practice of health professionals. For example, the non-integration of certain notions of type 'graduation' i. E. , a patient is affected by an illness but to such a degree that we cannot consider him completely ill. Then, there is the problem of degree of certainty and the integration of new knowledge and its update which must be taken into consideration for medical applications. In this work, we develop two types of diagnostic systems that depend on fuzzy logic theory to model the uncertainty and to make an analysis in a way similar to human reasoning. The first system that is based on "case-based reasoning" generates a knowledge base from the case base which is composed of membership degrees of a given case to the possible pathologies in such a way that we can easily estimate the similarity that exists between the cases. The second system that we have developed is based on "rule-based reasoning". Another point developed in our work is the fusion of knowledge from homogeneous knowledge sources coming from distinct diagnostic systems. This fusion regroups different experiences in a single system by taking into account the characteristics of different sources without having to reconstruct the knowledge base. We have applied this fusion on both aforementioned diagnostic systems by evaluating them on a medical database. The last part of our work deals with the integration of the systems described earlier in a medical environment taking into account all the constraints associated with the environment
25

Blanchard, Frédéric. "Visualisation et classification de données multidimensionnelles : Application aux images multicomposantes." Reims, 2005. http://theses.univ-reims.fr/exl-doc/GED00000287.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse des images multicomposantes est un problème crucial. Les questions de la visualisation et de la classification pour ces images sont importantes. Nous nous sommes intéressés à ces deux problèmes en nous plaçant dans le cadre plus général de l'analyse des données multidimensionnelles, et avons apporté deux éléments de réponses. Avant de traiter ces questions, nous nous sommes intéressés aux problèmes pratiques et théoriques liés à la dimensionnalité et étudions quelques unes des techniques courantes de réduction de dimensionnalité. La question de la visualisation est alors exposée et une nouvelle méthode utilisant l'image couleur est proposée. Cette technique permet une visualisation immédiate et synthétique des données, sans connaissance a priori. Elle est illustrée par des applications. Nous présentons également une contribution à la classification non supervisée de données qui se situe en amont du processus de classification proprement dit. Nous avons conçu une nouvelle façon de représenter les données et leurs liens à l'aide de la théorie des ensembles flous. Cette méthode permet, en classification, de traiter avec succès des échantillons de données dont les classes sont d'effectifs et de densités différents, sans faire d'a priori sur leur forme. Un algorithme de classification et des exemples de son application sont proposés. Ce travail présente deux contributions importantes aux problématiques de la visualisation et la classification, et fait intervenir des concepts issus de thématiques diverses comme l'analyse de données ou la théorie des ensembles flous. Il peut ainsi être utilisé dans d'autres contextes que celui de l'analyse d'images multicomposantes
The analysis of multicomponent images is a crucial problem. Visualization and clustering problem are two relevant questions about it. We decided to work in the more general frame of data analysis to answer to these questions. The preliminary step of this work is describing the problems induced by the dimensionality and studying the current dimensionality reduction methods. The visualization problem is then considered and a contribution is exposed. We propose a new method of visualization through color image that provides an immediate and sythetic image od data. Applications are presented. The second contribution lies upstream with the clustering procedure strictly speaking. We etablish a new kind of data representation by using rank transformation, fuzziness and agregation procedures. Its use inprove the clustering procedures by dealing with clusters with dissimilar density or variant effectives and by making them more robust. This work presents two important contributions to the field of data analysis applied to multicomponent image. The variety of the tools involved (originally from decision theory, uncertainty management, data mining or image processing) make the presented methods usable in many diversified areas as well as multicomponent images analysis
26

Csikós, Mónika. "Efficient Approximations of High-Dimensional Data." Thesis, Université Gustave Eiffel, 2022. http://www.theses.fr/2022UEFL2004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions les approximations de systèmes d'ensembles (X,S), où X est un ensemble de base et S est constitué de sous-ensembles de X appelés plages. Étant donné un système d'ensembles finis, notre objectif est de construire un petit sous-ensemble de X tel que chaque plage soit `bien-approximée'. En particulier, pour un paramètre epsilon donné dans (0,1), nous disons qu'un sous-ensemble A de X est une epsilon-approximation de (X,S) si pour toute plage R dans S, les fractions |A cap R|/|A| et |R|/|X| sont proches de epsilon.La recherche sur de telles approximations a commencé dans les années 1950, l'échantillonnage aléatoire étant l'outil clé pour montrer leur existence. Depuis lors, la notion d'approximations est devenue une structure fondamentale dans plusieurs communautés - théorie de l'apprentissage, statistiques, combinatoire et algorithmes. Une percée dans l'étude des approximations remonte à 1971, lorsque Vapnik et Chervonenkis ont étudié les systèmes d'ensembles avec une VC-dimension finie, qui s'est avérée être un paramètre clé pour caractériser leur complexité. Par exemple, si un système d'ensembles (X, S) a une VC-dimension d, alors un échantillon uniforme de O(d/epsilon^2) points est une approximation epsilon de (X, S) avec une probabilité élevée. Il est important de noter que la taille de l'approximation ne dépend que d'epsilon et de d, et qu'elle est indépendante des tailles d'entrée |X| et |S| !Dans la première partie de cette thèse, nous donnons une preuve modulaire, autonome et intuitive de la garantie d'échantillonnage uniforme ci-dessus. Dans la deuxième partie, nous donnons une amélioration d'un goulot d'étranglement algorithmique vieux de 30 ans - la construction d'appariements avec un faible nombre de croisements. Ceci peut être appliqué pour construire des approximations avec des garanties améliorées. Enfin, nous répondons à un problème ouvert vieux de 30 ans de Blumer etal. en prouvant des bornes inférieures serrées sur la dimension VC des unions de demi-espaces - un système d'ensembles géométriques qui apparaît dans plusieurs applications, par exemple les constructions de coresets
In this thesis, we study approximations of set systems (X,S), where X is a base set and S consists of subsets of X called ranges. Given a finite set system, our goal is to construct a small subset of X set such that each range is `well-approximated'. In particular, for a given parameter epsilon in (0,1), we say that a subset A of X is an epsilon-approximation of (X,S) if for any range R in S, the fractions |A cap R|/|A| and |R|/|X| are epsilon-close.Research on such approximations started in the 1950s, with random sampling being the key tool for showing their existence. Since then, the notion of approximations has become a fundamental structure across several communities---learning theory, statistics, combinatorics and algorithms. A breakthrough in the study of approximations dates back to 1971 when Vapnik and Chervonenkis studied set systems with finite VC-dimension, which turned out a key parameter to characterise their complexity. For instance, if a set system (X,S) has VC dimension d, then a uniform sample of O(d/epsilon^2) points is an epsilon-approximation of (X,S) with high probability. Importantly, the size of the approximation only depends on epsilon and d, and it is independent of the input sizes |X| and |S|!In the first part of this thesis, we give a modular, self-contained, intuitive proof of the above uniform sampling guarantee .In the second part, we give an improvement of a 30 year old algorithmic bottleneck---constructing matchings with low crossing number. This can be applied to build approximations with improved guarantees.Finally, we answer a 30 year old open problem of Blumer etal. by proving tight lower bounds on the VC dimension of unions of half-spaces - a geometric set system that appears in several applications, e.g. coreset constructions
27

Paris, Silvia. "Méthodes de détection parcimonieuses pour signaux faibles dans du bruit : application à des données hyperspectrales de type astrophysique." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00933827.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse contribue à la recherche de méthodes de détection de signaux inconnus à très faible Rapport Signal-à-Bruit. Ce travail se concentre sur la définition, l'étude et la mise en œuvre de méthodes efficaces capables de discerner entre observations caractérisées seulement par du bruit de celles qui au contraire contiennent l'information d'intérêt supposée parcimonieuse. Dans la partie applicative, la pertinence de ces méthodes est évaluée sur des données hyperspectrales. Dans la première partie de ce travail, les principes à la base des tests statistiques d'hypothèses et un aperçu général sur les représentations parcimonieuses, l'estimation et la détection sont introduits. Dans la deuxième partie du manuscrit deux tests d'hypothèses statistiques sont proposés et étudiés, adaptés à la détection de signaux parcimonieux. Les performances de détection des tests sont comparés à celles de méthodes fréquentistes et Bayésiennes classiques. Conformément aux données tridimensionnelles considérées dans la partie applicative, et pour se rapprocher de scénarios plus réalistes impliquant des systèmes d'acquisition de données, les méthodes de détection proposées sont adaptées de façon à exploiter un modèle plus précis basé sur des dictionnaires qui prennent en compte l'effet d'étalement spatio-spectral de l'information causée par les fonctions d'étalement du point de l'instrument. Les tests sont finalement appliqués à des données astrophysiques massives de type hyperspectral dans le contexte du Multi Unit Spectroscopic Explorer de l'Observatoire Européen Austral.
28

Mokhtari, Amine. "Système personnalisé de planification d'itinéraire unimodal : une approche basée sur la théorie des ensembles flous." Rennes 1, 2011. http://www.theses.fr/2011REN1E004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous présentons un ensemble de contributions destinées à la définition d’une nouvelle génération de systèmes de planification d’itinéraire unimodal, capable de prendre en charge des préférences utilisateur complexes. La théorie des ensembles flous a été utilisée comme socle formel pour nos contributions. La première est une typologie des préférences utilisateur ayant du sens dans le cadre d’un déplacement unimodal. La nature bipolaire des préférences utilisateur dans un tel contexte est aussi discutée et prise en considération. Notre seconde contribution porte sur un langage fondé sur le calcul relationnel de tuples, RPQL, permettant la formulation de requêtes bipolaires de planification d’itinéraire avec préférences. Une approche permettant d’augmenter une requête avec de nouvelles préférences, déduites du contexte de l’utilisateur, constitue notre troisième contribution. Par ailleurs, l’architecture d’un système personnalisé de planification d’itinéraire a été proposée, ainsi qu’une approche efficace pour l’évaluation de requêtes de planification avec préférences. Enfin, des résultats expérimentaux, issus d’une plateforme de test mettant en œuvre notre système, sont présentés et discutés.
29

Séchet, Etienne. "Modélisation d'une connaissance imprécise sur les influences des conditions météorologiques dans la propagation du son, à partir de données expérimentales." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La propagation du son dans l'atmosphère est influencée par les conditions météorologiques. Il est donc important pour l'acousticien de pouvoir appréhender la part de ces influences dans ses mesures. L'approche présentée se distingue par l'usage de la théorie des sous-ensembles flous: la modélisation des phénomènes s'appuie exclusivement sur les résultats expérimentaux de mesures simultanées de météorologie et d'acoustique, à grande distance d'une source sonore stable. Pour cela, un algorithme d'apprentissage d'une connaissance floue a été proposé, développé, puis utilisé. On cherche à rendre la modélisation du phénomène compatible avec l'information disponible: l'évaluation imprécise de l'état atmosphérique par l'opérateur à travers des modalités linguistiques. On cherche à extrapoler une mesure physique précise de façon à gagner en représentativité spatiale
30

Daniel-Vatonne, Marie-Christine. "Les termes : un modèle de représentation et structuration de données symboliques." Montpellier 2, 1993. http://www.theses.fr/1993MON20031.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nos travaux se situent dans le cadre de l'analyse conceptuelle des donnees. Notre objectif est de generaliser les representations par variables binaires ou nominales en y adjoignant la modelisation de structures internes. Le probleme est de ne pas perdre en complexite algorithmique ce qui est gagne en puissance de representation. Selon ces considerations, decrire les donnees et les classes de donnees par des structures arborescentes est un bon compromis. Le systeme de representation que nous proposons s'appuie sur un modele algebrique: les magmas. Il permet de construire des termes assimilables a des arborescences finies, etiquetees et typees. Leur interpretation est intuitive et ils autorisent les descriptions recursives. Une relation d'ordre naturel, la generalisation, induit un treillis sur les termes. Nous etudions ce treillis et montrons qu'il possede des proprietes proches de celles d'un treillis booleen. En particulier, nous montrons que l'on peut construire un treillis de galois mettant en correspondance des ensembles d'objets et leur description par des termes
31

Veron, Didier. "Utilisation des FADC pour la reconstruction et l'analyse des données de bruit de fond dans l'expérience neutrino de Chooz." Lyon 1, 1997. http://www.theses.fr/1997LYO10074.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these presente un travail effectue dans le cadre de l'experience de chooz, qui recherche des oscillations de neutrinos a 1 km de deux reacteurs nucleaires. Les anti-neutrinos emis par les reacteurs sont detectes grace au positron et au neutron produits par la reaction de desintegration beta-inverse. Le neutron est observe par sa capture sur des atomes de gadolinium. Celle-ci libere en moyenne 8 mev sous forme de gammas. Une premiere partie a consiste a etudier la reconstruction du point d'interaction des evenements en utilisant le programme de simulation geant. Nous avons montre, par exemple, que des precisions de 10 cm sur le positron et de 20 cm sur le neutron etaient possibles. Puis, une analyse des donnees de calibration du detecteur, enregistrees par des flash adc, a ete menee. Cela nous a permis de verifier le bon accord des donnees et du monte-carlo, notamment sur la precision de la reconstruction, mais aussi sur deux des parametres de l'experience que sont le temps de capture moyen du neutron sur le gadolinium et la probabilite de cette capture. Enfin, une etude du bruit de fond, reacteurs arretes, a ete effectuee. Pour ce faire, nous avons choisi des coupures hors lignes, l'une d'entre elles utilise les algorithmes de localisation. Ces coupures ont ete validees grace a une source de californium mais aussi par un ensemble de neutrons cosmiques. Le bruit de fond ainsi obtenu est de 2 a 3 evenements par jour, il est donc pres de 10 fois inferieur au signal attendu. Dans cette meme analyse, nous avons tente d'expliquer la nature de ce bruit en donnant des taux de composante fortuite et correlee.
32

Desquesnes, Xavier. "Propagation de fronts et p-laplacien normalisé sur graphes : algorithmes et applications au traitement d’images et de données." Caen, 2012. http://www.theses.fr/2012CAEN2073.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s’intéresse à la transcription d’équations aux dérivées partielles vers des domaines discrets en exploitant le formalisme des équations aux différences partielles définies sur des graphes pondérés. Dans une première partie, nous proposons une transcription de l’opérateur p-laplacien normalisé au domaine des graphes comme une combinaison linéaire entre le laplacien infini non-local et le laplacien normalisé (ces deux opérateurs étant discrets). Cette adaptation peut être considérée comme une nouvelle classe d’opérateurs p-laplaciens sur graphes, qui interpolent entre le laplacien infini non-local et le laplacien normalisé. Dans une seconde partie, nous nous intéressons aux équations de propagation de fronts sur des graphes de topologie arbitraire. Ces équations sont obtenues par la transcription de la méthode des ensembles de niveaux, définie en continu, vers une formulation discrète définie sur le domaine des graphes. Au delà de la transcription en elle-même, nous proposons une formulation générale et des algorithmes efficaces pour la propagation simultanée de plusieurs fronts évoluant sur un graphe. Les approches proposées dans ces deux premières parties donnent lieu à de nombreuses applications en segmentation d’images et classification de données que nous illustrons dans ce manuscrit. Enfin, dans une troisième partie, nous présentons une application à l’aide au diagnostic informatisé concrétisant l’emploi des différents outils proposés dans les deux premières parties. Nous présentons également le logiciel Antarctic développé au cours de cette thèse
This work deals with the transcription of continuous partial derivative equations to arbitrary discrete domains by exploiting the formalism of partial difference equations defined on weighted graphs. In the first part, we propose a transcription of the normalized p-Laplacian operator to the graph domains as a linear combination between the non-local infinity Laplacian and the normalized Laplacian (both in their discrete version). This adaptation can be considered as a new class of p-Laplacian operators on graphs that interpolate between non-local infinity Laplacian and normalized Laplacian. In the second part, we present an adaptation of fronts propagation equations on weighted graphs. These equations are obtained by the transcription of the continuous level sets method to a discrete formulation on the graphs domain. Beyond the transcription in itself, we propose a very general formulation and efficient algorithms for the simultaneous propagation of several fronts on a single graph. Both transcription of the p-Laplacian operator and level sets method enable many applications in image segmentation and data clustering that are illustrated in this manuscript. Finally, in the third part, we present a concrete application of the different tools proposed in the two previous parts for computer aided diagnosis. We also present the Antarctic software that was developed during this PhD
33

Bergès, Corinne. "Étude de systèmes d'acquisitions de données dans deux milieux contraignants : expérimentation spatiale et prospection sismique." Toulouse, INPT, 1999. http://www.theses.fr/1999INPT026H.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'élément clé d'un système d'acquisition de données est le Convertisseur Analogique-Numérique (CAN). Les performances globales du système dépendent souvent de ce composant. Il s'agit alors de savoir choisir le CAN adapté, ou d'adopter le meilleur compromis possible. La première partie de la thèse décrit donc les différents principes de conversion, leurs avantages, leurs inconvénients. L'étude de l'acquisition de données en milieu spatial consiste en deux exemples d'expériences embarquées sur satellite. Le premier système réalise une mesure des spectres d'énergie des particules radiatives spatiales : sa difficulté consiste dans le préamplificateur de charge associé au détecteur à semi-conducteur. Les équations de ce préamplificateur sont posées, les principes de fonctionnement, justifiés. Une structure optimale en bande passante et rapport signal sur bruit est proposée. La deuxième expérience spatiale traitée est un micro-accéléromètre, dont on acquiert les données quasi-continues, à l'aide d'un convertisseur sigma-delta : ce type de CAN met en oeuvre deux notions essentielles qui sont le sur-échantillonage, suivi d'un filtre numérique décimateur, et la mise en forme du bruit, repoussé vers les hautes fréquences. Le principe de conversion sigma-delta est précisément étudié, pour optimiser la mise en oeuvre du composant choisi pour cette application. Une dernière partie traite de l'acquisition en prospection sismique, domaine difficile de par le niveau très faible des signaux (uV) et les contraintes extrêmes de chantier. Il faut choisir le capteur le mieux adapté et conditionner sa sortie de façon optimale. La réduction du bruit est un objectif constant. Après une présentation théorique du bruit sismique, quelques exemples sont traités, tels la préamplification faible bruit en sismique de puits et en sismique marine, le contrôle de la diaphonie sur les câbles de sismique terrestre de surface. Le CAN typique, mis en oeuvre en sismique, est d'architecture sigme-delta.
34

Jallet, Roxane. "Splines de régression et splines de lissage en régression non paramétrique avec bruit processus." Paris 6, 2008. http://www.theses.fr/2008PA066054.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail de thèse, nous nous intéressons aux méthodes d’estimation d’une fonction de régression régulière bruitée par un processus, par les splines de lissage et les splines de régression. Dans le cadre du modèle à bruit processus, nous présentons les résultats de convergence asymptotique obtenus pour l’estimateur des splines de lisage et proposons une extension au cas de données déséquilibrées. Afin de construire les estimateurs des splines de régression dans le cadre du modèle à bruit processus, nous introduisons deux critères : les moindres carrés ordinaires et les moindres carrés généralisés. Nous étudions pour ces deux estimateurs des splines de régression, les vitesses de convergence et comparons les résultats obtenus. Enfin, nous mettons en œuvre des simulations pour comparer numériquement les différents estimateurs
In the present work, we are interested in estimation methods of a regular function with a processus noise by smoothing splines and regression splines. Convergence rates results for smoothing splines are presented in the case of processus noise and an extension for unbalanced data is proposed. In order to build the regression splines estimators, we introduce two criteria : ordinary least squares and generalized least squares. For these two regression splines estimators convergence rates are studied and compared. Finally, through simulations the various estimators are compared
35

Nautet, Vincent. "Etude des méthodes de calcul du rayonnement acoustique des structures à partir des données vibratoires : Application aux antennes des sous-marins." Compiègne, 1998. http://www.theses.fr/1998COMP1104.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les antennes acoustiques de flanc des sous-marins sont sensibles au bruit propre du bâtiment. Les vibrations de la coque du sous-marin engendrent des niveaux de pression acoustique importants sur l'antenne de flanc qui peuvent diminuer sa capacité de détection des sources sonores provenant d'autres bâtiments. Dans cette étude appliquée au bruit d'origine mécanique, nous présentons les résultats des applications de deux méthodes simples de calcul de la pression en champ proche d'une structure en vibration à partir des mesures vibratoires partielles. Une des méthodes est basée sur la décomposition des ondes et l'autre sur une méthode de superposition. Elles peuvent être appliquées à plusieurs problèmes de bruit dans l'air et dans l'eau. Le but de notre travail est de caractériser les effets du bruit mécanique sur les antennes passives de flanc des sous-marins. Nous avons testé ces méthodes sur un montage expérimental consistant d'une antenne sous-marine attachée à une structure qui représentait une partie de la coque d'un sous-marin. Les deux méthodes donnent un bon accord avec les pressions mesurées par les hydrophones de l'antenne. Suite à cette validation expérimentale, les méthodes furent testées sur un exemple analytique. Le comportement vibratoire de la structure en l'occurrence une plaque, est décrit à l'aide du principe d'Hamilton alors que le principe de variation à la surface gouverne le couplage entre le fluide et la structure. La pression en champ proche est calculée par une évaluation numérique de l'intégrale de Kirchoff-Helmholtz. Cette étude a permis de tester les différents paramètres de chaque méthode et peut être intéressante pour la conception d'une antenne acoustique de flanc. La dernière partie du travail consiste en une validation sur des structures multiexcitées dans l'air pour mieux approcher les conditions réelles des sources multiples. Les méthodes donnent toujours des pressions acoustiques acceptables en champ proche même si les forces d'excitation de la structure sont corrélées.
36

Dantan, Aurélien. "Génération, stockage et manipulation d'états non classiques pour des ensembles atomiques et des champs électromagnétiques." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2005. http://tel.archives-ouvertes.fr/tel-00011004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions la génération, le stockage et la
manipulation d'états non classiques de la lumière et des atomes
grâce à l'interaction entre un nuage d'atomes froids et de champs
optiques en cavité.

Après avoir généré expérimentalement des états comprimés et
intriqués du champ lorsque les atomes se comportent comme un milieu
Kerr, nous étudions théoriquement la possibilité de générer de tels
états dans des systèmes à trois niveaux, ainsi que la réduction des
fluctuations quantiques atomiques sous le bruit quantique standard.

Nous présentons ensuite plusieurs schémas pour transférer et stocker
les fluctuations d'états non classiques du champ au spin collectif
d'un ensemble atomique afin de réaliser une mémoire quantique à
atomes froids.

Comme applications pour l'information quantique nous étudions
l'intrication et la téléportation d'ensemble atomique, la
réalisation de mémoires quantiques de longue durée de vie avec des
spins nucléaires d'3He et l'intrication d'oscillateurs
mécaniques.
37

Bahri, Emna. "Amélioration des procédures adaptatives pour l'apprentissage supervisé des données réelles." Thesis, Lyon 2, 2010. http://www.theses.fr/2010LYO20089/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'apprentissage automatique doit faire face à différentes difficultés lorsqu'il est confronté aux particularités des données réelles. En effet, ces données sont généralement complexes, volumineuses, de nature hétérogène, de sources variées, souvent acquises automatiquement. Parmi les difficultés les plus connues, on citera les problèmes liés à la sensibilité des algorithmes aux données bruitées et le traitement des données lorsque la variable de classe est déséquilibrée. Le dépassement de ces problèmes constitue un véritable enjeu pour améliorer l'efficacité du processus d'apprentissage face à des données réelles. Nous avons choisi dans cette thèse de réfléchir à des procédures adaptatives du type boosting qui soient efficaces en présence de bruit ou en présence de données déséquilibrées.Nous nous sommes intéressés, d’abord, au contrôle du bruit lorsque l'on utilise le boosting. En effet, les procédures de boosting ont beaucoup contribué à améliorer l'efficacité des procédures de prédiction en data mining, sauf en présence de données bruitées. Dans ce cas, un double problème se pose : le sur-apprentissage des exemples bruités et la détérioration de la vitesse de convergence du boosting. Face à ce double problème, nous proposons AdaBoost-Hybride, une adaptation de l’algorithme Adaboost fondée sur le lissage des résultats des hypothèses antérieures du boosting, qui a donné des résultats expérimentaux très satisfaisants.Ensuite, nous nous sommes intéressés à un autre problème ardu, celui de la prédiction lorsque la distribution de la classe est déséquilibrée. C'est ainsi que nous proposons une méthode adaptative du type boosting fondée sur la classification associative qui a l’intérêt de permettre la focalisation sur des petits groupes de cas, ce qui est bien adapté aux données déséquilibrées. Cette méthode repose sur 3 contributions : FCP-Growth-P, un algorithme supervisé de génération des itemsets de classe fréquents dérivé de FP-Growth dans lequel est introduit une condition d'élagage fondée sur les contre-exemples pour la spécification des règles, W-CARP une méthode de classification associative qui a pour but de donner des résultats au moins équivalents à ceux des approches existantes pour un temps d'exécution beaucoup plus réduit, enfin CARBoost, une méthode de classification associative adaptative qui utilise W-CARP comme classifieur faible. Dans un chapitre applicatif spécifique consacré à la détection d’intrusion, nous avons confronté les résultats de AdaBoost-Hybride et de CARBoost à ceux des méthodes de référence (données KDD Cup 99)
Machine learning often overlooks various difficulties when confronted real data. Indeed, these data are generally complex, voluminous, and heterogeneous, due to the variety of sources. Among these problems, the most well known concern the sensitivity of the algorithms to noise and unbalanced data. Overcoming these problems is a real challenge to improve the effectiveness of the learning process against real data. In this thesis, we have chosen to improve adaptive procedures (boosting) that are less effective in the presence of noise or with unbalanced data.First, we are interested in robustifying Boosting against noise. Most boosting procedures have contributed greatly to improve the predictive power of classifiers in data mining, but they are prone to noisy data. In this case, two problems arise, (1) the over-fitting due to the noisy examples and (2) the decrease of convergence rate of boosting. Against these two problems, we propose AdaBoost-Hybrid, an adaptation of the Adaboost algorithm that takes into account mistakes made in all the previous iteration. Experimental results are very promising.Then, we are interested in another difficult problem, the prediction when the class is unbalanced. Thus, we propose an adaptive method based on boosted associative classification. The interest of using associations rules is allowing the focus on small groups of cases, which is well suited for unbalanced data. This method relies on 3 contributions: (1) FCP-Growth-P, a supervised algorithm for extracting class frequent itemsets, derived from FP-Growth by introducing the condition of pruning based on counter-examples to specify rules, (2) W-CARP associative classification method which aims to give results at least equivalent to those of existing approaches but in a faster manner, (3) CARBoost, a classification method that uses adaptive associative W-CARP as weak classifier. Finally, in a chapter devoted to the specific application of intrusion’s detection, we compared the results of AdaBoost-Hybrid and CARBoost to those of reference methods (data KDD Cup 99)
38

Voglozin, W. Amenel. "Le résumé linguistique de données structurées comme support pour l'interrogation." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00481049.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans cette thèse traite de l'utilisation des résumés de données dans l'in- terrogation. Dans le contexte des résumés linguistiques du modèle SaintEtiQ sur lequel se focalise cette thèse, un résumé est une description du contenu d'une table relationnelle. Grâce à la définition de variables linguistiques, il est possible d'utiliser des termes du langage pour caractériser les données structurées de la table. En outre, l'organisation des résumés en hié- rarchie offre divers niveaux de granularité. Nous nous intéressons à fournir une application concrète aux résumés déjà construits. D'une part, nous étudions les possibilités d'utilisation des résumés dans une interrogation à but descriptif. L'objectif est de décrire entièrement des données dont certaines caractéristiques sont connues. Nous proposons une démarche de re- cherche de concepts et une instanciation de cette démarche. Ensuite, une étude des systèmes d'interrogation flexible, dont certains ont, ainsi que SaintEtiQ, la théorie des sous-ensembles flous comme base, nous permet d'enrichir la démarche proposée par des fonctionnalités plus avancées. D'autre part, nous avons intégré les résumés linguistiques de SaintEtiQ au SGBD PostgreSQL. L'objectif est d'aider le SGBD à identifier des enregistrements. Nous présen- tons un état de l'art des techniques d'indexation, ainsi que le détail de l'implémentation des résumés en tant que méthode d'accès dans PostgreSQL.
39

Magnan, Christophe Nicolas. "Apprentissage à partir de données diversement étiquetées pour l'étude du rôle de l'environnement local dans les interactions entre acides aminés." Aix-Marseille 1, 2007. http://www.theses.fr/2007AIX11022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions le problème bioinformatique de la prédiction de contacts ponctuels entre résidus distants sur la séquence d'une protéine. L'étude de l'état de l'art sur ce problème a fait ressortir des questions sur la modélisation de ce problème ainsi que sur le rôle de l'environnement local des acides aminés appariés dans la formation de ces contacts. Plusieurs considérations biologiques d'une part, et des expérimentations d'autre part, montrent la nécessité d'étudier deux contextes d'apprentissage jusqu'ici peu connus et peu étudiés pour répondre à ces questions. Nous montrons que ces deux contextes d'apprentissage sont mal posés dans le cadre général de l'apprentissage statistique, mais que certaines hypothèses sur les distributions sous-jacentes permettent de les rendre bien posés. Des adaptations de méthodes connues de l'apprentissage à ces contextes sont proposées puis utilisées pour tenter de répondre aux questions biologiques initialement posées
The 3D structure of proteins is constrained by some interactions between distant amino acids in the primary sequences. An accurate prediction of these bonds may be a step forward for the prediction of the 3D structure from sequences. A review of the literature raises questions about the role of the neighbourhood of bonded amino acids in the formation of these bonds. We show that we have to investigate uncommon learning frameworks to answer these questions. The first one is a particular case of semi-supervised learning, in which the only labelled data to learn from belong to one class, and the second one considers that the data are subject to class-conditional classification noise. We show that learning in these frameworks leads to ill-posed problems. We give some assumptions that make these problems well-posed. We propose adaptations of well-known methods to these learning frameworks. We apply them to try to answer the questions on the biological problem considered in this study
40

Barriot, Roland. "Intégration des connaissances biologiques à l'échelle de la cellule." Bordeaux 1, 2005. http://www.theses.fr/2005BOR13100.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse dans le domaine de la bio-informatique porte sur la représentation et la confrontation des données biologiques. La disponibilité d'un nombre croissant de génomes complets et l'accumulation de résultats expérimentaux produits par des apprcohes post-séquençage à l'échelle de la cellule et à haut débit doivent permettre de mieux comprendre l'articulation entre les mécanismes moléculaires et les fonctions cellulaires. L'intégration de ces données volumineuses et hétérogènes permettra de progresser vers une meilleure connaissance du fonctionnement de la cellule. Nous présentons un cadre formel pour la présentation de ces données permettant leur intégration à l'échelle de la cellule en vue de leur confrontation et de leur recoupement afin d'établir des correspondances nouvelles entre les données. Notre approche repose sur la généralisation du concept de voisinage entre les objets biologiques et sa représentation en ensembles partiellement ordonnés. Nous définissons une mesure de similarité entre les ensemble qui nous permet de confronter des données hétérogènes en recherchant des ensembles similaires entre les ensembles composant différents voisinages. La mise en oeuvre de ces concepts est illustrée avec la conception du système BlastSets grâce auquel des résultats biologiques préliminaires ont permis de valider l'approche.
41

Ilponse, Fabrice. "Analyse du bruit dû aux couplages capacitifs dans les circuits intégrés numériques fortement submicroniques." Paris 6, 2002. http://www.theses.fr/2002PA066417.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Moreau, Aurélien. "How fuzzy set theory can help make database systems more cooperative." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S043/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ces travaux de thèse nous proposons de tirer parti de la théorie des ensembles flous afin d'améliorer les interactions entre les systèmes de bases de données et les utilisateurs. Les mécanismes coopératifs visent à aider les utilisateurs à mieux interagir avec les SGBD. Ces mécanismes doivent faire preuve de robustesse : ils doivent toujours pouvoir proposer des réponses à l'utilisateur. Empty set (0,00 sec) est un exemple typique de réponse qu'il serait désirable d'éradiquer. Le caractère informatif des explications de réponses est parfois plus important que les réponses elles-mêmes : ce peut être le cas avec les réponses vides et pléthoriques par exemple, d'où l'intérêt de mécanismes coopératifs robustes, capables à la fois de contribuer à l'explication ainsi qu'à l'amélioration des résultats. Par ailleurs, l'utilisation de termes de la langue naturelle pour décrire les données permet de garantir l'interprétabilité des explications fournies. Permettre à l'utilisateur d'utiliser des mots de son propre vocabulaire contribue à la personnalisation des explications et améliore l'interprétabilité. Nous proposons de nous intéresser aux explications dans le contexte des réponses coopératives sous trois angles : 1) dans le cas d'un ensemble pléthorique de résultats ; 2) dans le contexte des systèmes de recommandation ; 3) dans le cas d'une recherche à partir d'exemples. Ces axes définissent des approches coopératives où l'intérêt des explications est de permettre à l'utilisateur de comprendre comment sont calculés les résultats proposés dans un effort de transparence. Le caractère informatif des explications apporte une valeur ajoutée aux résultats bruts, et forme une réponse coopérative
In this thesis, we are interested in how we can leverage fuzzy logic to improve the interactions between relational database systems and humans. Cooperative answering techniques aim to help users harness the potential of DBMSs. These techniques are expected to be robust and always provide answer to users. Empty set (0,00 sec) is a typical example of answer that one may wish to never obtain. The informative nature of explanations is higher than that of actual answers in several cases, e.g. empty answer sets and plethoric answer sets, hence the interest of robust cooperative answering techniques capable of both explaining and improving an answer set. Using terms from natural language to describe data --- with labels from fuzzy vocabularies --- contributes to the interpretability of explanations. Offering to define and refine vocabulary terms increases the personalization experience and improves the interpretability by using the user's own words. We propose to investigate the use of explanations in a cooperative answering setting using three research axes: 1) in the presence of a plethoric set of answers; 2) in the context of recommendations; 3) in the context of a query/answering problem. These axes define cooperative techniques where the interest of explanations is to enable users to understand how results are computed in an effort of transparency. The informativeness of the explanations brings an added value to the direct results, and that in itself represents a cooperative answer
43

Pajot, Gwendoline. "Caractérisation, analyse et interprétation des données de gradiométrie en gravimétrie." Phd thesis, Institut de physique du globe de paris - IPGP, 2007. http://tel.archives-ouvertes.fr/tel-00341117.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La mesure des dérivées spatiales du champ de pesanteur, ou gradiométrie en gravimétrie, est née au début du XXe siècle avec la balance de torsion d'Eötvös, premier gradiomètre. Utilisée avec succès pour la prospection géophysique, cette technique fut cependant délaissée pour un temps au profit de la gravimétrie, plus facile et moins coûteuse. Cependant, les développements instrumentaux en gradiométrie ont continué, et les gradiomètres actuels permettent la mesure simultanée des gradients de pesanteur dans trois directions indépendantes de l'espace. La gradiométrie en gravimétrie connaît ainsi une renaissance, et l'Agence Spatiale Européenne lancera en 2008 le satellite GOCE, avec à son bord le premier gradiomètre spatial, permettant la cartographie globale de la pesanteur avec une résolution spatiale sans précédent. Cette étude est consacrée au signal de gradiométrie en gravimétrie, de l'acquisition des données à leur interprétation. Plus spécifiquement, dérivant d'un même potentiel, l'accélération de la pesanteur et ses dérivées peuvent être considérées comme des mesures interdépendantes d'une même quantité. Nous avons élaboré une méthode permettant, en exploitant cette redondance, de réduire le bruit dans les données de gradiométrie et, plus efficacement, dans celles de gravimétrie. Nous utilisons également une propriété spécififique des gradients de pesanteur, l'existence d'invariants scalaires combinant les différents gradients, que nous relions à la géométrie des sources à l'origine des anomalies de pesanteur. Nous avons ainsi développé une méthode, complémentaire à la déconvolution d'Euler des données de gravimétrie, qui améliore la localisation de ces sources.
44

Chen, Mingkun. "Classification de variables autour de variables latentes avec filtrage de l’information : application à des données en grande dimension." Nantes, 2014. http://archive.bu.univ-nantes.fr/pollux/show.action?id=dc97aa41-ffd6-432b-a740-06382adaca0a.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec le développement des techniques d'analyse à haut débit, les chercheurs ont adopté des démarches de profilage systémique qui permettent l'analyse descriptive simultanée d'un grand nombre de variables. Une des diffcultés réside dans la synthèse et l'interprétation de ces nombreuses informations. Nous adoptons ici une approche de classiffcation de variables (CLV) qui permet de mettre en lumière des structures disjonctives pour la réduction de la dimensionnalité du problème, facilitant ainsi l'interprétation des données. Cependant, afin d'améliorer davantage la pertinence de ce type d'approches, deux directions d'investigation sont proposées. La première consiste à filtrer les données de sorte à écarter les variables isolées ouassociées à du bruit de fond. Une stratégie qui consiste à créer un groupe supplémentaire de variables, appelé « noise cluster", ainsi qu'une stratégie fondée sur la définition de variables latentes de groupe creuses (ou sparse) sont proposées et comparées. La seconde direction d'investigation est le développement d'une procédure de classification de variables dirigée vers l'explication d'une variable de réponse. Un algorithme itératif de classification/extraction est proposé. Il fournit une séquence de variables latentes de groupes ayant de bonnes performances en prédiction. Elles sont également simples à interpréter dans la mesure ou chaque composante prédictrice n'est associée qu'à un sous-ensemble de variables exploratoires conçu pour avoir une structure pratiquement unidimensionnelle
With the development of high-throughput analysis techniques, researchers have adopted systematic approaches to describe simultaneously a large number of variables. However, one of the important challenges lies in the diffculty to summarise and interpret this enormous quantity of information. We adopt a clustering of variables approach (CLV) which allows us to highlight disjunctive structures, and therefore, reduce the dimensionality of the problem and facilitate the interpretation of the data at hand. However, in order to further improve the relevance of such approaches, two directions of investigation are proposed. The first direction involves filtering the data by setting aside atypical variables or variables associated with noise. For this purpose, a strategy to create an additional group of variables, called noise cluster, and a strategy based on the definition of sparse latent variables are proposed and compared. The second direction concerns the development of a clustering of variables procedure directed to the explanation of a response variable. The implementation of iterative algorithms provides a sequence of group latent variables with good predictive performance. These latent variables are also easy to interpret since each predictive component is associated with a subset of variables assumed to have a one-dimensional structure
45

Biletska, Krystyna. "Estimation en temps réel des flux origines-destinations dans un carrefour à feux par fusion de données multicapteurs." Compiègne, 2010. http://www.theses.fr/2010COMP1893.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La qualité de l’information concernant les origines et les destinations (OD) des véhicules dans un carrefour influence la performance de nombreux systèmes des transports routiers. La période de sa mise à jour conditionne l’échelle temporelle de fonctionnement de ces systèmes. Nous nous intéressons au problème de reconstitution à chaque cycle de feux des OD des véhicules traversant un carrefour à partir des états des feux et des mesures de trafic provenant des capteurs vidéo. Les mesures de trafic, fournies à la seconde, sont les débits aux entrées/sorties du carrefour et les nombres de véhicules en arrêt dans les zones internes du carrefour. Ces données réelles sont entachées d’imperfections. La seule méthode existante qui est capable de résoudre ce problème, nommée ORIDI, ne tient pas compte de l’imperfection des données. Nous proposons une nouvelle méthode modélisant l’imprécision de données par la théorie des sous-ensembles flous. Elle est applicable à tout type de carrefour et indépendante du type de stratégie de feux. Elle consiste à estimer les flux OD à partir de la loi de conservation des véhicules représentée par un système d’équation sous déterminé construit de façon dynamique à chaque cycle de feux grâce aux réseaux de Petri a-temporisés flous. Une solution unique est trouvée grâce à huit différentes méthodes qui représentent l’estimation sous forme d’un point, d’un intervalle ou d’un sous-ensemble flou. Notre étude montre que les méthodes nettes sont aussi précises qu’ORIDI, mais plus robustes face à une panne d’un des capteurs vidéo. Les méthodes ensemblistes et floues, étant moins précises qu’ORIDI, cherchent à garantir que la solution inclut la vraie valeur
The quality of the information about origins and destinations (OD) of vehicles in a junction influences the performance of many road transport systems. The period of its update determines the temporal scale of working of these systems. We are interested in the problem of reconstituting of the OD of vehicles crossing a junction, at each traffic light cycle, using the traffic light states and traffic measurements from video sensors. Traffic measurements, provided every second, are the vehicle counts made on each entrance and exit of the junction and the number of vehicles stopped at each inner section of the junction. Thses real date are subject to imperfections. The only existent method, named ORIDI, which is capable of resolving this problem doesn’t take into account the data imperfection. We propose a new method modelling the date imprecision by the theory of fuzzy subsets. It can be applied to any type of junction and is independent of the type of traffic light strategy. The method estimates OD flows from the vehicle conservation law represented by an underdetermined system of equations constructed in a dynamic way at each traffic light cycle using to the fuzzy a-timed Petri nets. A unique solution is found thanks to eight different methods which introduce estimate in the form of point, interval or fuzzy set. Our study shows that the crisp methods are accurate like ORIDI, but more robust when one of the video sensors is broken down. The interval and fuzzy methods, being less accurate than ORIDI, try to guarantee that the solution includes the true value
46

Adong, Feddy. "Écoulements diphasiques, surfaces rugueuses et vitesse de glissement : modélisation asymptotique et calcul Numérique." Caen, 2014. http://www.theses.fr/2014CAEN2065.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse s'intéresse aux écoulements diphasiques de deux fluides non miscibles et, en particulier, aux écoulements sur des surfaces micro texturées où le fluide dans la phase gazeuse est intégralement piégé dans les creux des rugosités. Le travail est décomposé en deux parties: la première consacrée à la modélisation asymptotique et la seconde à la mise en œuvre d'un solveur numérique permettant de simuler des écoulements à forte capillarité. L'analyse asymptotique est réalisée sur une cavité rectangulaire et basée sur l'hypothèse de faibles déflexions de l'interface. Dans un premier temps, la contrainte visqueuse exercée par le fluide piégé sous l'interface est négligée et nous aboutissons à une première approximation semi-analytique. Lorsque la cavité est peu profonde, cette contrainte doit être prise en compte et une seconde approximation est obtenue. Dans les deux cas, nous montrons que la prise en compte de la courbure et/ou de l'écoulement du fluide piégé implique une diminution du glissement effectif. Dans la seconde partie, le code de calcul est construit en modifiant le solveur interFoam de la libraire OpenFoam. Dans le nouveau solveur, le calcul de la courbure est amélioré par l'introduction d'une fonction LevelSet. Un filtre numérique est utilisé afin de diminuer les oscillations parasites. De plus, différents modèles dynamiques d'angle de contact, des schémas essentiellement non oscillants et une formulation sans dimension sont également ajoutés. Les modifications apportées sont validées à l'aide de BenchMarks. Pour finir, le code de calcul est appliqué au problème étudié et des comparaisons avec l'analyse asymptotique sont présentées
The thesis considers two-phase flows of immiscible fluids and in particular those past micro-textured rough surfaces where the gas phase is completely trapped within the roughness cavity. The work is divided in two parts the first of which is dedicated to asymptotic modelling while the second to developing a computational solver to simulate flows characterised by strong capillarity. The asymptotic analysis itself is based on interfaces with small deflections and focuses on a rectangular cavity. This leads to a semi-analytic approximation when the viscous stress, applied by the fluid trapped beneath the interface within the roughness cavity, is neglected. It is found that when the cavity is shallow, the viscous stress must be taken into account where a second approximation is needed. In both cases, it is shown that taking into account the interface curvature and/or the flow of the trapped fluid implies a reduction of the effective slip. In the second part, a new computational code is developed in modifying the interFoam solver of the OpenFoam open-source package. In this new solver, the curvature computation is improved by the introduction of the Level-Set function. The latter is then coupled to a numerical filter to reduce further parasite oscillations. Further more, essentially non-oscillating schemes, different models of dynamic contact angles and a non-dimensional formulation are also integrated in the code. These contributions and modifications are then validated on Bench-marks flow problems with the code being finally applied to the problem under consideration. Comparisons between numerical results and asymptotic modelling are also presented
47

Al-Najdi, Atheer. "Une approche basée sur les motifs fermés pour résoudre le problème de clustering par consensus." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4111/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le clustering est le processus de partitionnement d’un ensemble de données en groupes, de sorte que les instances du même groupe sont plus semblables les unes aux autres qu’avec celles de tout autre groupe. De nombreux algorithmes de clustering ont été proposés, mais aucun d’entre eux ne s’avère fournir une partitiondes données pertinente dans toutes les situations. Le clustering par consensus vise à améliorer le processus de regroupement en combinant différentes partitions obtenues à partir de divers algorithmes afin d’obtenir une solution de consensus de meilleure qualité. Dans ce travail, une nouvelle méthode de clustering par consensus, appelée MultiCons, est proposée. Cette méthode utilise la technique d’extraction des itemsets fréquents fermés dans le but de découvrir les similitudes entre les différentes solutions de clustering dits de base. Les similitudes identifiées sont représentées sous une forme de motifs de clustering, chacun définissant un accord entre un ensemble de clusters de bases sur le regroupement d’un ensemble d’instances. En traitant ces motifs par groupes, en fonction du nombre de clusters de base qui définissent le motif, la méthode MultiCons génère une solution de consensus pour chaque groupe, générant par conséquence plusieurs consensus candidats. Ces différentes solutions sont ensuite représentées dans une structure arborescente appelée arbre de consensus, ouConsTree. Cette représentation graphique facilite la compréhension du processus de construction des multiples consensus, ainsi que les relations entre les instances et les structures d’instances dans l’espace de données
Clustering is the process of partitioning a dataset into groups, so that the instances in the same group are more similar to each other than to instances in any other group. Many clustering algorithms were proposed, but none of them proved to provide good quality partition in all situations. Consensus clustering aims to enhance the clustering process by combining different partitions obtained from different algorithms to yield a better quality consensus solution. In this work, a new consensus clustering method, called MultiCons, is proposed. It uses the frequent closed itemset mining technique in order to discover the similarities between the different base clustering solutions. The identified similarities are presented in a form of clustering patterns, that each defines the agreement between a set of base clusters in grouping a set of instances. By dividing these patterns into groups based on the number of base clusters that define the pattern, MultiCons generates a consensussolution from each group, resulting in having multiple consensus candidates. These different solutions are presented in a tree-like structure, called ConsTree, that facilitates understanding the process of building the multiple consensuses, and also the relationships between the data instances and their structuring in the data space. Five consensus functions are proposed in this work in order to build a consensus solution from the clustering patterns. Approach 1 is to just merge any intersecting clustering patterns. Approach 2 can either merge or split intersecting patterns based on a proposed measure, called intersection ratio
48

Broudin, Gwenaelle. "Recherche de la double décroissance bêta sans émission de neutrino du 82Se. Analyse des données et modélisation du bruit de fond du détecteur NEMO3." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2007. http://tel.archives-ouvertes.fr/tel-00404363.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La double désintégration β est un type de radioactivité rare. On en distingue deux types : la double désintégration β avec émission de neutrinos permise par le Modèle Standard, et sans émission de neutrinos, en revanche interdite. La mise en évidence de la double désintégration β sans émission de neutrino permettrait d'accéder à l'échelle de masse du neutrino et de connaître sa nature (particule de Dirac ou de Majorana). L'expérience NEMO recherche le processus de double désintégration β sans émission de neutrino à l'aide du détecteur NEMO3, qui renferme 10 kg d'isotopes radioactifs double β, dont 932 g de 82Se. L'analyse des données de l'expérience relatives au 82Se consiste en la recherche d'un signal correspondant au processus interdit. La première partie de ce travail a consisté à définir un modèle du bruit de fond de l'expérience pour la recherche de la double désintégration bêta sans émission de neutrino. Le détecteur NEMO3 permet la mesure de ses propres bruits de fond. Une étude détaillée des sources de bruit de fond de l'expérience est effectuée à partir des données enregistrées par le détecteur. La seconde partie de ce travail a permis de donner une limite supérieure sur la période de la double décroissance bêta sans émission de neutrino du 82Se pour plusieurs mécanismes : l'échange de neutrinos légers de Majorana, l'interaction faible à courant droit et l'émission de Majoron. Mots-clés : Neutrino, décroissance double bêta, bruits de fond, radioactivité.
49

Broudin, Gwénaëlle. "Recherche de la double décroissance bêta sans émission de neutrino du ⁸²Se : Analyse des données et modélisation du bruit de fond du détecteur NEMO3." Bordeaux 1, 2007. http://www.theses.fr/2007BOR13376.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La double désintégration β est un type de radioactivité rare. On en distingue deux types : la double désintégration β avec émission de neutrinos permise par le Modèle Standard, et sans émission de neutrinos, en revanche interdite. La mise en évidence de la double désintégration β sans émission de neutrino permettrait d'accéder à l'échelle de masse du neutrino et de connaître sa nature (particule de Dirac ou de Majorana). L'expérience NEMO recherche le processus de double désintégration β sans émission de neutrino à l'aide du détecteur NEMO3, qui renferme 10 kg d'isotopes radioactifs double β, dont 932 g de ⁸²Se. L'analyse des données de l'expérience relative au ⁸²Se consiste en la recherche d'un signal correspondant au processus interdit. La première partie de ce travail a consisté à définir un modèle du bruit de fond de l'expérience pour la recherche de la double désintégration bêta sans émission de neutrino. Le détecteur NEMO3 permet la mesure de ses propres bruits de fonds. Une étude détaillée des sources de bruit de fond de l'expérience est effectuée à partir des données enregistrées par le détecteur. La seconde partie de ce travail a permis de donner une limite supérieure sur la période de la double décroissance bêta sans émission de neutrino du ⁸²Se pour plusieurs mécanismes : l'échange de neutrinos légers de Majorana, l'interaction faible à courant droit et l'émission de Majoron.
50

Jabbour-Hattab, Jean. "Une approche probabiliste du profil des arbres binaires de recherche." Versailles-St Quentin en Yvelines, 2001. http://www.theses.fr/2001VERS002V.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le sujet principal de cette thèse est l'étude asymptotique du profil des arbres binaires de recherche, c'est à dire la répartition des nuds de ces arbres par niveau de profondeur. Les résultats sont atteints en utilisant conjointement des techniques analytiques et probabilistes et s'étendent au cas des arbres binaires associés à l'algorithme classique de gestion d'équivalence" Union Find". Une étude porte également sur les arbres binaires de recherche multidimensionnels ou k-d arbres ; elle concerne une nouvelle méthode de choix des clés, imaginé par L. Devroye. Nous montrons que, avec cette méthode, le temps moyen mis par l'algorithme de Bentley pour répondre à une recherche d'orthogonale ou à une recherche de correspondances partielles est asymptotiquement optimal.

До бібліографії