Добірка наукової літератури з теми "Bruit des ensembles de données"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Bruit des ensembles de données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Bruit des ensembles de données":

1

Chouaf, Seloua, and Youcef Smara. "Méthode de sélection des bandes à base de l'Analyse en Composantes Indépendantes appliquée aux images hyperspectrales de télédétection." Revue Française de Photogrammétrie et de Télédétection, no. 204 (April 8, 2014): 57–62. http://dx.doi.org/10.52638/rfpt.2013.22.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les données hyperspectrales se caractérisent par une importante dimension spectrale qui atteint quelques centaines de bandes étroites et contigües. Le volume occupé par ces images est non négligeable et fait que des taches usuelles telles que : le stockage, le traitement et l'analyse soient alourdies. Pour pallier ce problème et garantir une meilleure exploitation de ces données, nous proposons par le présent article, une méthode de réduction qui vise à créer un espace de représentation de dimension moindre, informatif et libéré des redondances tout en préservant la signification physique des bandes.Vu le pouvoir de séparation de l'analyse en composantes indépendantes «ACI», reconnu dans le cas des données multidimensionnelles à grand volume, nous l'exploitons pour extraire un ensemble de composantes statistiquement indépendantes obtenues par la minimisation de la gaussiannité. Différents degrés d'importance sont affectés aux bandes spectrales, permettant leur classement. Finalement, nous appliquons une sélection à l'ensemble des bandes classées et nous retenons les plus informatives afin de construire l'espace de représentation spectral réduit. Pour nos tests, nous avons appliqué l'ACI en considérant d'une part, une orthogonalisation à déflation (poursuite de projections, composantes ordonnées) et d'autre part, une orthogonalisation symétrique (estimation globale, composantes désordonnées). On suggère pour le cas symétrique, d'ajuster les données originales à un bruit additif afin d'obtenir des composantes indépendantes ordonnées (suivant le rapport signal à bruit). Les résultats recueillis montrent que la méthode proposée assure la réduction du cube hyperspectral avec d'acceptables rapports dimension-représentativité.
2

Brahmi, Ghanem, and Mohammed Bougara. "Atténuation du ground roll par le filtre surface wave atténuation : application pour le cas des données sismiques." Boletín de Ciencias de la Tierra, no. 52 (January 22, 2023): 29–36. http://dx.doi.org/10.15446/rbct.105227.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’étape de l’interprétation sismique reste tributaire de la qualité des enregistrements des données, souvent affectés par des bruits cohérents et incohérents. Le but principal de ce travail consiste à l’utilisation du filtre "Surface Wave Noise Atténuation" basé sur la transformée de Fourier afin d’atténuer le bruit de surface présent sur une section sismique sommée en couverture multiple. Le filtre proposé a été appliqué dans le premier stade de notre test, sur des données sismiques synthétiques sur lesquelles un bruit organisé a été ajouté, tandis qu’en second, le filtre a été appliqué sur des données réelles, pour éliminer dans la mesure du possible le ground roll affectant l’image sismique avant et après sommation. L’optimisation des paramètres du filtre a permis d’obtenir une qualité sismique acceptable. Le recours à d’autres filtres, le filtre médian et le filtre gaussien en l’occurrence, ont permis d’atténuer le bruit résiduel et les réflecteurs apparaissent d’une façon encore meilleure.
3

Courgeau, Daniel. "Analyse des données biographiques erronées." Population Vol. 46, no. 1 (January 1, 1991): 89–104. http://dx.doi.org/10.3917/popu.p1991.46n1.0104.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Courgeau Daniel. - Analyse des données biographiques erronées. A l'aide des données recueillies auprès de chaque époux, des conjoints réunis et des registres de population, qui portent sur divers événements de la vie familiale et migratoire des enquêtes, cet article met en évidence l'effet des erreurs de datation sur les résultats des diverses analyses de ces biographies. En dépit de la mauvaise fiabilité des données rétrospectives, en particulier sur les migrations, les résultats sont peu discernables selon la source utilisée et les variables prises en compte. Il semble que ces erreurs ne modifient pas ou changent peu l'ordre logique dans lequel les événements se produisent. Les erreurs de datation jouent dont le rôle d'un bruit de fond d'où l'on peut extraire une information cohérente quelle que soit la source utilisée.
4

Messing, Karen, Katherine Lippel, Susan Stock, and France Tissot. "Si le bruit rend sourd, rend-il nécessairement sourde ?" Revue multidisciplinaire sur l'emploi, le syndicalisme et le travail 6, no. 2 (October 13, 2011): 3–25. http://dx.doi.org/10.7202/1006119ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au Québec, des données spécifiques concernant les conditions d’emploi, de travail et de rémunération des hommes et des femmes sont publiées régulièrement. Depuis peu, des données ventilées selon le sexe commencent à alimenter les efforts de prévention en santé au travail. Malgré ces progrès, certains défis techniques, idéologiques et politiques demeurent: allant des difficultés dans les calculs des populations à risque, à la réticence à adapter les postes de travail ou à adapter la formation à la spécificité biologique des femmes. La recherche sur la santé des femmes au travail a beaucoup progressé, mais il reste plusieurs étapes à franchir. Notons également que les spécificités associées au genre des hommes sont presqu'entièrement oubliées dans les études. Il est difficile de conserver un équilibre entre la protection de la santé et l’égalité des sexes dans la recherche et l’intervention en santé au travail. Pour assurer cet équilibre, la recherche doit se faire en collaboration avec les travailleuses et travailleurs. Ils peuvent ainsi contribuer à construire une base solide d’informations qui permettront aux gouvernements, aux organismes responsables de la prévention en santé au travail, aux employeurs et aux syndicats de tenir compte, dans leurs politiques, des besoins des deux sexes en santé au travail.
5

Py, Bernard. "Les données orales exolingues entre magma verbal, interlangue et langue." Cahiers du Centre de Linguistique et des Sciences du Langage, no. 23 (April 9, 2022): 51–54. http://dx.doi.org/10.26034/la.cdclsl.2007.1429.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Qui ne s’est jamais senti désemparé devant sa propre incapacité à comprendre les paroles d’autrui, plus précisément devant l’opacité d’un discours énoncé par une personne dont les connaissances linguistiques diffèrent fortement des nôtres ? Opacité phonologique, morphologique, sémantique, ou encore pragmatique, partielle ou totale… Dans certaines situations, ces différentes couches d’opacité se conjuguent de telle sorte que le récepteur éprouve la sensation angoissante de perdre complètement pied et d’avoir affaire à une sorte de bruit désarticulé, que j’ai désigné alors par l’expression discutable de magma verbal. Le récepteur ne sait alors plus à quel élément se raccrocher pour tenter la moindre interprétation. Pourtant l’expérience laisse penser que les personnes embourbées dans cette voie apparemment sans issue finissent par s’y retrouver !
6

Chagnaud, Clément, Philippe Garat, Paule-Annick Davoine, and Guylaine Brun-Trigaud. "Classification d’aires de dispersion à l’aide d’un facteur géographique." Revue Internationale de Géomatique 30, no. 1-2 (January 2020): 67–83. http://dx.doi.org/10.3166/rig.2020.00107.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous proposons une procédure d’analyse statistique multidimensionnelle couplant des méthodes de projection et de classification pour identifier des ensembles cohérents au sein d’un corpus d’entités géographiques surfaciques que l’on appelle aires de dispersion. La méthodologie intègre un facteur géographique dans la construction de l’espace de représentation pour la projection des données. En appliquant ces méthodes sur des données géolinguistiques, nous pouvons identifier et expliquer de nouvelles structures spatiales au sein d’un corpus d’aires de dispersion de traits linguistiques.
7

PLOTARD, Christophe, Sylvain MOULHERAT, Catherine De ROINCÉ, and Jérémie CORNUAU. "Prendre en compte la pollution sonore dans une modélisation de dynamiques de populations d’espèces." Sciences Eaux & Territoires, no. 43 (October 8, 2023): 43–47. http://dx.doi.org/10.20870/revue-set.2023.43.7512.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’étude des effets des nuisances sonores sur la biodiversité progresse lentement mais sûrement. Dans la foulée d’autres trames écologiques, le concept émergent de « trame blanche » vise à identifier les zones d’un territoire où la pollution sonore doit être contenue ou réduite en priorité afin de permettre aux espèces d’accomplir la totalité de leur cycle de vie. Grâce à la progression des connaissances scientifiques et à l’accès à certaines données de mesures du bruit, il devient désormais possible de modéliser l’impact des nuisances sonores sur les dynamiques démographiques et les déplacements de populations d’espèces à l’échelle d’un paysage. L’intégration du bruit comme facteur de pression repose sur l’existence d’une relation entre le niveau de puissance sonore et la qualité des milieux, à la fois en tant que patchs d’habitats potentiels et espaces de déplacements des espèces. Cet article présente en particulier la démarche mise en œuvre dans le cadre de l’évaluation des impacts de la pollution sonore d’une ligne de métro sur neuf espèces.
8

Fangseu Badjio, Edwige, and François Poulet. "Théorie du consensus appliquée au prétraitement des ensembles de données." Revue d'intelligence artificielle 22, no. 3-4 (August 1, 2008): 383–400. http://dx.doi.org/10.3166/ria.22.383-400.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Gendron, Daniel. "La présence « viking » au Nunavik: beaucoup de bruit pour rien!" Études/Inuit/Studies 39, no. 2 (December 2, 2016): 295–303. http://dx.doi.org/10.7202/1038152ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans les années 1950, les maisons longues dorsétiennes étaient inconnues des archéologues travaillant dans l’Arctique. La découverte de l’une d’entre elles près de Kangirsuk (Nunavik) au début des années 1960 représentait un apport considérable au corpus des données sur la culture de Dorset, mais Thomas Lee ne l’a jamais présentée comme telle. D’une certaine manière, cette découverte se trouva emmêlée dans quelque chose d’autre, et bien qu’à l’heure actuelle les maisons dorsétiennes soient identifiées en différents lieux du monde arctique, le site Imaha à l’île Pamiok reste porteur de fallacieux fantômes du passé. Entretenant les conclusions infondées des travaux archéologiques qui y ont été réalisés au milieu des années 1960, les Kangirsummiut croient encore que ce site est d’origine viking, et ce mythe est entretenu à l’extérieur du Nunavik par des visiteurs qui n’en savent pas davantage. Cet essai vise à mettre fin une fois pour toutes à ces croyances fantasques et à restituer au site Imaha sa véritable nature.
10

Vergniault, Christophe, and Sylvain Pouliquen. "Retour d’expérience sur l’évolution des méthodes géophysiques pour construire un modèle de sol en mer, utilisable pour des projets géotechniques." E3S Web of Conferences 342 (2022): 01002. http://dx.doi.org/10.1051/e3sconf/202234201002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cet article détaille l’évolution des méthodes de caractérisation géophysique du sous-sol marin en s’appuyant sur une série d’exemples d’acquisition de données EDF. En environnement structural complexe, là où les méthodes géophysiques classiques (Réfraction, MASW, …) ne suffisent pas, EDF utilise de plus en plus l’imagerie par sismique réflexion afin d’accéder au modèle géométrique du sous-sol. Dans un premier temps, les choix d’EDF se sont tournés vers la combinaison de l’imagerie d’un sondeur de sédiments et d’un dispositif sismique plus pénétrant mais également monotrace. Rapidement le constat a été fait que ces dispositifs ne permettaient pas d’obtenir un rapport signal sur bruit suffisant. EDF s’est alors orienté vers des acquisitions sismiques 2D multi-trace et enfin, depuis peu EDF s’intéresse à la réalisation de mini-bloc 3D de très haute résolution. L’apport de ce type de données est sans comparaison en offrant la possibilité de cartographier en 3D les potentiels aléas géologiques impactant les travaux souterrains en mer.

Дисертації з теми "Bruit des ensembles de données":

1

Al, Jurdi Wissam. "Towards next generation recommender systems through generic data quality." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCD005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes de recommandation sont essentiels pour filtrer les informations en ligne et fournir un contenu personnalisé, réduisant ainsi l’effort nécessaire pour trouver des informations pertinentes. Ils jouent un rôle crucial dans divers domaines, dont le commerce électronique, en aidant les clients à trouver des produits pertinents, améliorant l’expérience utilisateur et augmentant les ventes. Un aspect significatif de ces systèmes est le concept d’inattendu, qui implique la découverte d’éléments nouveaux et surprenants. Cependant, il est complexe et subjectif, nécessitant une compréhension approfondie des recommandations fortuites pour sa mesure et son optimisation. Le bruit naturel, une variation imprévisible des données, peut influencer la sérendipité dans les systèmes de recommandation. Il peut introduire de la diversité et de l’inattendu dans les recommandations, conduisant à des surprises agréables. Cependant, il peut également réduire la pertinence de la recommandation. Par conséquent, il est crucial de concevoir des systèmes qui équilibrent le bruit naturel et la sérendipité. Cette thèse souligne le rôle de la sérendipité dans l’amélioration des systèmes de recommandation et la prévention des bulles de filtre. Elle propose des techniques conscientes de la sérendipité pour gérer le bruit, identifie les défauts de l’algorithme, suggère une méthode d’évaluation centrée sur l’utilisateur, et propose une architecture basée sur la communauté pour une performance améliorée
Recommender systems are essential for filtering online information and delivering personalized content, thereby reducing the effort users need to find relevant information. They can be content-based, collaborative, or hybrid, each with a unique recommendation approach. These systems are crucial in various fields, including e-commerce, where they help customers find pertinent products, enhancing user experience and increasing sales. A significant aspect of these systems is the concept of unexpectedness, which involves discovering new and surprising items. This feature, while improving user engagement and experience, is complex and subjective, requiring a deep understanding of serendipitous recommendations for its measurement and optimization. Natural noise, an unpredictable data variation, can influence serendipity in recommender systems. It can introduce diversity and unexpectedness in recommendations, leading to pleasant surprises. However, it can also reduce recommendation relevance, causing user frustration. Therefore, it is crucial to design systems that balance natural noise and serendipity. Inconsistent user information due to natural noise can negatively impact recommender systems, leading to lower-quality recommendations. Current evaluation methods often overlook critical user-oriented factors, making noise detection a challenge. To provide powerful recommendations, it’s important to consider diverse user profiles, eliminate noise in datasets, and effectively present users with relevant content from vast data catalogs. This thesis emphasizes the role of serendipity in enhancing recommender systems and preventing filter bubbles. It proposes serendipity-aware techniques to manage noise, identifies algorithm flaws, suggests a user-centric evaluation method, and proposes a community-based architecture for improved performance. It highlights the need for a system that balances serendipity and considers natural noise and other performance factors. The objectives, experiments, and tests aim to refine recommender systems and offer a versatile assessment approach
2

Durand, Marianne. "Combinatoire analytique et algorithmique des ensembles de données." Phd thesis, Ecole Polytechnique X, 2004. http://pastel.archives-ouvertes.fr/pastel-00000810.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite d'algorithmique des ensembles de données en adoptant le point de vue de la combinatoire analytique. On traite ici de trois problèmes qui illustrent cette approche: les listes à sauts associées à de l'analyse asymptotique bivariée, le hachage à essai aléatoire avec pagination et le comptage probabiliste. Les listes à sauts sont une structure de données intermédiaire entre les skiplists et les arbres binaires de recherche. L'étude de cette structure a donné lieu à un problème d'asymptotique bivariée avec coalescence de singularités. Le hachage avec essai aléatoire est un algorithme qui gère les collisions d'une table de hachage. Dans le contexte étudié qui est celui de la pagination, on obtient la moyenne, ainsi que tous les moments successifs du coût de construction. Les algorithmes de comptage probabilistes originaux Loglog et Super Loglog permettent d'estimer le cardinal d'un ensemble en utilisant un kilooctet de mémoire avec une précision d'environ 3%.
3

Pont, Mathieu. "Analysis of Ensembles of Topological Descriptors." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS436.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse topologique de données forme un ensemble d'outils visant à révéler de manière générique, robuste et efficace les caractéristiques structurelles implicites cachées dans des ensembles de données complexes. Ces outils permettent de calculer une représentation topologique pour chaque membre d'un ensemble de données en encodant ses principales caractéristiques d'intérêt de manière concise et informative. Un défi majeur consiste ensuite à concevoir des outils d'analyse pour de tels ensembles de descripteurs topologiques. Plusieurs outils ont été bien étudiées pour les diagrammes de persistance, l'un des descripteurs les plus utilisés. Cependant, ils souffrent d'un manque de spécificité, pouvant donner des représentations de données identiques pour des données significativement différentes. Dans cette thèse, nous avons cherché à développer des outils d'analyse plus avancés pour des ensembles de descripteurs topologiques, capables de résoudre le problème de discriminabilité des diagrammes de persistance et d'aller au-delà de ce qui était déjà disponible pour ces objets. Tout d'abord nous adaptons aux arbres de fusion, descripteurs ayant une meilleur spécificité, les outils déjà disponibles pour les diagrammes de persistance tels que le calcul de distances, géodésiques et barycentres. Ensuite, nous souhaitons aller au-delà de cette simple notion de moyenne qu'est le barycentre pour étudier la variabilité au sein d'un ensemble de descripteurs topologiques. Nous adaptons alors le cadre de l'Analyse en Composantes Principales aux diagrammes de persistance et les arbres de fusion, résultant une méthode de réduction de dimensions qui indique quelles structures dans l'ensemble sont les plus responsables de la variabilité. Cependant, ce cadre permet uniquement de détecter des tendances linéaires de variabilité dans l'ensemble. Pour résoudre ce problème, nous proposons de généraliser ce cadre aux Auto-Encodeurs afin de détecter des motifs non linéaires, i.e. plus complexes, dans un ensembles d'arbres de fusions ou de diagrammes de persistance. Plus précisément, nous proposons une nouvelle couche de réseau de neurones capable de traiter nativement ces objets. Nous présentons des applications de ces travaux pour le suivi de structures dans un ensemble de données variant dans le temps pour la réduction de données pour compresser un ensemble de descripteurs topologiques, dans le partitionnement pour former des groupes homogènes dans un ensemble, et dans la réduction de dimensions pour créer une carte visuelle indiquant comment les données sont organisées les unes par rapport aux autres dans l'ensemble
Topological Data Analysis (TDA) forms a collection of tools to generically, robustly and efficiently reveal implicit structural patterns hidden in complex datasets. These tools allow to compute a topological representation for each member of an ensemble of datasets by encoding its main features of interest in a concise and informative manner. A major challenge consists then in designing analysis tools for such ensembles of topological descriptors. Several tools have been well studied for persistence diagrams, one of the most used descriptor. However, they suffer from a lack of specificity, which can yield identical data representations for significantly distinct datasets. In this thesis, we aimed at developing more advanced analysis tools for ensembles of topological descriptors, capable of tackling the lack of discriminability of persistence diagrams and going beyond what was already available for these objects. First, we adapt to merge trees, descriptors having a better specificity, the tools already available for persistence diagrams such as distances, geodesics and barycenters. Then, we want to go beyond this notion of average being the barycenter in order to study the variability within an ensemble of topological descriptors. We then adapt the Principal Component Analysis framework to persistence diagrams and merge trees, resulting in a dimensionality reduction method that indicates which structures in the ensemble are most responsible for the variability. However, this framework allows only to detect linear patterns of variability in the ensemble. To tackle this we propose to generalize this framework to Auto-Encoder in order to detect non-linear, i.e. more complex, patterns in an ensemble of merge trees or persistence diagrams. Specifically, we propose a new neural network layer capable of processing natively these objects. We present applications of all this work in feature tracking in a time-varying ensemble, data reduction to compress an ensemble of topological descriptors, clustering to form homogeneous groups in an ensemble, and dimensionality reduction to create a visual map indicating how the data are organized regarding each other in the ensemble
4

Boudjeloud-Assala, Baya Lydia. "Visualisation et algorithmes génétiques pour la fouille de grands ensembles de données." Nantes, 2005. http://www.theses.fr/2005NANT2065.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous présentons des approches coopératives combinant des méthodes interactives de visualisation et des méthodes automatiques de sélection de dimensions pour l'extraction de connaissances à partir de données. La plupart des méthodes actuelles de fouille de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Nous souhaitons impliquer de manière plus significative l'utilisateur dans le processus de fouille pour améliorer sa confiance et sa compréhension des modèles ou résultats obtenus. Par ailleurs ces méthodes doivent pouvoir traiter des quantités de plus en plus importantes de données. Nous cherchons aussi à améliorer les performances des algorithmes de fouille pour pouvoir traiter des ensembles de données de grandes dimensions. Nous avons développé un algorithme génétique de sélection de dimensions avec une fonction d'évaluation à base de distance pour la détection d'individu atypique (ou outlier) dans les ensembles de données ayant un grand nombre de dimensions. Cet algorithme recherche les outliers en n'utilisant qu'un petit sous-ensemble de dimensions et permet de retrouver les mêmes individus outliers que dans l'ensemble total des données. On peut ainsi traiter plus facilement de grands ensembles de données. De plus, comme le nombre de dimensions utilisées est faible, nous pouvons utiliser des méthodes de visualisation pour expliquer et interpréter les résultats de l'algorithme de détection d'outlier. Nous pouvons ainsi construire un modèle de l'expertise de l'expert des données pour qualifier les éléments détectés par exemple en tant qu'erreurs ou simplement individus atypiques (outliers). Nous avons ensuite développé une mesure pour la sélection de dimensions en classification non supervisée (clustering) et détection d'outlier. Cette mesure nous permet à la fois de retrouver les mêmes clusters que dans l'ensemble de données avec toutes ses dimensions et des clusters pouvant contenir très peu d'éléments (des outliers). L'interprétation visuelle des résultats obtenus nous indique les dimensions impliquées, ce sont les dimensions pertinentes et intéressantes pour le clustering ou la détection d'outlier. Enfin nous présentons un algorithme génétique semi-interactif permettant d'impliquer l'utilisateur dans le processus de sélection et d'évaluation du sous-ensemble de dimensions à utiliser
We present cooperative approaches using interactive visualization methods and automatic dimension selection methods for knowledge discovery in databases. Most existing data mining methods work in an automatic way, the user is not implied in the process. We try to involve more significantly the user role in the data mining process in order to improve his confidence and comprehensibility of the obtained models or results. Furthermore, the size of data sets is constantly increasing, these methods must be able to deal with large data sets. We try to improve the performances of the algorithms to deal with these high dimensional data sets. We developed a genetic algorithm for dimension selection with a distance-based fitness function for outlier detection in high dimensional data sets. This algorithm uses only a few dimensions to find the same outliers as in the whole data sets and can easily treat high dimensional data sets. The number of dimensions used being low enough, it is also possible to use visualization methods to explain and interpret outlier detection algorithm results. It is then possible to create a model from the data expert for example to qualify the detected element as an outlier or simply an error. We have also developed an evaluation measure for dimension selection in unsupervised classification and outlier detection. This measure enables us to find the same clusters as in the data set with its whole dimensions as well as clusters containing very few elements (outliers). Visual interpretation of the results shows the dimensions implied, they are considered as relevant and interesting for the clustering and outlier detection. Finally we present a semi-interactive genetic algorithm involving more significantly the user in the selection and evaluation process of the algorithm
5

Gueunet, Charles. "Calcul haute performance pour l'analyse topologique de données par ensembles de niveaux." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS120.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse de données topologique nécessite des algorithmes de plus en plus efficaces pour être capable de traiter des jeux de données dont la taille et le niveau de détail augmente continûment. Dans cette thèse, nous nous concentrons sur trois abstractions topologiques fondamentales dérivées des ensembles de niveaux : l'arbre de jointure, l'arbre de contour et le graphe de Reeb. Nous proposons trois nouveaux algorithmes parallèles efficaces pour leur calcul sur des stations de travail composées de processeurs multi-cœur en mémoire partagée. Le premier algorithme élaboré durant cette thèse se base sur du parallélisme multi-thread pour le calcul de l'arbre de contour. Une seconde approche revisite l'algorithme séquentiel de référence pour le calcul de cette structure et se base sur des propagations locales exprimables en tâches parallèles. Ce nouvel algorithme est en pratique deux fois plus rapide en séquentiel que l'algorithme de référence élaboré en 2000 et offre une accélération d'un ordre de grandeur en parallèle. Un dernier algorithme basé sur une approche locale par tâches est également présenté pour une abstraction plus générique : le graphe de Reeb. Contrairement aux approches concurrentes, nos algorithmes construisent les versions augmentées de ces structures, permettant de supporter l'ensemble des applications pour l'analyse de données par ensembles de niveaux. Les méthodes présentées dans ce manuscrit ont donné lieu à des implémentations qui sont les plus rapides parmi celles disponibles pour le calcul de ces abstractions. Ce travail a été intégré à la bibliothèque libre : Topology Toolkit (TTK)
Topological Data Analysis requires efficient algorithms to deal with the continuously increasing size and level of details of data sets. In this manuscript, we focus on three fundamental topological abstractions based on level sets: merge trees, contour trees and Reeb graphs. We propose three new efficient parallel algorithms for the computation of these abstractions on multi-core shared memory workstations. The first algorithm developed in the context of this thesis is based on multi-thread parallelism for the contour tree computation. A second algorithm revisits the reference sequential algorithm to compute this abstraction and is based on local propagations expressible as parallel tasks. This new algorithm is in practice twice faster in sequential than the reference algorithm designed in 2000 and offers one order of magnitude speedups in parallel. A last algorithm also relying on task-based local propagations is presented, computing a more generic abstraction: the Reeb graph. Contrary to concurrent approaches, these methods provide the augmented version of these structures, hence enabling the full extend of level-set based analysis. Algorithms presented in this manuscript result today in the fastest implementations available to compute these abstractions. This work has been integrated into the open-source platform: the Topology Toolkit (TTK)
6

Ndiaye, Marie. "Exploration de grands ensembles de motifs." Thesis, Tours, 2010. http://www.theses.fr/2010TOUR4029/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'abondance des motifs générés par les algorithmes d'extraction de connaissances représente un grand problème dans le domaine de fouille de données. Afin de faciliter l'exploration de ces motifs,deux approches sont souvent utilisées : la première consiste à résumer les ensembles de motifs extraits et la seconde approche repose sur la construction de représentations visuelles de ces motifs. Cependant, les résumés ne sont pas structurés et ils sont proposés sans méthode d'exploration. D'autre part, les représentations visuelles n'offrent pas une vue globale des ensembles de motifs. Nous définissons un cadre générique qui combine les avantages des ces deux approches.Il permet de construire des résumés d'ensembles de motifs à plusieurs niveaux de détail. Ces résumés donnent une vue globale des ensembles de motifs. De plus, ils sont structurés sous forme de cubes sur lesquels des opérateurs de navigation OLAP peuvent être appliqués pour explorer les ensembles de motifs. Par ailleurs, nous proposons un algorithme qui fournit un résumé de bonne qualité dont la taille est inférieure à un seuil donné. Enfin, nous instancions notre cadre avec les règles d'association
The abundance of patterns generated by knowledge extraction algorithms is a major problem in data mining. Ta facilitate the exploration of these patterns, two approaches are often used: the first is to summarize the sets of extracted patterns and the second approach relies on the construction of visual representations of the patterns. However, the summaries are not structured and they are proposed without exploration method. Furthermore, visualizations do not provide an overview of the pattern .sets. We define a generic framework that combines the advantages of bath approaches. It allows building summaries of patterns sets at different levels of detail. These summaries provide an overview of the pattern sets and they are structured in the form of cubes on which OLAP navigational operators can be applied in order to explore the pattern sets. Moreover, we propose an algorithm which provides a summary of good quality whose size is below a given threshold. Finally, we instantiate our framework with association rules
7

Ould, Yahia Sabiha. "Interrogation multi-critères d'une base de données spatio-temporelles." Troyes, 2005. http://www.theses.fr/2005TROY0006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux décrits dans cette thèse s'inscrivent dans le cadre du projet interrégional intitulé CAractérisation Symbolique de SItuations de ConduitE (CASSICE) qui regroupe plusieurs équipes de chercheurs. L'objectif du projet CASSICE est l'automatisation et l'alimentation d'une base de données de situations de conduite. Cela comprend notamment la reconnaissance des manoeuvres. Ces manoeuvres réalisées par le conducteur sont détectées à partir des données issues de capteurs installés sur un véhicule expérimental en situation de conduite réelle. Il s'agit dans cette thèse de proposer une interface permettant à un expert psychologue une analyse des comportements du conducteur mis en évidence par la base de données. Le projet CASSICE permet l'accès à une base de données à représentation continue, numériques ou symboliques, associées à des images. Le langage d'interrogation doit être le plus proche possible des critères de recherche employés par les experts psychologues. Ces fonctionnalités sont proposées dans le système CIBAM (Construction et Interrogation d'une BAse de données Multimédia) qui utilise une méthode d'indexation et d'interrogation multi-critères d'une base de données représentant une situation dynamique
The study of the human behavior in driving situations is of primary importance for the improvement of drivers security. This study is complex because of the numerous situations in which the driver may be involved. The objective of the CASSICE project (Symbolic Characterization of Driving Situations) is to elaborate a tool in order to simplify the analysis task of the driver's behavior. In this paper, we will mainly take an interest in the indexation and querying of a multimedia database including the numerical data and the video sequences relating to a type of driving situations. We will put the emphasis on the queries to this database. They are often complex because they are formulated according to criteria depending on time, space and they use terms of the natural language
8

Guerra, Thierry-Marie. "Analyse de données objectivo-subjectives : Approche par la théorie des sous-ensembles flous." Valenciennes, 1991. https://ged.uphf.fr/nuxeo/site/esupversions/a3f55508-7363-49a4-a531-9d723ff55359.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de cette thèse est, dans le cadre de systèmes à composante humaine, d'établir un lien entre les sous-ensembles flous et l'analyse des données multidimensionnelles. Les sous-ensembles flous ont pris une part de plus en plus importante pour traiter le problème de l'imprécis et de l'incertain. Il semble alors important, dans le cadre de données subjectives, d'inclure des outils propres aux mathématiques floues permettant le traitement de telles données. En conséquence, une première méthode fondée sur la théorie des sous-ensembles aléatoires flous a été mise au point permettant de traiter des questionnaires laissant une liberté importante au répondeur. Dans le domaine complexe des systèmes à composante humaine, les données recueillies sont très souvent de deux types : données subjectives et objectives. Il est alors nécessaire de vérifier l'adéquation entre ces deux types de données recueillies et, dans ce contexte, d'établir s'il existe des relations stables entre ces deux groupes de données. Le formalisme flou utilise pour mettre au point la méthode de traitement de données subjectives a permis le développement d'une méthode multidimensionnelle répondant a ce problème. Cette méthode s'appuie sur les outils classiques des mathématiques floues, l'inférence déductive et le modus ponens généralisé. Ces deux méthodes ont été appliquées à une étude ergonomique d'un poste de travail bureautique et ont permis de mettre en évidence l'efficacité de cette nouvelle approche. Enfin, les perspectives liées aux méthodologies développées sont discutées ainsi que le problème général de l'extraction des connaissances.
9

Dahabiah, Anas. "Extraction de connaissances et indexation de données multimédia pour la détection anticipée d'événements indésirables." Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0117.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Tout système ayant pour but d'analyser ou d'organiser automatiquement un ensemble de données ou de connaissances doit utiliser, sous une forme ou une autre, un opérateur de similarité dont le but est d'établir les ressemblances ou les relations qui existent entre les informations manipulées. Cette notion de similarité a fait l'objet d'importantes recherches dans des domaines extrêmement divers où les informations peuvent comporter des données hétérogènes au niveau de l'échelle de mesure (quantitatives, qualitatives, ordinales, etc. ), et qui peuvent être affectées par des différents types d'imperfection (imprécision, incertitude, ambigüité, ignorance, etc. ). Néanmoins, toutes les mesures qui ont été proposées auparavant prennent en compte uniquement quelques formes de l'hétérogénéité et d'imperfection en négligeant les autres et/ou en ignorant l'existence simultanée de tous ces aspects. De surcroît les approches conçues pour traiter simultanément l'hétérogénéité et l'imperfection de l'information requièrent la définition de nombreuses contraintes et une lourde mise en place. Ces mesures consomment également un temps considérable lors du traitement d'une masse importante de données, comme c'est le cas des différentes applications de Fouille de Données. Dans cette thèse, nous montrons que la théorie des possibilités peut traiter aisément l'hétérogénéité et l'imperfection de l'information offrant, en plus, aux utilisateurs l'option d'exprimer et d'intégrer leurs points de vue lors du calcul de similarité, via des fonctions de tolérance que nous avons proposées. Cette modélisation possibiliste de la similarité a été matérialisée via divers modèles représentatifs spatiaux, graphiques, et structurels, et a été exploitée dans un certain nombre d'applications de Fouille de Données (classification, ordination, estimation) en utilisant une base de données médicales. Nous montrons via les différents exemples que la généralité, la rapidité, la simplicité et l'efficacité de cette approche sont toujours garanties
Similarity measuring is the essential quoin of the majority of data mining techniques and tasks in which information elements can take any type (quantities, qualitative, binary, ordinal, etc. ) and may be affected with various forms of imperfection (uncertainty, imprecision, ambiguity, etc. ). Additionally, the points of view of the experts and data owners must sometimes be considered and integrated even if presented in ambiguous or imprecise manners. Nonetheless, all the existing methods and approaches have partially handled some aspects of the aforementioned points disregarding the others. In reality, the heterogeneity, the imperfection, and the personalization have been separately conducted in prior works, using some constraints and assumptions that can overburden the procedure, limit their applications, and increase its computing time which is a crucial issue in data mining. In this thesis, we propose a novel approach essentially based on possibility theory to deal with all the aforementioned aspects within a unified general integrated framework. In order to get deeper insight and understanding of the information elements, the possibilistic modeling has been materialized via spatial, graphical and structural representations and applied to several data mining tasks using a medical database
10

Raschia, Guillaume. "SaintEtiq : une approche floue pour la génération de résumés à partir de bases de données relationnelles." Nantes, 2001. http://www.theses.fr/2001NANT2099.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans cette thèse s'inscrit dans une double orientation de recherche dont les objectifs sont d'une part la synthèse de données volumineuses, et d'autre part la mise en oeuvre de techniques floues à différents niveaux du processus de résumé. La théorie des ensembles flous (Zadeh, 1965) propose un cadre formel solide pour la représentation des informations imparfaites, notamment par le biais de l'extension possibiliste du modèle relationnel des bases de données. L'intégration de mécanismes issus de la théorie des ensembles flous dans le processus de génération de résumés permet aussi de nuancer les raisonnements, apportant souplesse et robustesse au système. Par ailleurs, le modèle SaintEtiQ détaillé dans cette thèse met en oeuvre un algorithme d'apprentissage de concepts qui génère de façon incrémentale une hiérarchie de résumés partiellement ordonné du plus générique aux plus spécifiques, et individuellement représentatifs d'une partie des données de la base. . .

Книги з теми "Bruit des ensembles de données":

1

Kohen, Dafna E. Ensembles de données nationales, sources d'information sur la garde des enfants au Canada. Ottawa: Statistique Canada, 2006.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Office statistique des Communautés européennes., ed. Développements récents dans l'analyse de grands ensembles de données: Compte rendu du séminaire ayant eu lieu à Luxembourg, les 16-18.11.1983. Luxembourg: Office des publications officielles des Communautés européennes, 1985.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

RSFDGrC 2005 (2005 Regina, Sask.). Rough sets, fuzzy sets, data mining, and granular computing: 10th international conference, RSFDGrC 2005, Regina, Canada, August 31-September 3, 2005 : proceedings. Berlin: Springer, 2005.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Jian, Lirong. Hybrid rough sets and applications in uncertain decision-making. Boca Raton: Auerbach Publications, 2010.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

(Editor), Dominik Slezak, Guoyin Wang (Editor), Marcin Szczuka (Editor), Ivo Duentsch (Editor), and Yiyu Yao (Editor), eds. Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing: 10th International Conference, RSFDGrC 2005, Regina, Canada, August 31 - September 3, 2005, ... / Lecture Notes in Artificial Intelligence). Springer, 2005.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Talloen, Willem, Ziv Shkedy, Sebastian Kaiser, Sepp Hochreiter, and Adeyto Kasim. Applied Biclustering Methods for Big and High-Dimensional Data Using R. Taylor & Francis Group, 2020.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Talloen, Willem, Ziv Shkedy, Sebastian Kaiser, Adetayo Kasim, and Sepp Hochreiter. Applied Biclustering Methods for Big and High-Dimensional Data Using R. Taylor & Francis Group, 2016.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Talloen, Willem, Ziv Shkedy, Sebastian Kaiser, Adetayo Kasim, and Sepp Hochreiter. Applied Biclustering Methods for Big and High Dimensional Data Using R. Taylor & Francis Group, 2016.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Talloen, Willem, Ziv Shkedy, Sebastian Kaiser, Adetayo Kasim, and Sepp Hochreiter. Applied Biclustering Methods for Big and High-Dimensional Data Using R. Taylor & Francis Group, 2016.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Liu, Sifeng, Yi Lin, and Lirong Jian. Hybrid Rough Sets and Applications in Uncertain Decision-Making. Taylor & Francis Group, 2018.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Bruit des ensembles de données":

1

Guyomard, Marc. "Ensembles de clés scalaires." In Structures de données et méthodes formelles, 147–271. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0200-8_6.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Guyomard, Marc. "Ensembles de clés structurées." In Structures de données et méthodes formelles, 273–311. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0200-8_7.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

COSSART, Étienne. "Données environnementales et objets cartographiques." In Traitements et cartographie de l’information géographique, 83–106. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9161.ch3.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’information géographique mobilisée dans le domaine de l’environnement impose de combiner des données hétérogènes, recelant aussi bien des objets géographiques constitutifs du milieu physique que des mailles territoriales. La théorie des ensembles, sous-jacente à des opérations réalisées dans les logiciels SIG, est présentée. Elle fournit des cadres théoriques montrant les possibilités de construction d’objets cartographiques.
4

CHARPENTIER, Philippe. "Algorithmes en physique des particules." In Algorithmes et Société, 111–18. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.4548.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les expériences de physique des particules comme celles qui se font au CERN à Genève nécessitent des moyens informatiques extrêmement puissants afin de transformer les informations brutes provenant des détecteurs en données de physique analysables. Ce traitement est l'œuvre de centaines d'algorithmes qui élaborent graduellement l'information nécessaire à l'analyse. De nombreux algorithmes sont alors également utilisés dans cette phase finale d'analyse afin de séparer les événements intéressants du bruit de fond. Ces derniers sont très similaires aux algorithmes dont on parle souvent dans les moteurs de recherche ou dans les programmes d'intelligence artificielle. Nous passons en revue cette panoplie d'algorithmes utilisés à tous les étages de l'analyse de physique.
5

DERLUYN, Hannelore. "Observations expérimentales sur la cristallisation des sels dans les géomatériaux." In Cristallisation de sels en milieu poreux, 115–44. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9114.ch5.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce chapitre donne une brève introduction sur l’imagerie par rayons X et par neutrons, et son utilisation pour caractériser les processus couplés hydro-chimio-mécanique pendant la cristallisation dans des géomateriaux. La quantification expérimentale est discutée avec deux exemples illustratifs, et un lien est établi avec des études de simulation numérique dans lesquelles les ensembles de données obtenus ont été utilisés.
6

ALOIRD, J., J. P. FREIERMUTH, and J. BOISSIER. "Spécificités et contraintes du transport de patients lors des missions d’évacuations médicalisées par hélicoptère de manoeuvre." In Médecine et Armées Vol. 46 No.4, 331–38. Editions des archives contemporaines, 2018. http://dx.doi.org/10.17184/eac.7322.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les évacuations médicalisées de l’avant par hélicoptère de manoeuvre sont des missions particulières aussi bien sur le plan organisationnel que sur le plan technique. Ce maillon de la chaîne d’évacuation se base sur une alerte permanente avec un équipage, une équipe médicale et un hélicoptère dédié. Lors du déclenchement d’une évacuation, quatre phases se succèdent. Celles-ci sont dans l’ordre : une préparation du vol succincte, une phase de vol aller vers le blessé, une phase au sol avec les transmissions des données médicales et une phase retour pendant laquelle le blessé doit bénéficier des meilleurs soins. Cette mission assez particulière est soumise à plusieurs contraintes qui doivent être appréhendées correctement pour la mener à bien : des contraintes aéronautiques notamment les performances de l’aéronef, la météo, le bruit, les cinétoses ; des défis tactiques comme les communications ou les problèmes de vision nocturne ; et enfin des problématiques médicales avec un exercice dans un milieu restreint pouvant inclure la prise en charge simultanée de plusieurs blessés. Les différentes pistes d’améliorations passent probablement par un entraînement spécifique avec le stage de médicalisation tactique en hélicoptère de manoeuvre, une évolution des moyens de communication, une standardisation des procédures de protection du médecin au sol, et enfin une avancée dans les équipements médicaux et les traitements disponibles en vol.
7

Aebi, Carol. "Recherches sur la Sustainability." In Recherches sur la Sustainability, 295–309. EMS Editions, 2023. http://dx.doi.org/10.3917/ems.cheva.2023.01.0295.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La durabilité sociale pourrait, un jour, être le fruit d’une interaction entre l’homme et le cyberespace. Un réseau de systèmes d’information pour la durabilité est un instrument qui collecte, connecte et partage des données à travers la société. Un tel réseau de systèmes d’information, conçu pour différencier les données relatives à diverses parties prenantes en fonction du moment et de l’échelle, est encore inexistant. Cependant, des projets, des modèles et des collaborations sont en cours, réunissant les entreprises et les universités pour faire avancer cette cause. Les principaux problèmes liés à la complexité de la société et au manque d’ensembles de données de qualité, résultats de méthodes d’évaluation contradictoires et de variations de terminologie dans les domaines scientifiques, appellent des travaux de recherches supplémentaires avant que des systèmes d’information puissent être développés de manière efficace. L’harmonisation des évaluations, des mesures et des outils de mesure de la valeur sociale est une première étape vers l’introduction d’un modèle qui servira de guide aux parties prenantes pour discuter, et aux ingénieurs en informatique pour développer, tester, mettre en œuvre et améliorer les technologies qui interagiront, fonctionneront et penseront conformément aux attentes de la société en termes de durabilité. Les universitaires et les décideurs politiques font converger la recherche empirique et les réformes. Le Mécanisme de Facilitation Technologique (MFT) de l’Organisation des Nations unies (ONU) favorise la collaboration entre les différentes parties prenantes et les États membres. Le cadre des systèmes socio-écologiques (SES) permet aux chercheurs de différentes disciplines, secteurs ou zones géographiques d’élaborer et de tester des théories et des modèles avec un vocabulaire commun dans des contextes empiriques différents. Un concept d’écosystème numérique stigmergique en est aux premiers stades de la modélisation pour faciliter l’auto-organisation des processus. Des recherches récentes ont étudié les exigences sociétales d’un réseau de système d’information stigmergique (SIS) pour la durabilité sociale. Les technologies distribuées sans échelle et le supercalculateur, l’intégration des ensembles de données et l’agrégation des informations pourraient, un jour, guider les entreprises et les décideurs vers des activités susceptibles de résoudre les problèmes sociaux.
8

Dhaeze, Wouter, and Patrick Monsieur. "Le faciès céramique de la base de la classis Britannica à Boulogne-sur-Mer : présentation de deux ensembles et synthèse de données." In Boulogne-sur-Mer antique, entre terre et mer, 127–68. Presses universitaires du Septentrion, 2020. http://dx.doi.org/10.4000/books.septentrion.96322.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Fadaie, Kian, and Valerie E. Hume. "Canada Directory Information Describing Digital Geo-referenced Data Sets Information de répertoire décrivant les ensembles de données numériques à référence spatiale CAN/CGSB-171.3-95." In World Spatial Metadata Standards, 219–36. Elsevier, 2005. http://dx.doi.org/10.1016/b978-008043949-5/50015-2.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Звіти організацій з теми "Bruit des ensembles de données":

1

Chen, Z., S. E. Grasby, W. Yuan, M. Colpron, and X. Liu. Methodology study of geothermal resource evaluation using remote-sensing and ground-surface temperature data, Burwash Landing, Yukon – status and preliminary results. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/p15d0hqc2g.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Trouver des ressources énergétiques renouvelables pour atteindre les objectifs du gouvernement visant à atteindre zéro émission nette d’ici 2050 est l’un des plus grands défis auxquels nous sommes confrontés, en particulier dans le Nord. Les communautés du Nord sont en grande partie déconnectées du réseau énergétique nord-américain et dépendent plutôt des hydrocarbures importés pour leur chauffage et leur électricité. Une étude antérieure (par exemple Grasby et al., 2011) suggérait que le Yukon et le nord-est de la Colombie-Britannique constituaient des régions à fort potentiel pour les ressources géothermiques. Des travaux supplémentaires montrent le potentiel de l'énergie géothermique pour soutenir les communautés du Nord (Grasby et al., 2012). De nouvelles techniques de géophysique, de télédétection et de surveillance de la température de surface du sol (GST) pour l'évaluation géothermique ont été développées dans le cadre du projet géothermique Garibaldi (Grasby et al., 2021 ; Chen et al. 2023). Cette étude explore la faisabilité de l'utilisation d'images multispectrales de télédétection de Landsat 8 et des séries chronologiques GST du réseau de surveillance GST pour révéler la relation entre le système de failles profondes et le flux de chaleur souterrain en tant qu'outil d'évaluation des ressources géothermiques pour le nord du Canada. GSC et YSG ont déployé un réseau de surveillance de la température à la surface du sol au cours de l'été 2022, et les données de 65 stations ont été récupérées au cours de la saison de terrain 2023. Un traitement préliminaire a été effectué pour détecter les zones de flux de chaleur élevé. Deux ensembles d'images multispectrales Landsat-8 dans la zone de Burwash Landing de différentes saisons ont été collectées et traitées pour l'extraction de caractéristiques à l'aide d'algorithmes ML. Les données GST et les caractéristiques extraites des images Landsat ont été analysées pour déterminer si les anomalies géothermiques sont liées à des caractéristiques géologiques spécifiques, telles que des systèmes de failles profondes. Nous rapportons ici les résultats préliminaires en mettant l'accent sur l'analyse des données sur la TPS.

До бібліографії