Littérature scientifique sur le sujet « Analyse non-supervisée »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Analyse non-supervisée ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Analyse non-supervisée"

1

Juge, P. A., B. Granger, L. El Houari, G. Mcdermott, T. Doyle, C. Kelly, K. Gouri et al. « Déchiffrer la pneumopathie interstitielle diffuse associée à la polyarthrite rhumatoïde en utilisant une analyse en cluster hiérarchique non supervisée : résultats d’une collaboration internationale ». Revue du Rhumatisme 90 (décembre 2023) : A27—A28. http://dx.doi.org/10.1016/j.rhum.2023.10.040.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ganachaud, Clément, Ludovic Seifert et David Adé. « L’importation de méthodes non-supervisées en fouille de données dans le programme de recherche empirique et technologique du cours d’action : Apports et réflexions critiques ». Staps N° 141, no 3 (17 janvier 2024) : 97–108. http://dx.doi.org/10.3917/sta.141.0097.

Texte intégral
Résumé :
Actuellement, les méthodes mixtes de recherche suscitent un intérêt croissant dans le domaine des sciences du sport. À ce jour, des réflexions épistémologiques et paradigmatiques ont été engagées lorsqu’il s’agit d’articuler des méthodes, outils et/ou données hétérogènes dans ce type de recherche. Cet article s’inscrit dans cette veine. Il propose une réflexion critique sur des études conduites dans le cadre du programme de recherche empirique et technologique du cours d’action (PRETCA) ayant eu recours à la fouille de données pour mettre en forme des données phénoménologiques à des fins de présentation des résultats de recherche. Cette réflexion est l’occasion de mettre en avant des apports et des points de questionnement sur le recours à la fouille de données, notamment lorsqu’il s’agit de conduire une analyse de classification hiérarchique non supervisée pour identifier des modes typiques d’expériences en situation de pratique sportive. Il ressort que cette importation d’outils et de méthodes de fouille de données nous semble traduire chez les chercheurs du PRETCA une volonté de sophistiquer le traitement des données et la présentation des résultats de recherche.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Testa, D., N. Jourde-Chiche, J. Mancini, P. Varriale, V. Morisseau, L. Radoszycki et L. Chiche. « Analyse en clusters non supervisée des données en vie réelle d’une communauté en ligne de patients lupiques pour identifier des profils concernant leurs préférences thérapeutiques ». La Revue de Médecine Interne 42 (juin 2021) : A85. http://dx.doi.org/10.1016/j.revmed.2021.03.306.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Berriche, Amira, Dominique Crié et Michel Calciu. « Une Approche Computationnelle Ancrée : Étude de cas des tweets du challenge #Movember en prévention de santé masculine ». Décisions Marketing N° 112, no 4 (25 janvier 2024) : 79–103. http://dx.doi.org/10.3917/dm.112.0079.

Texte intégral
Résumé :
• Objectif L’objectif de cette étude est de présenter l’approche méthodologique computationnelle ancrée qui repose sur une démarche d’interprétation par les chercheurs des thèmes détectés par les algorithmes d’intelligence artificielle (IA) puis de l’appliquer au cas #Movember. • Méthodologie Une classification non supervisée par LDA et une analyse de sentiment ont été réalisées sur 144 906 tweets provenant de différents pays participants (France, Italie, Belgique, Australie, USA, UK, Arabie Saoudite, etc.). • Résultats Les résultats montrent que le processus de l’engagement individuel au mouvement social #Movember est composé de trois principaux éléments : (1) 4 segments d’engagement individuel (sympathisants, conscients, engagés et maintiens), (2) émotions collectives (positives et négatives) et (3) facteurs cognitifs et motivationnels (calcul bénéfices-coûts, efficacité collective et identité). • Implications managériales Les résultats proposent des actions marketing adaptées à chaque segment pour aider à la fois les organisateurs du mouvement #Movember et les professionnels de santé (PS) à atteindre deux principaux objectifs : (1) dépistage et (2) notoriété, recrutement et collecte de dons, grâce au big data, par le ciblage des personnes avec antécédents familiaux. • Originalité Les recherches sur #Movember utilisent habituellement les algorithmes supervisés qui présentent plusieurs limites tels que biais de confirmation, manque de répétabilité et une exigence en temps. Ce travail utilise le modèle non supervisé LDA pour identifier des concepts latents par la machine dans une perspective computationnelle ancrée (Computational Grounded Theory, CGT).
Styles APA, Harvard, Vancouver, ISO, etc.
5

Bencherif, Kada, et Houari Tadj. « Approche d'estimation du volume-tige de peuplements forestiers par combinaison de données Landsat et données terrain Application à la pineraie de Tlemcen-Algérie ». Revue Française de Photogrammétrie et de Télédétection, no 215 (16 août 2017) : 3–11. http://dx.doi.org/10.52638/rfpt.2017.360.

Texte intégral
Résumé :
Une approche méthodologique s'appuyant sur la combinaison de données satellitaires et données de terrain est proposée pour l’estimation du volume-tige de peuplements forestiers hétérogènes ou peu homogènes. L'objectif est d'évaluer la disponibilité forestière, en inventoriant moins de 1% de la surface étudiée et avec une erreur max. de 15%. L'approche consiste en la réalisation de trois étapes principales : i) Analyse de la variance sur le volume-tige, ii) classification des données satellitaires et iii) Désignation et inventaire des pixels-échantillons. L'analyse et le calcul de la variance permet d'orienter les calculs du volume en fonction de sa variabilité dans les différentes strates de la forêt alors que la classification des données satellitaires vise à obtenir une stratification de la forêt. La troisième étape consiste en la sélection de pixels-échantillons sur l'image classifiée puis la géolocalisation, l'installation et le cubage des placettes-terrain correspondantes (même dimension spatiale que le pixel de l'image utilisée). Appliquée sur une futaie peu homogène de pin d'Alep (forêt de Tlemcen, Nord-Ouest algérien), l'approche a permis d'estimer un volume global sur pied du peuplement égal à 30 595 m3 m3±15.6% et ce en inventoriant 0.4% seulement de la surface totale. L'analyse de variance sur 12 placettes-échantillons a mis en évidence le caractère peu homogène de la forêt et la faible variabilité du volume-tige. Cependant, Elle fait apparaître aussi que la stratification apporte une légère amélioration à la précision (15.6%) contre 17.6% sans stratification. La classification supervisée d'une image Landsat (Mai 2002) par la méthode du maximum de vraisemblance (précision moyenne de 96%) a permis de stratifier la zone étudiée en six classes (forêt très dense, forêt dense, forêt claire, matorral, herbacées, autres). Pour chaque strate de forêt, le cubage complet de 4 placettes-échantillons comparables en dimension au pixel (30m—30m), a fourni le volume-tige moyen par pixel alors que la généralisation de celui-ci à l'ensemble des pixels a permis de déterminer le volume total de chaque strate. Vu les confusions générées par la classification supervisée au profit des objets pistes, routes et matorral, le volume global a été revu à la baisse (taux de réduction de 10%) et la valeur du volume total corrigé était de 27 535 m3±15.6%, une erreur, bien que non conforme à celle exigée par l'aménagement forestier (max ±10%), s'approche de celle généralement admise (une moyenne de ±15%) pour certains inventaires simplifiés.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Gaborit, B., R. Lécuyer, N. Issa, F. Camou, F. Morio, F. Raffi, D. Boutoille, M. Gousseff, Y. Crabol et B. Tessoulin. « Faut-il reconsidérer la présentation clinique et le traitement de la pneumonie à Pneumocystis jirovecii en fonction du terrain d'immunodépression sous-jacent ? Analyse non supervisée d'une étude rétrospective multicentrique. » Médecine et Maladies Infectieuses Formation 3, no 2 (juin 2024) : S73—S74. http://dx.doi.org/10.1016/j.mmifmc.2024.04.148.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Wils, Thierry, et Aziz Rhnima. « Taxonomie des conflits entre le travail et la famille : une analyse multidimensionnelle à l’aide de cartes auto-organisatrices ». Articles 70, no 3 (5 octobre 2015) : 432–56. http://dx.doi.org/10.7202/1033405ar.

Texte intégral
Résumé :
Résumé Fréquemment, les chercheurs ont conceptualisé le conflit travail-famille de façon bidirectionnelle : l’étude des effets de la vie professionnelle à l’endroit de la vie de famille (appelé conflit travail-famille) et celle des effets de la vie de famille à l’égard de la vie d’emploi (appelé conflit famille-travail). Toutefois, les résultats inhérents aux recherches basées sur cette conceptualisation se sont avérés controversés. Autrement dit, très peu d’effort a été déployé afin de différencier entre les effets des différentes formes de ce conflit. Pourtant, Greenhaus et Beutell (1985) en ont proposé une conceptualisation multidimensionnelle, en ajoutant aux deux dimensions directionnelles trois autres supplémentaires liées au conflit de temps, d’effort et de comportement. Ainsi, notre recherche répond à la question générale suivante: la conceptualisation multidimensionnelle du conflit travail-famille est-elle plus efficace pour cerner la réalité de ce phénomène que la conceptualisation bidirectionnelle ? À partir d’un échantillon de 375 sujets provenant du personnel infirmier d’un centre hospitalier, nous avons privilégié une conceptualisation multidimensionnelle dudit conflit (Greenhaus et Beutell, 1985), et ce, afin d’identifier les effets spécifiques aux diverses dimensions de ce conflit. Pour ce faire, nous avons utilisé l’analyse en termes des cartes autoorganisatrices de Kohonen (SOM), cartes qui sont basées sur un réseau de neurones résultant de la méthode d’apprentissage non supervisée (Kohonen, 2001). Les résultats de l’analyse neuronale indiquent qu’il y a six formes de conflit. Deux d’entre elles paraissent générer des effets similaires à ceux obtenus selon la conceptualisation bidirectionnelle (conflit à haute intensité versus conflit à basse intensité), tandis que les quatre autres formes apparaissent engendrer des effets spécifiques, justifiant la nécessité d’appliquer la conceptualisation multidimensionnelle préconisée. En outre, l’analyse de variance appliquée aux données a révélé plusieurs différences significatives entre les six formes de ce conflit et des variables externes liées à des facteurs explicatifs dudit conflit, ainsi qu’à ses conséquences. Cette nouvelle taxonomie, basée sur la conceptualisation multidimensionnelle des conflits travail-famille, contribue à une meilleure compréhension de l’interférence entre la sphère de la vie familiale et celle de la vie professionnelle, en identifiant les formes spécifiques du conflit travail-famille au niveau desquelles une ou plusieurs sources de conflictualité sont en action. Des avenues de recherche et des implications managériales sont déduites à la lumière des résultats enregistrés.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Pham, Minh Tan, Grégoire Mercier et Julien Michel. « Textural features from wavelets on graphs for very high resolution panchromatic Pléiades image classification ». Revue Française de Photogrammétrie et de Télédétection, no 208 (5 septembre 2014) : 131–36. http://dx.doi.org/10.52638/rfpt.2014.91.

Texte intégral
Résumé :
Dans cet article, nous proposons une méthode de caractérisation locale des textures des images de très haute résolution spatiale, dans lesquelles l'hypothèse de stationnarité est peu respectée.Une approche ponctuelle (i.e. non-dense) est d'abord introduite pour la représentation de l'image en utilisant un ensemble de pixels d'intétêt au lieu de la totalité des pixels de l'image. Un graphe pondéré est ensuite construit à partir de ces pixels représentatifs. Le signal de texture, porté sur ce graphe, est ensuite analysé à travers une transformée en ondelettes sur graphe. La classification en texture, implémentée ici de façon non-supervisée, est donc réalisée par la classification des coefficients d'ondelettes sur le graphe. Les expérimentations appliquées aux images panchromatiques Pléiades nous donnent des résultats très prometteurs avec une bonne précision de classification tout en gardant une compléxité intéressante.
Styles APA, Harvard, Vancouver, ISO, etc.
9

DelVillano, Sarah, Margaret de Groh, Howard Morrison et Minh T. Do. « Aperçu - Services d’injection supervisée : mesure d’intervention communautaire en réponse à la crise des opioïdes à Ottawa (Canada) ». Promotion de la santé et prévention des maladies chroniques au Canada 39, no 3 (mars 2019) : 122–26. http://dx.doi.org/10.24095/hpcdp.39.3.03f.

Texte intégral
Résumé :
L’établissement de services d’injection supervisée (SIS) est devenu courant dans les collectivités à risque élevé afin de réagir à la crise des opioïdes qui sévit actuellement au Canada. Le service de La Roulotte (The Trailer), qui a ouvert ses portes en novembre 2017 à Ottawa (Canada), suit de près la consommation des clients, le traitement des surdoses et l'inversion des effets d’une surdose. Nous avons analysé les données recueillies entre novembre 2017 et août 2018 par ce service. Aux heures de pointe, la demande de services a constamment dépassé la capacité de La Roulotte. Le nombre de traitements de surdoses et d'inversions des effets d’une surdose a considérablement augmenté au cours de la période. D’après les résultats, La Roulotte a fourni un service important – quoique non optimal (en raison de contraintes d’espace) – de réduction des méfaits dans cette collectivité à risque élevé.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Aboubacar, Amadou, Mourtala Bachir, Diouf Abdoulaye et Iro Dan Guimbo. « Dynamique spatio-temporelle de la végétation contractée de l’ouest du Niger suivant le gradient pluviométrique et d’anthropisation de 1990 à 2020 ». International Journal of Biological and Chemical Sciences 17, no 5 (29 octobre 2023) : 1873–88. http://dx.doi.org/10.4314/ijbcs.v17i5.8.

Texte intégral
Résumé :
La végétation contractée de l’ouest du Niger constitue des écosystèmes dans lesquels les communautés locales tirent l’essentiel de leur subsistance de l’exploitation du bois. Les animaux y pâturent pendant toute la saison des pluies. Sa dégradation s’est accentuée ces trois dernières décennies, sous l’effet, principalement de la pression anthropique et du climat. Cette étude visait à analyser la dynamique de cette végétation de 1990 à 2020, dans les communes de Kouré, Farey, Gaya et Tanda. Les images Landsat 5TM (1990) et Landsat 8 de novembre (2020) ont été utilisées. La classification non supervisée par l’algorithme iso-data et le calcul des superficies au moyen du logiciel ENVI et Excel ont permis de quantifier les transformations spatiales survenues sur la base du fichier HBF, dont la sortie est une matrice de transition. Les NDVI ont été calculés grâce à la commande Quick statistic d’ENVI et les indices Standardisés des Précipitations à partir des cumuls annuels des précipitations. Les résultats ont montré une régression de végétation contractée régulière de 63,26%, de 55,76% et de 34,75% respectivement à Kouré, à Farey et dans le bloc Gaya/Tanda. De plus, une régression de la végétation contractée dégradée de 40,74%, de 555,39% et de 8,29% été enregistrée respectivement à Kouré à Farey et dans le au bloc Gaya/Tanda. La corrélation positive entre l’indice standardisé de précipitation et l’indice de végétation a été significative à Farey et non significatif à Kouré et Gaya. The contracted vegetation of western Niger constitutes ecosystems in which local communities derive most of their livelihood from timber exploitation. Animals graze here throughout the rainy season. Its degradation has increased over the last three decades, mainly due to anthropic pressure and climate. The aim of this study was to analyze the dynamics of this vegetation from 1990 to 2020, in the communes of Kouré, Farey, Gaya and Tanda. Landsat 5TM (1990) and Landsat 8 November (2020) images were used. Unsupervised classification using the iso-data algorithm and area calculations using ENVI and Excel software were used to quantify spatial transformations based on the HBF file, the output of which is a transition matrix. NDVI was calculated using ENVI's Quick statistic command, and Standardized Precipitation Indices were calculated from annual rainfall totals. The results showed a regular contracted vegetation regression of 63.26%, 55.76% and 34.75% respectively at Kouré, Farey and in the Gaya/Tanda block. In addition, a regression of degraded contracted vegetation of 40.74%, 555.39% and 8.29% was recorded in Kouré, Farey and the Gaya/Tanda block respectively. The positive correlation between the standardized rainfall index and the vegetation index was significant in Farey and insignificant in Kouré and Gaya.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Analyse non-supervisée"

1

Goubet, Étienne. « Contrôle non destructif par analyse supervisée d'images 3D ultrasonores ». Cachan, Ecole normale supérieure, 1999. http://www.theses.fr/1999DENS0011.

Texte intégral
Résumé :
L'objet de cette thèse consiste en l'élaboration d'une chaine de traitements permettant d'extraire l'information utile de données 3d ultrasonores et de caractériser les défauts éventuellement présents dans la pièce inspectée. Cette caractérisation a été abordée pour des fissures contrôlées par un même émetteur/récepteur. Dans une première partie nous rappelons les principes du contrôle non destructif par ultrasons ainsi que les représentations classiques des données ultrasonores. La deuxième partie est consacrée à l'étude d'un modèle d'extraction de l'information d'échos présents sur les données au moyen d'une base d'ondelettes adaptée. L'utilisation d'une ondelette unique translatée dans le temps est rendue possible par un travail sur une représentation complexe des données réelles originales. Une première étape permet de détecter et de positionner les échos d'amplitude significative. Dans un deuxième temps, on effectue une régularisation spatialement cohérente des instants de détection à l'aide d'un modèle markovien. On élimine ainsi les échos dont les instants de détection ne font pas partie de surfaces d'instants régulières. Les parties suivantes traitent de la localisation et du dimensionnement des fissures. On utilise des caractéristiques extraites du faisceau ultrasonore afin de déterminer le trajet de l'onde ultrasonore du capteur à l'objet diffractant lorsque la réponse de l'écho est maximale. On met en correspondance l'instant de détection obtenu pour cet écho et le temps de parcours selon le trajet défini afin de positionner un point d'arête dans la pièce. On obtient ainsi un ensemble de points de discrétisation pour chaque arête. Dans le cadre de données 3d obtenues sur un matériau isotrope, on élimine les points d'arête extrêmes en utilisant un critère de comparaison sur les courbes échodynamiques associées aux points de détection sur les données réelles et sur des données simulées équivalentes. La localisation est abordée pour des fissures situées dans un matériau isotrope ou acier revêtu d'anisotrope.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Huck, Alexis. « Analyse non-supervisée d’images hyperspectrales : démixage linéaire et détection d’anomalies ». Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX30036.

Texte intégral
Résumé :
Cette thèse explore deux axes de recherche pour l'analyse non-supervisée d'Images HyperSpectrales (HSIs). Sous l'hypothèse du modèle de mélange linéaire de spectres, nous abordons d'abord la problématique du démixage par Factorisation en Matrices Non-négatives (NMF). D'une part, nous proposons de régulariser le problème en intégrant de l'information a priori spectrale et spatiale judicieuse, spécifique aux HSIs. D'autre part, nous proposons un estimateur du pas optimal pour la descente de gradient projeté. Nous montrons ainsi que, correctement régularisée, la NMF est un outil pertinent pour le démixage d'HSIs. Puis, nous explorons la problématique de la détection d'anomalies. Nous proposons un algorithme de Poursuite de Composantes Anormales (PCA), basé simultanément sur la poursuite de projections et sur un modèle probabiliste avec test d'hypothèses. Ainsi, la PCA détecte les anomalies à taux de fausse alarme constant et les discrimine en classes spectralement homogènes
This thesis focusses on two research fields regarding unsupervised analysis of hyperspectral images (HSIs). Under the assumptions of the linear spectral mixing model, the formalism of Non-Negative Matrix Factorization is investigated for unmixing purposes. We propose judicious spectral and spatial a priori knowledge to regularize the problem. In addition, we propose an estimator for the projected gradient optimal step-size. Thus, suitably regularized NMF is shown to be a relevant approach to unmix HSIs. Then, the problem of anomaly detection is considered. We propose an algorithm for Anomalous Component Pursuit (ACP), simultaneously based on projection pursuit and on a probabilistic model and hypothesis testing. ACP detects the anomalies with a constant false alarm rate and discriminates them into spectrally homogeneous classes
Styles APA, Harvard, Vancouver, ISO, etc.
3

Leblanc, Brice. « Analyse non supervisée de données issues de Systèmes de Transport Intelligent-Coopératif ». Thesis, Reims, 2020. http://www.theses.fr/2020REIMS014.

Texte intégral
Résumé :
Cette thèse se situe dans le contexte des réseaux véhiculaires (VANET), et plus particulièrement dans le contexte des Systèmes de Transport Intelligent-Coopératif (STI-C). Ces systèmes échangent des informations pour améliorer la sécurité routière.Le but de cette thèse est d'introduire des outils d'analyse de données qui peuvent fournir aux opérateurs routiers des informations sur l'utilisation et état de leurs infrastructures. Par conséquent, ces informations peuvent contribuer à améliorer la sécurité routière. Nous identifions deux cas que nous voulons traiter : l'identification des profils de conduite et la détection des obstacles routiers.Pour traiter ces questions, nous proposons d'utiliser des approches d'apprentissage non supervisées : des méthodes de regroupement pour l'identification des profils de conduite, et la détection de changement de concept pour la détection des obstacles. Cette thèse présente trois contributions principales : une méthodologie nous permettant de transformer les données brutes des STI-C en un ensemble de trajectoires puis de données d'apprentissage ; l'utilisation de méthodes classiques de regroupement et des points d'intérêt pour les profils de conduite avec des expériences sur les données issues des appareils mobiles et des journaux du réseau ; et la prise en compte d'une foule de véhicules fournissant des journaux du réseau considérés comme flux de données en entrée d'algorithmes de détection de changement de concept pour reconnaître les obstacles routiers
This thesis takes place in the context of Vehicular Ad-hoc Networks (VANET), and more specifically the context of Cooperative-Intelligent Transport System (C-ITS). These systems are exchanging information to enhance road safety.The purpose of this thesis is to introduce data analysis tools that may provide road operators information on the usage/state of their infrastructures. Therefore, this information may help to improve road safety. We identify two cases we want to deal with: driving profile identification and road obstacle detection.For dealing with those issues, we propose to use unsupervised learning approaches: clustering methods for driving profile identification, and concept drift detection for obstacle detection. This thesis introduces three main contributions: a methodology allowing us to transform raw C-ITS data in, first, trajectory, and then, learning data-set; the use of classical clustering methods and Points Of Interests for driving profiles with experiments on mobile device data and network logs data; and the consideration of a crowd of vehicles providing network log data as data streams and considered as input of concept drift detection algorithms to recognize road obstacles
Styles APA, Harvard, Vancouver, ISO, etc.
4

Fontaine, Michaël. « Segmentation non supervisée d'images couleur par analyse de la connexité des pixels ». Lille 1, 2001. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2001/50376-2001-305-306.pdf.

Texte intégral
Résumé :
Dans le cadre de la segmentation d'images couleur en régions, nous proposons une méthode originale qui considère que les régions sont définies comme des ensembles de pixels connexes appartenant à une même classe de pixels. Notre approche considère au même titre les propriétés de connexité et les propriétés colorimétriques des pixels afin de construire des classes qui peuvent être non équiprobables. Nous définissons le degré de connexité couleur d'un ensemble de pixels qui est une mesure de la connexité d'un ensemble de pixels dont les couleurs appartiennent à un intervalle de couleurs. Nous supposons que les pixels de chaque région de l'image peuvent être regroupés en une classe de pixels et qu'une classe est un ensemble de pixels dont le degré de connexité couleur présente une valeur remarquablement élevée. Toute la difficulté consiste à identifier ces ensembles. Pour cela, nous définissons une structure de donnée originale, la pyramide des degrés de connexité couleur PDCC, qui recense de manière organisée et hiérarchique les degrés de connexité couleur de tous les ensembles de pixels possibles que peut contenir une image et dont les couleurs appartiennent à des intervalles de couleurs parfaitement définis. Pour des raisons d'implantation, nous ne pouvons construire cette pyramide qu'en tenant compte de deux composantes trichromatiques parmi les trois disponibles. Nous décomposons alors l'image originale en trois images bichromatiques associées respectivement aux couples de composantes (R,G), (G,B) et (B,R) et nous construisons la PDCC pour chacune de ces images. Une méthode d'analyse de chaque PDCC est proposée afin de construire les noyaux des classes présentes dans chaque image bichromatique.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Rafi, Selwa. « Chaînes de Markov cachées et séparation non supervisée de sources ». Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0020/document.

Texte intégral
Résumé :
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle
The restoration problem is usually encountered in various domains and in particular in signal and image processing. It consists in retrieving original data from a set of observed ones. For multidimensional data, the problem can be solved using different approaches depending on the data structure, the transformation system and the noise. In this work, we have first tackled the problem in the case of discrete data and noisy model. In this context, the problem is similar to a segmentation problem. We have exploited Pairwise and Triplet Markov chain models, which generalize Hidden Markov chain models. The interest of these models consist in the possibility to generalize the computation procedure of the posterior probability, allowing one to perform bayesian segmentation. We have considered these methods for two-dimensional signals and we have applied the algorithms to retrieve of old hand-written document which have been scanned and are subject to show through effect. In the second part of this work, we have considered the restoration problem as a blind source separation problem. The well-known "Independent Component Analysis" (ICA) method requires the assumption that the sources be statistically independent. In practice, this condition is not always verified. Consequently, we have studied an extension of the ICA model in the case where the sources are not necessarily independent. We have introduced a latent process which controls the dependence and/or independence of the sources. The model that we propose combines a linear instantaneous mixing model similar to the one of ICA model and a probabilistic model on the sources with hidden variables. In this context, we show how the usual independence assumption can be weakened using the technique of Iterative Conditional Estimation to a conditional independence assumption
Styles APA, Harvard, Vancouver, ISO, etc.
6

RAFI, Selwa. « Chaînes de Markov cachées et séparation non supervisée de sources ». Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00995414.

Texte intégral
Résumé :
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle
Styles APA, Harvard, Vancouver, ISO, etc.
7

Cutrona, Jérôme. « Analyse de forme des objets biologiques : représentation, classification et suivi temporel ». Reims, 2003. http://www.theses.fr/2003REIMS018.

Texte intégral
Résumé :
En biologie, les relations entre la forme, élément majeur de la vision par ordinateur, et la fonction ont depuis longtemps été mises en évidence. Cette thèse présente une chaîne de traitement permettant d'aboutir à la classification non supervisée de formes, au suivi de déformation et à la classification supervisée de populations d'objets. Nous proposons dans un premier temps une contribution en segmentation automatique basée sur une procédure de classification floue, ainsi que deux méthodes semi-automatiques s'appuyant sur la connectivité floue et les lignes de partage des eaux. Nous menons ensuite une étude sur plusieurs descripteurs de la forme des objets utilisant des primitives et des anti-primitives, le contour , la silhouette et la courbure multi-échelle. Après mise en correspondance, les descripteurs sont soumis à une analyse statistique pour mettre en évidence les modes de variations au sein des échantillons. Le modèle statistique obtenu est à la base des applications proposées
N biology, the relationship between shape, a major element in computer vision, and function has been emphasized since a long time. This thesis proposes a processing line leading to unsupervised shape classification, deformation tracking and supervised classification of whole population of objects. We first propose a contribution to unsupervised segmentation based on a fuzzy classification method and two semi-automatic methods founded on fuzzy connectedness and watersheds. Next, we perform a study on several shape descriptors including primitives and anti-primitives, contour, silhouete and multi-scale curvature. After shape matching, the descriptors are submitted to statistical analysis to highlight the modes of variations within the samples. The obtained statistical model is the basis of the proposed applications
Styles APA, Harvard, Vancouver, ISO, etc.
8

Boubou, Mounzer. « Contribution aux méthodes de classification non supervisée via des approches prétopologiques et d'agrégation d'opinions ». Phd thesis, Université Claude Bernard - Lyon I, 2007. http://tel.archives-ouvertes.fr/tel-00195779.

Texte intégral
Résumé :
Le travail de thèse a porté sur une réflexion relative aux méthodes de classification automatique des données pour lesquelles il est bien connu qu'un effet « méthode » existe. Après une première partie qui présente la problématique générale de l'analyse des données et propose un survey des méthodes de classification, les travaux originaux de la thèse sont exposés. Ils relèvent de trois approches interconnectées : une approche basée sur l'agrégation d'opinions, une approche prétopologique et une approche basée sur l'agrégation des préférences. Chacune de ces approches se fonde sur un paradigme différent et propose une nouvelle vision des techniques de classification permettant d'apporter éventuellement de l'information exogène dans la méthode.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Ta, Minh Thuy. « Techniques d'optimisation non convexe basée sur la programmation DC et DCA et méthodes évolutives pour la classification non supervisée ». Electronic Thesis or Diss., Université de Lorraine, 2014. http://www.theses.fr/2014LORR0099.

Texte intégral
Résumé :
Nous nous intéressons particulièrement, dans cette thèse, à quatre problèmes en apprentissage et fouille de données : clustering pour les données évolutives, clustering pour les données massives, clustering avec pondération de variables et enfin le clustering sans connaissance a priori du nombre de clusters avec initialisation optimale des centres de clusters. Les méthodes que nous décrivons se basent sur des approches d’optimisation déterministe, à savoir la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution de problèmes de clustering cités précédemment, ainsi que des approches évolutionnaires élitistes. Nous adaptons l’algorithme de clustering DCA–MSSC pour le traitement de données évolutives par fenêtres, en appréhendant les données évolutives avec deux modèles : fenêtres fixes et fenêtres glissantes. Pour le problème du clustering de données massives, nous utilisons l’algorithme DCA en deux phases. Dans la première phase, les données massives sont divisées en plusieurs sous-ensembles, sur lesquelles nous appliquons l’algorithme DCA–MSSC pour effectuer un clustering. Dans la deuxième phase, nous proposons un algorithme DCA-Weight pour effectuer un clustering pondéré sur l’ensemble des centres obtenues à la première phase. Concernant le clustering avec pondération de variables, nous proposons également deux approches: clustering dur avec pondération de variables et clustering floue avec pondération de variables. Nous testons notre approche sur un problème de segmentation d’image. Le dernier problème abordé dans cette thèse est le clustering sans connaissance a priori du nombre des clusters. Nous proposons pour cela une approche évolutionnaire élitiste. Le principe consiste à utiliser plusieurs algorithmes évolutionnaires (EAs) en même temps, de les faire concourir afin d’obtenir la meilleure combinaison de centres initiaux pour le clustering et par la même occasion le nombre optimal de clusters. Les différents tests réalisés sur plusieurs ensembles de données de grande taille sont très prometteurs et montrent l’efficacité des approches proposées
This thesis focus on four problems in data mining and machine learning: clustering data streams, clustering massive data sets, weighted hard and fuzzy clustering and finally the clustering without a prior knowledge of the clusters number. Our methods are based on deterministic optimization approaches, namely the DC (Difference of Convex functions) programming and DCA (Difference of Convex Algorithm) for solving some classes of clustering problems cited before. Our methods are also, based on elitist evolutionary approaches. We adapt the clustering algorithm DCA–MSSC to deal with data streams using two windows models: sub–windows and sliding windows. For the problem of clustering massive data sets, we propose to use the DCA algorithm with two phases. In the first phase, massive data is divided into several subsets, on which the algorithm DCA–MSSC performs clustering. In the second phase, we propose a DCA–Weight algorithm to perform a weighted clustering on the obtained centers in the first phase. For the weighted clustering, we also propose two approaches: weighted hard clustering and weighted fuzzy clustering. We test our approach on image segmentation application. The final issue addressed in this thesis is the clustering without a prior knowledge of the clusters number. We propose an elitist evolutionary approach, where we apply several evolutionary algorithms (EAs) at the same time, to find the optimal combination of initial clusters seed and in the same time the optimal clusters number. The various tests performed on several sets of large data are very promising and demonstrate the effectiveness of the proposed approaches
Styles APA, Harvard, Vancouver, ISO, etc.
10

Gan, Changquan. « Une approche de classification non supervisée basée sur la notion des K plus proches voisins ». Compiègne, 1994. http://www.theses.fr/1994COMP765S.

Texte intégral
Résumé :
La classification non supervisée a pour objectif de définir dans un ensemble de données des classes permettant de caractériser la structure interne des données. C’est une technique très utile dans de nombreux domaines technologiques comme en diagnostic des systèmes complexes (pour la mise en évidence de modes de fonctionnement) et en vision par ordinateur (pour la segmentation d'image). Les méthodes traditionnelles de la classification non supervisée présentent plusieurs problèmes en pratique, par exemple, la nécessité de préfixer le nombre de classes, le manque de stratégie appropriée pour le réglage de paramètres et la difficulté de valider le résultat obtenu. Dans cette thèse nous tentons d'apporter une solution à ces problèmes en développant une nouvelle approche basée sur la notion des K plus proches voisins. Alliant la détection de mode et la recherche de graphe reflétant la proximité des données, cette approche identifie d'abord les centres de classe, puis construit une classe autour de chaque centre. Elle n'emploie aucune connaissance a priori sur les données et ne possède qu'un seul paramètre. Une stratégie de réglage de ce paramètre a été établie après une étude théorique et une analyse expérimentale. L’idée est de rechercher la stabilité du résultat de classification. Des tests présentés dans ce mémoire montrent une bonne performance de l'approche proposée ; elle est libre d'hypothèse sur la nature des données, relativement robuste et facile à utiliser
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Analyse non-supervisée"

1

LIU, Sicong, Francesca BOVOLO, Lorenzo BRUZZONE, Qian DU et Xiaohua TONG. « Détection non supervisée des changements dans des images multitemporelles ». Dans Détection de changements et analyse des séries temporelles d’images 1, 5–40. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch1.

Texte intégral
Résumé :
Dans ce chapitre, nous nous concentrons sur le problème de la détection non supervisée de changements dans les images multitemporelles multispectrales. En particulier, nous examinons et analysons la représentation des changements spectraux-spatiaux pour traiter le problème important de la détection multiclasse de changements. À cette fin, deux approches sont développées, à savoir une analyse morphologique multi-échelles de vecteurs de changements compressés et une détection multi-classes au niveau des superpixels.
Styles APA, Harvard, Vancouver, ISO, etc.
2

ATTO, Abdourrahmane M., Fatima KARBOU, Sophie GIFFARD-ROISIN et Lionel BOMBRUN. « Clustering fonctionnel de séries d’images par entropies relatives ». Dans Détection de changements et analyse des séries temporelles d’images 1, 121–38. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch4.

Texte intégral
Résumé :
Ce chapitre traite l'extraction d'attributs à partir d'ondelettes et de filtres ConvNet (réseaux de neurones à convolution) pour l'analyse non supervisée de séries chronologiques d'images. Nous exploitons les capacités des ondelettes et des filtres neuro-convolutifs à capturer des propriétés d'invariance non-triviales, ainsi que les nouvelles solutions de centroïdes proposées dans ce chapitre, pour l'analyse d'attributs de hauts niveaux par entropie relative. La détection d'anomalies et le clustering fonctionnel d'évolution sont développés à partir de ce cadre.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie