Dissertations / Theses on the topic 'Analyse supervisée de graphes'

To see the other types of publications on this topic, follow the link: Analyse supervisée de graphes.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analyse supervisée de graphes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Faucheux, Cyrille. "Segmentation supervisée d'images texturées par régularisation de graphes." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4050/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à un récent algorithme de segmentation d’images basé sur un processus de régularisation de graphes. L’objectif d’un tel algorithme est de calculer une fonction indicatrice de la segmentation qui satisfait un critère de régularité ainsi qu’un critère d’attache aux données. La particularité de cette approche est de représenter les images à l’aide de graphes de similarité. Ceux-ci permettent d’établir des relations entre des pixels non-adjacents, et ainsi de procéder à un traitement non-local des images. Afin d’en améliorer la précision, nous combinons cet algorithme à une seconde approche non-locale : des caractéristiques de textures. Un nouveau terme d’attache aux données est dans un premier temps développé. Inspiré des travaux de Chan et Vese, celui-ci permet d’évaluer l’homogénéité d’un ensemble de caractéristiques de textures. Dans un second temps, nous déléguons le calcul de l’attache aux données à un classificateur supervisé. Entrainé à reconnaitre certaines classes de textures, ce classificateur permet d’identifier les caractéristiques les plus pertinentes, et ainsi de fournir une modélisation plus aboutie du problème. Cette seconde approche permet par ailleurs une segmentation multiclasse. Ces deux méthodes ont été appliquées à la segmentation d’images texturées 2D et 3D
In this thesis, we improve a recent image segmentation algorithm based on a graph regularization process. The goal of this method is to compute an indicator function that satisfies a regularity and a fidelity criteria. Its particularity is to represent images with similarity graphs. This data structure allows relations to be established between similar pixels, leading to non-local processing of the data. In order to improve this approach, combine it with another non-local one: the texture features. Two solutions are developped, both based on Haralick features. In the first one, we propose a new fidelity term which is based on the work of Chan and Vese and is able to evaluate the homogeneity of texture features. In the second method, we propose to replace the fidelity criteria by the output of a supervised classifier. Trained to recognize several textures, the classifier is able to produce a better modelization of the problem by identifying the most relevant texture features. This method is also extended to multiclass segmentation problems. Both are applied to 2D and 3D textured images
APA, Harvard, Vancouver, ISO, and other styles
2

Fontaine, Michaël. "Segmentation non supervisée d'images couleur par analyse de la connexité des pixels." Lille 1, 2001. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2001/50376-2001-305-306.pdf.

Full text
Abstract:
Dans le cadre de la segmentation d'images couleur en régions, nous proposons une méthode originale qui considère que les régions sont définies comme des ensembles de pixels connexes appartenant à une même classe de pixels. Notre approche considère au même titre les propriétés de connexité et les propriétés colorimétriques des pixels afin de construire des classes qui peuvent être non équiprobables. Nous définissons le degré de connexité couleur d'un ensemble de pixels qui est une mesure de la connexité d'un ensemble de pixels dont les couleurs appartiennent à un intervalle de couleurs. Nous supposons que les pixels de chaque région de l'image peuvent être regroupés en une classe de pixels et qu'une classe est un ensemble de pixels dont le degré de connexité couleur présente une valeur remarquablement élevée. Toute la difficulté consiste à identifier ces ensembles. Pour cela, nous définissons une structure de donnée originale, la pyramide des degrés de connexité couleur PDCC, qui recense de manière organisée et hiérarchique les degrés de connexité couleur de tous les ensembles de pixels possibles que peut contenir une image et dont les couleurs appartiennent à des intervalles de couleurs parfaitement définis. Pour des raisons d'implantation, nous ne pouvons construire cette pyramide qu'en tenant compte de deux composantes trichromatiques parmi les trois disponibles. Nous décomposons alors l'image originale en trois images bichromatiques associées respectivement aux couples de composantes (R,G), (G,B) et (B,R) et nous construisons la PDCC pour chacune de ces images. Une méthode d'analyse de chaque PDCC est proposée afin de construire les noyaux des classes présentes dans chaque image bichromatique.
APA, Harvard, Vancouver, ISO, and other styles
3

Ribeyre, Corentin. "Méthodes d’analyse supervisée pour l’interface syntaxe-sémantique : de la réécriture de graphes à l’analyse par transitions." Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC119.

Full text
Abstract:
Aujourd'hui, le volume de données textuelles disponibles est colossal. Ces données représentent des informations inestimables impossibles à traiter manuellement. De fait, il est essentiel d'utiliser des techniques de Traitement Automatique des Langues pour extraire les informations saillantes et comprendre le sens sous-jacent. Cette thèse s'inscrit dans cette perspective et proposent des ressources, des modèles et des méthodes pour permettre : (i) l'annotation automatique de corpus à l'interface entre la syntaxe et la sémantique afin d'en extraire la structure argumentale (ii) l'exploitation des ressources par des méthodes efficaces. Nous proposons d’abord un système de réécriture de graphes et un ensemble de règles de réécriture manuellement écrites permettant l'annotation automatique de la syntaxe profonde du français. Grâce à cette approche, deux corpus ont vu le jour : le DeepSequoia, version profonde du corpus Séquoia et le DeepFTB, version profonde du French Treebank en dépendances. Ensuite, nous proposons deux extensions d'analyseurs par transitions et les adaptons à l'analyse de graphes. Nous développons aussi un ensemble de traits riches issus d'analyses syntaxiques. L'idée est d'apporter des informations topologiquement variées donnant à nos analyseurs les indices nécessaires pour une prédiction performante de la structure argumentale. Couplé à un analyseur par factorisation d'arcs, cet ensemble de traits permet d'établir l'état de l'art sur le français et de dépasser celui établi pour les corpus DM et PAS sur l'anglais. Enfin, nous explorons succinctement une méthode d'induction pour le passage d'un arbre vers un graphe
Nowadays, the amount of textual data has become so gigantic, that it is not possible to deal with it manually. In fact, it is now necessary to use Natural Language Processing techniques to extract useful information from these data and understand their underlying meaning. In this thesis, we offer resources, models and methods to allow: (i) the automatic annotation of deep syntactic corpora to extract argument structure that links (verbal) predicates to their arguments (ii) the use of these resources with the help of efficient methods. First, we develop a graph rewriting system and a set of manually-designed rewriting rules to automatically annotate deep syntax in French. Thanks to this approach, two corpora were created: the DeepSequoia, a deep syntactic version of the Séquoia corpus and the DeepFTB, a deep syntactic version of the dependency version of the French Treebank. Next, we extend two transition-based parsers and adapt them to be able to deal with graph structures. We also develop a set of rich linguistic features extracted from various syntactic trees. We think they are useful to bring different kind of topological information to accurately predict predicat-argument structures. Used in an arc-factored second-order parsing model, this set of features gives the first state-of-the-art results on French and outperforms the one established on the DM and PAS corpora for English. Finally, we briefly explore a method to automatically induce the transformation between a tree and a graph. This completes our set of coherent resources and models to automatically analyze the syntax-semantics interface on French and English
APA, Harvard, Vancouver, ISO, and other styles
4

Pujari, Manisha. "Prévision de liens dans des grands graphes de terrain (application aux réseaux bibliographiques)." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD010/document.

Full text
Abstract:
Nous nous intéressons dans ce travail au problème de prévision de nouveaux liens dans des grands graphes de terrain. Nous explorons en particulier les approches topologiques dyadiques pour la prévision de liens. Différentes mesures de proximité topologique ont été étudiées dans la littérature pour prédire l’apparition de nouveaux liens. Des techniques d’apprentissage supervisé ont été aussi utilisées afin de combiner ces différentes mesures pour construire des modèles prédictifs. Le problème d’apprentissage supervisé est ici un problème difficile à cause notamment du fort déséquilibre de classes. Dans cette thèse, nous explorons différentes approches alternatives pour améliorer les performances des approches dyadiques pour la prévision de liens. Nous proposons d’abord, une approche originale de combinaison des prévisions fondée sur des techniques d’agrégation supervisée de listes triées (ou agrégation de préférences). Nous explorons aussi différentes approches pour améliorer les performances des approches supervisées pour la prévision de liens. Une première approche consiste à étendre l’ensemble des attributs décrivant un exemple (paires de noeuds) par des attributs calculés dans un réseau multiplexe qui englobe le réseau cible. Un deuxième axe consiste à évaluer l’apport destechniques de détection de communautés pour l’échantillonnage des exemples. Des expérimentations menées sur des réseaux réels extraits de la base bibliographique DBLP montrent l’intérêt des approaches proposées
In this work, we are interested to tackle the problem of link prediction in complex networks. In particular, we explore topological dyadic approaches for link prediction. Different topological proximity measures have been studied in the scientific literature for finding the probability of appearance of new links in a complex network. Supervided learning methods have also been used to combine the predictions made or information provided by different topological measures. The create predictive models using various topological measures. The problem of supervised learning for link prediction is a difficult problem especially due to the presence of heavy class imbalance. In this thesis, we search different alternative approaches to improve the performance of different dyadic approaches for link prediction. We propose here, a new approach of link prediction based on supervised rank agregation that uses concepts from computational social choice theory. Our approach is founded on supervised techniques of aggregating sorted lists (or preference aggregation). We also explore different ways of improving supervised link prediction approaches. One approach is to extend the set of attributes describing an example (pair of nodes) by attributes calculated in a multiplex network that includes the target network. Multiplex networks have a layered structure, each layer having different kinds of links between same sets of nodes. The second way is to use community information for sampling of examples to deal with the problem of classe imabalance. Experiments conducted on real networks extracted from well known DBLP bibliographic database
APA, Harvard, Vancouver, ISO, and other styles
5

Sevi, Harry. "Analyse harmonique sur graphes dirigés et applications : de l'analyse de Fourier aux ondelettes." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEN068/document.

Full text
Abstract:
La recherche menée dans cette thèse a pour but de développer une analyse harmonique pour des fonctions définies sur les sommets d'un graphe orienté. À l'ère du déluge de données, de nombreuses données sont sous forme de graphes et données sur ce graphe. Afin d'analyser d'exploiter ces données de graphes, nous avons besoin de développer des méthodes mathématiques et numériquement efficientes. Ce développement a conduit à l'émergence d'un nouveau cadre théorique appelé le traitement de signal sur graphe dont le but est d'étendre les concepts fondamentaux du traitement de signal classique aux graphes. Inspirées par l'aspect multi échelle des graphes et données sur graphes, de nombreux constructions multi-échelles ont été proposé. Néanmoins, elles s'appliquent uniquement dans le cadre non orienté. L'extension d'une analyse harmonique sur graphe orienté bien que naturelle, s'avère complexe. Nous proposons donc une analyse harmonique en utilisant l'opérateur de marche aléatoire comme point de départ de notre cadre. Premièrement, nous proposons des bases de type Fourier formées des vecteurs propres de l'opérateur de marche aléatoire. De ces bases de Fourier, nous en déterminons une notion fréquentielle en analysant la variation de ses vecteurs propres. La détermination d'une analyse fréquentielle à partir de la base des vecteurs de l'opérateur de marche aléatoire nous amène aux constructions multi-échelles sur graphes orientés. Plus particulièrement, nous proposons une construction en trames d'ondelettes ainsi qu'une construction d'ondelettes décimées sur graphes orientés. Nous illustrons notre analyse harmonique par divers exemples afin d'en montrer l'efficience et la pertinence
The research conducted in this thesis aims to develop a harmonic analysis for functions defined on the vertices of an oriented graph. In the era of data deluge, much data is in the form of graphs and data on this graph. In order to analyze and exploit this graph data, we need to develop mathematical and numerically efficient methods. This development has led to the emergence of a new theoretical framework called signal processing on graphs, which aims to extend the fundamental concepts of conventional signal processing to graphs. Inspired by the multi-scale aspect of graphs and graph data, many multi-scale constructions have been proposed. However, they apply only to the non-directed framework. The extension of a harmonic analysis on an oriented graph, although natural, is complex. We, therefore, propose a harmonic analysis using the random walk operator as the starting point for our framework. First, we propose Fourier-type bases formed by the eigenvectors of the random walk operator. From these Fourier bases, we determine a frequency notion by analyzing the variation of its eigenvectors. The determination of a frequency analysis from the basis of the vectors of the random walk operator leads us to multi-scale constructions on oriented graphs. More specifically, we propose a wavelet frame construction as well as a decimated wavelet construction on directed graphs. We illustrate our harmonic analysis with various examples to show its efficiency and relevance
APA, Harvard, Vancouver, ISO, and other styles
6

Galluccio, Laurent. "Analyse et segmentation de données non supervisées à l'aide de graphe." Nice, 2010. http://www.theses.fr/2010NICE4022.

Full text
Abstract:
Cette thèse présente de nouvelles méthodes de segmentation et classification non supervisées de données appliquées dans un contexte astrophysique. Les informations a priori telles que le nombre de classes ou la distribution sous-jacente des données ne sont pas toujours connues. Beaucoup de méthodes de classification existantes en astrophysique sont basées sur des connaissances a priori ou sur des observations déjà réalisées sur les données. Les classifications obtenues dépendront donc de ces informations et seront limitées par les connaissances des experts. L'intérêt de développer des algorithmes de classification non supervisées est de s'affranchir de ces limitations afin de détecter potentiellement de nouvelles classes. L'approche principale adoptée dans cette thèse est l'utilisation d'un graphe construit sur les données : l'arbre de recouvrement minimal (Minimal Spanning Tree : MST). En connectant les points par des segments on construit une structure qui capture les relations existantes entre chaque paire de points. Nous proposons d'estimer le nombre et la position des classes présentes dans les données en explorant les connexions du MST construit. Ces informations servent d'initialisation fia des algorithmes de classification. Une nouvelle classe de MSTs multi-enracinés est présentée. De leur construction, des mesures de distances permettant la prise en compte du voisinage local et global des points sont dérivées. Une méthode de classification non supervisée qui combine les résultats de multiples partitionnements effectués sur les MSTs multi-enracinées est également proposée. Les méthodes proposées sont validées sur des benchmark et appliquées fia des données astrophysiques
This thesis presents new data segmentation and data clustering methods applied to astrophysical data. A priori information such as the number of classes or the underlying data distribution is not necessarily known. Many classification methods in astrophysics community are based on a priori knowledges or on observations already realized on data. Classifications obtained will depend on these information and will be limited by the experts knowledge. The goal of developing clustering algorithms is to get rid of these limitations, to be able to potentially detect new classes. The main approach chosen in this thesis is the use of a graph built on the data : the Minimal Spanning Tree (MST). By connecting the points by segments we build a structure which encapsulates the being relations between each pair of points. We propose a method to estimate both the number and the position of clusters by exploring the connections of the MST built. A data partition is obtained by using this information to initialize some clustering algorithms. A new class of multi-rooted MSTs is introduced. From their construction, new distance measures are derived allowing to take into account both the local and global data neighborhood. A clustering method which combines results of multiple partitionments realized on the multi-rooted trees is also exposed. The methods proposed are validated on benchmarks and applied to astrophysical datasets
APA, Harvard, Vancouver, ISO, and other styles
7

Fontaine, Michaël Macaire Ludovic Postaire Jack-Gérard. "Segmentation non supervisée d'images couleur par analyse de la connexité des pixels." [S.l.] : [s.n.], 2001. http://www.univ-lille1.fr/bustl-grisemine/pdf/extheses/50376-2001-305-306.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Gaillard, Pierre. "Apprentissage statistique de la connexité d'un nuage de points par modèle génératif : application à l'analyse exploratoire et la classification semi-supervisée." Compiègne, 2008. http://www.theses.fr/2008COMP1767.

Full text
Abstract:
Dans cette thèse, nous présentons un modèle statistique permettant d'extraire la connexité des variétés structurantes d'un ensemble de points. Ce modèle combine des approches statistiques et géométriques en définissant un modèle de mélange gaussien construit à partir d'un graphe. A partir de ce graphe génératif, nous proposons et évaluons des méthodes d'analyses exploratoires et de classification non-supervisée et semi-supervisée
In this work, we propose a statistical model to learn the connectedness of a set of points. This model combine geometrical and statistical approaches by defining a mixture model based on a graph. From this generative graph, we propose and evaluate methods and algorithms to analyse the set of points and to realize semi-supervised learning
APA, Harvard, Vancouver, ISO, and other styles
9

Gan, Changquan. "Une approche de classification non supervisée basée sur la notion des K plus proches voisins." Compiègne, 1994. http://www.theses.fr/1994COMP765S.

Full text
Abstract:
La classification non supervisée a pour objectif de définir dans un ensemble de données des classes permettant de caractériser la structure interne des données. C’est une technique très utile dans de nombreux domaines technologiques comme en diagnostic des systèmes complexes (pour la mise en évidence de modes de fonctionnement) et en vision par ordinateur (pour la segmentation d'image). Les méthodes traditionnelles de la classification non supervisée présentent plusieurs problèmes en pratique, par exemple, la nécessité de préfixer le nombre de classes, le manque de stratégie appropriée pour le réglage de paramètres et la difficulté de valider le résultat obtenu. Dans cette thèse nous tentons d'apporter une solution à ces problèmes en développant une nouvelle approche basée sur la notion des K plus proches voisins. Alliant la détection de mode et la recherche de graphe reflétant la proximité des données, cette approche identifie d'abord les centres de classe, puis construit une classe autour de chaque centre. Elle n'emploie aucune connaissance a priori sur les données et ne possède qu'un seul paramètre. Une stratégie de réglage de ce paramètre a été établie après une étude théorique et une analyse expérimentale. L’idée est de rechercher la stabilité du résultat de classification. Des tests présentés dans ce mémoire montrent une bonne performance de l'approche proposée ; elle est libre d'hypothèse sur la nature des données, relativement robuste et facile à utiliser
APA, Harvard, Vancouver, ISO, and other styles
10

Corneli, Marco. "Dynamic stochastic block models, clustering and segmentation in dynamic graphs." Thesis, Paris 1, 2017. http://www.theses.fr/2017PA01E012/document.

Full text
Abstract:
Cette thèse porte sur l’analyse de graphes dynamiques, définis en temps discret ou continu. Nous introduisons une nouvelle extension dynamique du modèle a blocs stochastiques (SBM), appelée dSBM, qui utilise des processus de Poisson non homogènes pour modéliser les interactions parmi les paires de nœuds d’un graphe dynamique. Les fonctions d’intensité des processus ne dépendent que des classes des nœuds comme dans SBM. De plus, ces fonctions d’intensité ont des propriétés de régularité sur des intervalles temporels qui sont à estimer, et à l’intérieur desquels les processus de Poisson redeviennent homogènes. Un récent algorithme d’estimation pour SBM, qui repose sur la maximisation d’un critère exact (ICL exacte) est ici adopté pour estimer les paramètres de dSBM et sélectionner simultanément le modèle optimal. Ensuite, un algorithme exact pour la détection de rupture dans les séries temporelles, la méthode «pruned exact linear time» (PELT), est étendu pour faire de la détection de rupture dans des données de graphe dynamique selon le modèle dSBM. Enfin, le modèle dSBM est étendu ultérieurement pour faire de l’analyse de réseau textuel dynamique. Les réseaux sociaux sont un exemple de réseaux textuels: les acteurs s’échangent des documents (posts, tweets, etc.) dont le contenu textuel peut être utilisé pour faire de la classification et détecter la structure temporelle du graphe dynamique. Le modèle que nous introduisons est appelé «dynamic stochastic topic block model» (dSTBM)
This thesis focuses on the statistical analysis of dynamic graphs, both defined in discrete or continuous time. We introduce a new extension of the stochastic block model (SBM) for dynamic graphs. The proposed approach, called dSBM, adopts non homogeneous Poisson processes to model the interaction times between pairs of nodes in dynamic graphs, either in discrete or continuous time. The intensity functions of the processes only depend on the node clusters, in a block modelling perspective. Moreover, all the intensity functions share some regularity properties on hidden time intervals that need to be estimated. A recent estimation algorithm for SBM, based on the greedy maximization of an exact criterion (exact ICL) is adopted for inference and model selection in dSBM. Moreover, an exact algorithm for change point detection in time series, the "pruned exact linear time" (PELT) method is extended to deal with dynamic graph data modelled via dSBM. The approach we propose can be used for change point analysis in graph data. Finally, a further extension of dSBM is developed to analyse dynamic net- works with textual edges (like social networks, for instance). In this context, the graph edges are associated with documents exchanged between the corresponding vertices. The textual content of the documents can provide additional information about the dynamic graph topological structure. The new model we propose is called "dynamic stochastic topic block model" (dSTBM).Graphs are mathematical structures very suitable to model interactions between objects or actors of interest. Several real networks such as communication networks, financial transaction networks, mobile telephone networks and social networks (Facebook, Linkedin, etc.) can be modelled via graphs. When observing a network, the time variable comes into play in two different ways: we can study the time dates at which the interactions occur and/or the interaction time spans. This thesis only focuses on the first time dimension and each interaction is assumed to be instantaneous, for simplicity. Hence, the network evolution is given by the interaction time dates only. In this framework, graphs can be used in two different ways to model networks. Discrete time […] Continuous time […]. In this thesis both these perspectives are adopted, alternatively. We consider new unsupervised methods to cluster the vertices of a graph into groups of homogeneous connection profiles. In this manuscript, the node groups are assumed to be time invariant to avoid possible identifiability issues. Moreover, the approaches that we propose aim to detect structural changes in the way the node clusters interact with each other. The building block of this thesis is the stochastic block model (SBM), a probabilistic approach initially used in social sciences. The standard SBM assumes that the nodes of a graph belong to hidden (disjoint) clusters and that the probability of observing an edge between two nodes only depends on their clusters. Since no further assumption is made on the connection probabilities, SBM is a very flexible model able to detect different network topologies (hubs, stars, communities, etc.)
APA, Harvard, Vancouver, ISO, and other styles
11

Sharma, Avinash. "Représentation et enregistrement de formes visuelles 3D à l'aide de Laplacien graphe et noyau de la chaleur." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00860533.

Full text
Abstract:
Analyse de la forme 3D est un sujet de recherche extrêmement actif dans les deux l'infographie et vision par ordinateur. Dans la vision par ordinateur, l'acquisition de formes et de modélisation 3D sont généralement le résultat du traitement des données complexes et des méthodes d'analyse de données. Il existe de nombreuses situations concrètes où une forme visuelle est modélisé par un nuage de points observés avec une variété de capteurs 2D et 3D. Contrairement aux données graphiques, les données sensorielles ne sont pas, dans le cas général, uniformément répartie sur toute la surface des objets observés et ils sont souvent corrompus par le bruit du capteur, les valeurs aberrantes, les propriétés de surface (diffusion, spécularités, couleur, etc), l'auto occlusions, les conditions d'éclairage variables. Par ailleurs, le même objet que l'on observe par différents capteurs, à partir de points de vue légèrement différents, ou à des moments différents cas peuvent donner la répartition des points tout à fait différentes, des niveaux de bruit et, plus particulièrement, les différences topologiques, par exemple, la fusion des mains. Dans cette thèse, nous présentons une représentation de multi-échelle des formes articulés et concevoir de nouvelles méthodes d'analyse de forme, en gardant à l'esprit les défis posés par les données de forme visuelle. En particulier, nous analysons en détail le cadre de diffusion de chaleur pour représentation multi-échelle de formes 3D et proposer des solutions pour la segmentation et d'enregistrement en utilisant les méthodes spectrales graphique et divers algorithmes d'apprentissage automatique, à savoir, le modèle de mélange gaussien (GMM) et le Espérance-Maximisation (EM). Nous présentons d'abord l'arrière-plan mathématique sur la géométrie différentielle et l'isomorphisme graphique suivie par l'introduction de la représentation spectrale de formes 3D articulés. Ensuite, nous présentons une nouvelle méthode non supervisée pour la segmentation de la forme 3D par l'analyse des vecteurs propres Laplacien de graphe. Nous décrivons ensuite une solution semi-supervisé pour la segmentation de forme basée sur un nouveau paradigme d'apprendre, d'aligner et de transférer. Ensuite, nous étendre la représentation de forme 3D à une configuration multi-échelle en décrivant le noyau de la chaleur cadre. Enfin, nous présentons une méthode d'appariement dense grâce à la représentation multi-échelle de la chaleur du noyau qui peut gérer les changements topologiques dans des formes visuelles et de conclure par une discussion détaillée et l'orientation future des travaux.
APA, Harvard, Vancouver, ISO, and other styles
12

Debeir, Olivier. "Segmentation supervisée d'images." Doctoral thesis, Universite Libre de Bruxelles, 2001. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211474.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Le, Boudic-Jamin Mathilde. "Similarités et divergences, globales et locales, entre structures protéiques." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S119/document.

Full text
Abstract:
Cette thèse s'articule autour de la détection de similarités globales et locales dans les structures protéiques. Premièrement les structures sont comparées, mesurées en termes de distance métrique dans un but de classification supervisée. Cette classification des domaines structuraux au sein de classifications hiérarchiques se fait par le biais de dominances et d'apprentissages permettant d'assigner plus rapidement et de manière exacte de nouveaux domaines. Deuxièmement, nous proposons une méthode de manière de traduire un problème biologique dans les formalisme des graphes. Puis nous résolvons ce problème via le parcours de ces graphes pour extraire les différentes sous-structures similaires. Cette méthode repose sur des notions de compatibilités entre éléments des structures ainsi que des critères de distances entre éléments. Ces techniques sont capables de détecter des événements tels que des permutations circulaires, des charnières (flexibilité) et des répétitions de motifs structuraux. Finalement nous proposons une nouvelle approche dans l'analyse fine de structures afin de faciliter la recherche de régions divergentes entre structures 3D fortement similaires
This thesis focusses on local and global similarities and divergences inside protein structures. First, structures are scored, with criteria of similarity and distance in order to provide a supervised classification. This structural domain classification inside existing hierarchical databases is possible by using dominances and learning. These methods allow to assign new domains with accuracy and exactly. Second we focusses on local similarities and proposed a method of protein comparison modelisation inside graphs. Graph traversal allows to find protein similar substructures. This method is based on compatibility between elements and criterion of distances. We can use it and detect events such that circular permutations, hinges and structural motif repeats. Finally we propose a new approach of accurate protein structure analysis that focused on divergences between similar structures
APA, Harvard, Vancouver, ISO, and other styles
14

Goubet, Étienne. "Contrôle non destructif par analyse supervisée d'images 3D ultrasonores." Cachan, Ecole normale supérieure, 1999. http://www.theses.fr/1999DENS0011.

Full text
Abstract:
L'objet de cette thèse consiste en l'élaboration d'une chaine de traitements permettant d'extraire l'information utile de données 3d ultrasonores et de caractériser les défauts éventuellement présents dans la pièce inspectée. Cette caractérisation a été abordée pour des fissures contrôlées par un même émetteur/récepteur. Dans une première partie nous rappelons les principes du contrôle non destructif par ultrasons ainsi que les représentations classiques des données ultrasonores. La deuxième partie est consacrée à l'étude d'un modèle d'extraction de l'information d'échos présents sur les données au moyen d'une base d'ondelettes adaptée. L'utilisation d'une ondelette unique translatée dans le temps est rendue possible par un travail sur une représentation complexe des données réelles originales. Une première étape permet de détecter et de positionner les échos d'amplitude significative. Dans un deuxième temps, on effectue une régularisation spatialement cohérente des instants de détection à l'aide d'un modèle markovien. On élimine ainsi les échos dont les instants de détection ne font pas partie de surfaces d'instants régulières. Les parties suivantes traitent de la localisation et du dimensionnement des fissures. On utilise des caractéristiques extraites du faisceau ultrasonore afin de déterminer le trajet de l'onde ultrasonore du capteur à l'objet diffractant lorsque la réponse de l'écho est maximale. On met en correspondance l'instant de détection obtenu pour cet écho et le temps de parcours selon le trajet défini afin de positionner un point d'arête dans la pièce. On obtient ainsi un ensemble de points de discrétisation pour chaque arête. Dans le cadre de données 3d obtenues sur un matériau isotrope, on élimine les points d'arête extrêmes en utilisant un critère de comparaison sur les courbes échodynamiques associées aux points de détection sur les données réelles et sur des données simulées équivalentes. La localisation est abordée pour des fissures situées dans un matériau isotrope ou acier revêtu d'anisotrope.
APA, Harvard, Vancouver, ISO, and other styles
15

Coupechoux, Emilie. "Analyse de grands graphes aléatoires." Paris 7, 2012. http://www.theses.fr/2012PA077184.

Full text
Abstract:
Plusieurs types de réseaux du monde réel peuvent être représentés par des graphes. Comme il s'agit de réseaux de très grande taille, leur topologie détaillée est généralement inconnue, et nous les modélisons par de grands graphes aléatoires ayant les mêmes propriétés statistiques locales que celles des réseaux observés. Un exemple de telle propriété est la présence de regroupements dans les réseaux réels : si deux individus ont un ami en commun, ils ont également tendance à être amis entre eux. Etudier des modèles de graphes aléatoires qui soient à la fois appropriés et faciles à aborder d'un point de vue mathématique représente un challenge, c'est pourquoi nous considérons plusieurs modèles de graphes aléatoires possédant ces propriétés. La propagation d'épidémies dans les graphes aléatoires peut être utilisée pour modéliser plusieurs types de phénomènes présents dans les réseaux réels, comme la propagation de maladies, ou la diffusion d'une nouvelle technologie. Le modèle épidémique que nous considérons dépend du phénomène que nous voulons représenter :. Un individu peut contracter une maladie par un simple contact avec un de ses amis (ces contacts étant indépendants),. Mais une nouvelle technologie est susceptible d'être adoptée par un individu lorsque beaucoup de ses amis ont déjà la technologie en question. Nous étudions essentiellement ces deux différents cas de figure. Dans chaque cas, nous cherchons à savoir si une faible proportion de la population initialement atteinte (ou ayant la technologie en question) peut propager l'épidémie à une grande partie de la population
Several kinds of real-world networks can be represented by graphs. Since such networks are very large, their detailed topology is generally unknown, and we model them by large random graphs having the same local statistical properties as the observed networks. An example of such properties is the fact that real-world networks are often highly clustered : if two individuals have a friend in common, they are likely to also be each other's friends. Studying random graph models that are both appropriate and tractable from a mathematical point of view is challenging, that is why we consider several clustered random graph models. The spread of epidemics in random graphs can be used to model several kinds of phenomena in real-world networks, as the spread of diseases, or the diffusion of a new technology. The epidemic model we consider depends on the phenomenon we wish to represent :. An individual can contract a disease by a single contact with any of his friends (such contacts being independent),. But a new technology is likely to be adopted by an individual if many of his friends already have the technology in question. We essentially study these two cases. In each case, one wants to know if a small proportion of the population initially infected (or having the technology in question) can propagate the epidemic to a large part of the population
APA, Harvard, Vancouver, ISO, and other styles
16

Huck, Alexis. "Analyse non-supervisée d’images hyperspectrales : démixage linéaire et détection d’anomalies." Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX30036.

Full text
Abstract:
Cette thèse explore deux axes de recherche pour l'analyse non-supervisée d'Images HyperSpectrales (HSIs). Sous l'hypothèse du modèle de mélange linéaire de spectres, nous abordons d'abord la problématique du démixage par Factorisation en Matrices Non-négatives (NMF). D'une part, nous proposons de régulariser le problème en intégrant de l'information a priori spectrale et spatiale judicieuse, spécifique aux HSIs. D'autre part, nous proposons un estimateur du pas optimal pour la descente de gradient projeté. Nous montrons ainsi que, correctement régularisée, la NMF est un outil pertinent pour le démixage d'HSIs. Puis, nous explorons la problématique de la détection d'anomalies. Nous proposons un algorithme de Poursuite de Composantes Anormales (PCA), basé simultanément sur la poursuite de projections et sur un modèle probabiliste avec test d'hypothèses. Ainsi, la PCA détecte les anomalies à taux de fausse alarme constant et les discrimine en classes spectralement homogènes
This thesis focusses on two research fields regarding unsupervised analysis of hyperspectral images (HSIs). Under the assumptions of the linear spectral mixing model, the formalism of Non-Negative Matrix Factorization is investigated for unmixing purposes. We propose judicious spectral and spatial a priori knowledge to regularize the problem. In addition, we propose an estimator for the projected gradient optimal step-size. Thus, suitably regularized NMF is shown to be a relevant approach to unmix HSIs. Then, the problem of anomaly detection is considered. We propose an algorithm for Anomalous Component Pursuit (ACP), simultaneously based on projection pursuit and on a probabilistic model and hypothesis testing. ACP detects the anomalies with a constant false alarm rate and discriminates them into spectrally homogeneous classes
APA, Harvard, Vancouver, ISO, and other styles
17

Hamidouche, Mounia. "Analyse spectrale de graphes géométriques aléatoires." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4019.

Full text
Abstract:
Nous étudions le graphe géométrique aléatoire (GGA) afin d'aborder des problèmes clés dans les réseaux complexes. Un GAA est construit en distribuant uniformément n nœuds sur un tore de dimension d et en connectant deux nœuds si leur distance ne dépasse pas un seuil. Trois régimes pour GGA présentent un intérêt particulier. Le régime de connectivité dans lequel le degré moyen d'un nœud a_n croît de manière logarithmique avec n ou plus vite. Le régime dense dans lequel a_n est linéaire avec n. Le régime thermodynamique dans lequel a_n est une constante. On étudie le spectre du Laplacien normalisé (LN) et régularisé du GGA dans les trois régimes. Lorsque d est fixe et n tend vers l'infini, on prouve que la distribution spectrale limite (DSL) du LN converge vers la distribution de Dirac concentrée en 1 dans le régime de connectivité. Dans le régime thermodynamique, on propose une approximation pour DSL du LN régularisé et on fournit une borne d'erreur sur l'approximation. On montre que DSL du LN régularisé d'un GGA est approximée par DSL d'un graphe géométrique déterministe (GGD). On étudie DSL de la matrice d'adjacence d'un GGA dans le régime de connectivité. Sous des conditions sur a_n, on montre que DSL de la matrice d'adjacence du GGD est une bonne approximation du GGA pour n large. On détermine la dimension spectrale (DS) qui caractérise la distribution du temps de retour d'une marche aléatoire sur le GGA. On montre que DS dépend de la densité spectrale de LN au voisinage des valeurs propres minimales. On prouve que la densité spectrale au voisinage de la valeur minimale suit une loi de puissance et que DS du GGA est approximé par d dans le régime thermodynamique
We study random geometric graphs (RGGs) to address key problems in complex networks. An RGG is constructed by uniformly distributing n nodes on a torus of dimension d and connecting two nodes if their distance does not exceed a certain threshold. Three regimes for RGGs are of particular interest. The connectivity regime in which the average vertex degree a_n grows logarithmically with n or faster. The dense regime in which a_n is linear with n. The thermodynamic regime in which a_n is a constant. We study the spectrum of RGGs normalized Laplacian (LN) and its regularized version in the three regimes. When d is fixed and n tends to infinity we prove that the limiting spectral distribution (LSD) of LN converges to Dirac distribution at 1 in the connectivity regime. In the thermodynamic regime we propose an approximation for LSD of the regularized NL and we provide an error bound on the approximation. We show that LSD of the regularized LN of an RGG is approximated by LSD of the regularized LN of a deterministic geometric graph (DGG). We study LSD of RGGs adjacency matrix in the connectivity regime. Under some conditions on a_n we show that LSD of DGGs adjacency matrix is a good approximation for LSD of RGGs for n large. We determine the spectral dimension (SD) that characterizes the return time distribution of a random walk on RGGs. We show that SD depends on the eigenvalue density (ED) of the RGG normalized Laplacian in the neighborhood of the minimum eigenvalues. Based on the analytical eigenvalues of the normalized Laplacian we show that ED in a neighborhood of the minimum value follows a power-law tail and we approximate SD of RGGs by d in the thermodynamic regime
APA, Harvard, Vancouver, ISO, and other styles
18

Dimon, Catalin. "Contributions à la modélisation et la commande des réseaux de trafic routier." Phd thesis, Ecole Centrale de Lille, 2012. http://tel.archives-ouvertes.fr/tel-00801762.

Full text
Abstract:
Les principaux objectifs de la thèse sont de proposer des modèles dynamiques pour décrire la circulation routière en adaptant des modèles de la mécanique des fluides et à partir de ces modèles de concevoir et mettre en œuvre des algorithmes de contrôle. La circulation routière est considérée comme un système complexe organisé dans une structure décentralisée à trois niveaux: au plus haut niveau il y a le réseau routier, décomposé, au niveau suivant, en objets routiers (tronçons et intersections), aussi décomposés, au dernier niveau, en éléments (segments) routiers.La thèse est organisée en six chapitres. Le premier chapitre présente les problèmes spécifiques aux réseaux de circulation routière, ainsi que des modèles et des algorithmes de contrôle trouvés dans la littérature. Le deuxième chapitre présente les principaux outils nécessaires pour décrire un modèle de trafic macroscopique et des façons pour représenter le flux de véhicules. Dans le troisième chapitre, des modèles dynamiques sont proposés pour différents segments et tronçons routiers. Le quatrième chapitre est consacré à la conception d'algorithmes pour le contrôle du trafic et l'optimisation de la circulation, y compris une analyse de robustesse pour évaluer la tolérance du système aux non-linéarités du modèle. Le cinquième chapitre présente une stratégie de contrôle pour le réseau routier, en utilisant la représentation par des modèles à compartiments et le concept de dynamique positive. Dans le dernier chapitre de la thèse, les contributions de l'auteur sont mises en évidence et quelques perspectives pour le développement ultérieur de la recherche sont présentées
APA, Harvard, Vancouver, ISO, and other styles
19

Panafieu, Elie de. "Combinatoire analytique des graphes, hypergraphes et graphes inhomogènes." Paris 7, 2014. http://www.theses.fr/2014PA077167.

Full text
Abstract:
Nous étudions deux modèles qui généralisent la notion de graphe : les hypergraphes non-uniformes et les graphes inhomogènes. Ces modèles sont proches de ceux définis par Darling et Norris (2004) et Sôderberg (2002). Nous étudions leur énumération et leur structure typique avant et autour de la naissance de la composante géante. Nous montrons que les graphes inhomogènes sont un cadre idéal pour la modélisation de nombreux problèmes de satisfaction de contraintes (CSP) de complexité polynomiale, tels que la 2-colorabilité, la satisfaisabilité de formules 2- Xor et de formules 2-Xor quantifiées. Nous relions la probabilité de satisfaisabilité de ces problèmes à l'énumération des graphes inhomogènes. En application, plusieurs résultats de transition de phase anciens et nouveaux reçoivent une preuve dans un cadre unifié. Enfin, nous proposons une nouvelle preuve simple du nombre de multigraphes connexes possédant un nombre d'arêtes proportionnel au nombre de sommets, Ce résultat a été obtenu dans le cadre des graphes simples par Bender, Canfield et McKay (1990). L'outil principale de cette thèse est la combinatoire analytique, telle que définie par Flajolet et Sedgewick dans leur livre (2009)
We investigate two graph-like models: the non-uniform hypergraphs and the inhomogeneous graphs. They are close to the models defined by Darling and Norris (2004) and Sôderberg (2002). We enumerate them and derive structure information before and near the birth of the giant component. The inhomogeneous graph model proves to be a convenient framework for the modeling of several tractable constraint satisfaction problems (CSP), such as the 2-colorability problem, the satisfiability of 2-Xor formulas and of quantified 2-Xor formulas. We link the probability of satisfiability of those problems to the enumeration of inhomogeneous graphs. As an application, proofs of old and new phase transition results are derived in a unified framework. Finally, we derive a new simple proof for the asymptotic number of connected multigraphs with a number of edges proportional to the number of vertices. This result was first derived for simple graphs by Bender, Canfield and McKay (1990). The main tool of this thesis is analytic combinatorics, as defined by Flajolet and Sedgewick in their book (2009)
APA, Harvard, Vancouver, ISO, and other styles
20

Dârlea, Georgiana-Lavinia. "Un système de classification supervisée à base de règles implicatives." Chambéry, 2010. http://www.theses.fr/2010CHAMS001.

Full text
Abstract:
Le travail de recherche de la thèse concerne la classification supervisée de données et plus particulièrement l'apprentissage semi-automatique de classifieurs à base de règles floues graduelles. Le manuscrit de la thèse présente une description de la problématique de classification ainsi que les principales méthodes de classification déjà développées, afin de placer la méthode proposée dans le contexte général de la spécialité. Ensuite, les travaux de la thèse sont présentés: la définition d'un cadre formel pour la représentation d'un classifieur élémentaire à base de règles floues graduelles dans un espace 2D, la spécification d'un algorithme d'apprentissage de classifieurs élémentaires à partir de données, la conception d'un système multi-dimensionel de classification multi-classes par combinaison de classifieurs élémentaires. L'implémentation de l'ensemble des fonctionnalités est ensuite détaillée, puis finalement les développements réalisés sont utilisés pour deux applications en imagerie: analyse de la qualité des produits industriels par tomographie, classification en régions d'intérêt d'images satellitaires radar
This PhD thesis presents a series of research works done in the field of supervised data classification more precisely in the domain of semi-automatic learning of fuzzy rules-based classifiers. The prepared manuscript presents first an overview of the classification problem, and also of the main classification methods that have already been implemented and certified in order to place the proposed method in the general context of the domain. Once the context established, the actual research work is presented: the definition of a formal background for representing an elementary fuzzy rule-based classifier in a bi-dimensional space, the description of a learning algorithm for these elementary classifiers for a given data set and the conception of a multi-dimensional classification system which is able to handle multi-classes problems by combining the elementary classifiers. The implementation and testing of all these functionalities and finally the application of the resulted classifier on two real-world digital image problems are finally presented: the analysis of the quality of industrial products using 3D tomographic images and the identification of regions of interest in radar satellite images
APA, Harvard, Vancouver, ISO, and other styles
21

Conan-Guez, Brieuc. "Modélisation supervisée de données fonctionnelles par perceptron multi-couches." Phd thesis, Université Paris Dauphine - Paris IX, 2002. http://tel.archives-ouvertes.fr/tel-00178892.

Full text
Abstract:
L'Analyse de Données Fonctionnelles est une extension de l'analyse de données traditionnelles à des individus décrits par des fonctions. Le travail présenté ici s'inscrit pleinement dans ce courant, et tente de faire la jonction entre le domaine de la statistique fonctionnelle, et celui des techniques "neuronales" classiques. L'extension du perceptron multi-couches (PMC) à des espaces fonctionnels, proposé dans ce travail, apporte une réponse naturelle au traitement d'individus de type fonctions. Deux approches distinctes sont ici présentées : une approche par traitement direct des fonctions d'entrée et une approche par projection sur une base topologique de l'espace fonctionnel considéré (méthode classique en Analyse de Données Fonctionnelles). Pour chacune de ces deux méthodes, on montre dans un premier temps que le modèle est un approximateur universel, i.e. que toute fonction continue définie sur un compact d'un espace fonctionnel peut être approchée arbitrairement bien par un PMC fonctionnel. Dans un deuxième temps, on s'intéresse aux propriétés de consistance de l'estimateur fonctionnel. L'originalité de ce résultat vient du fait que non seulement l'estimation s'effectue sur un nombre fini d'individus (les fonctions observées), mais que de plus chacune de ces fonctions n'est connue qu'en un nombre fini de points d'observation (discrétisation). Un point important à noter est que ce résultat s'appuie sur une modélisation aléatoire du design des fonctions d'entrée. Enfin, on montre que le modèle peut encore être adapté afin d'obtenir une réponse fonctionnelle, ce qui autorise le traitement de processus fonctionnels à temps discret. L'approximation universelle et la consistance de l'estimateur (dans le cas i.i.d) sont encore vérifiées.
APA, Harvard, Vancouver, ISO, and other styles
22

Leblanc, Brice. "Analyse non supervisée de données issues de Systèmes de Transport Intelligent-Coopératif." Thesis, Reims, 2020. http://www.theses.fr/2020REIMS014.

Full text
Abstract:
Cette thèse se situe dans le contexte des réseaux véhiculaires (VANET), et plus particulièrement dans le contexte des Systèmes de Transport Intelligent-Coopératif (STI-C). Ces systèmes échangent des informations pour améliorer la sécurité routière.Le but de cette thèse est d'introduire des outils d'analyse de données qui peuvent fournir aux opérateurs routiers des informations sur l'utilisation et état de leurs infrastructures. Par conséquent, ces informations peuvent contribuer à améliorer la sécurité routière. Nous identifions deux cas que nous voulons traiter : l'identification des profils de conduite et la détection des obstacles routiers.Pour traiter ces questions, nous proposons d'utiliser des approches d'apprentissage non supervisées : des méthodes de regroupement pour l'identification des profils de conduite, et la détection de changement de concept pour la détection des obstacles. Cette thèse présente trois contributions principales : une méthodologie nous permettant de transformer les données brutes des STI-C en un ensemble de trajectoires puis de données d'apprentissage ; l'utilisation de méthodes classiques de regroupement et des points d'intérêt pour les profils de conduite avec des expériences sur les données issues des appareils mobiles et des journaux du réseau ; et la prise en compte d'une foule de véhicules fournissant des journaux du réseau considérés comme flux de données en entrée d'algorithmes de détection de changement de concept pour reconnaître les obstacles routiers
This thesis takes place in the context of Vehicular Ad-hoc Networks (VANET), and more specifically the context of Cooperative-Intelligent Transport System (C-ITS). These systems are exchanging information to enhance road safety.The purpose of this thesis is to introduce data analysis tools that may provide road operators information on the usage/state of their infrastructures. Therefore, this information may help to improve road safety. We identify two cases we want to deal with: driving profile identification and road obstacle detection.For dealing with those issues, we propose to use unsupervised learning approaches: clustering methods for driving profile identification, and concept drift detection for obstacle detection. This thesis introduces three main contributions: a methodology allowing us to transform raw C-ITS data in, first, trajectory, and then, learning data-set; the use of classical clustering methods and Points Of Interests for driving profiles with experiments on mobile device data and network logs data; and the consideration of a crowd of vehicles providing network log data as data streams and considered as input of concept drift detection algorithms to recognize road obstacles
APA, Harvard, Vancouver, ISO, and other styles
23

Vandewalle, Vincent. "Estimation et sélection en classification semi-supervisée." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2009. http://tel.archives-ouvertes.fr/tel-00447141.

Full text
Abstract:
Le sujet de cette thèse est la classification semi-supervisée qui est considérée d'un point de vue décisionnel. Nous nous intéressons à la question de choix de modèles dans ce contexte où les modèles sont estimés en utilisant conjointement des données étiquetées et des données non étiquetées plus nombreuses. Nous concentrons notre recherche sur les modèles génératifs où la classification semi-supervisée s'envisage sans difficulté, contrairement au cadre prédictif qui nécessite des hypothèses supplémentaires peu naturelles. Après avoir dressé un état de l'art de la classification semi-supervisée, nous décrivons l'estimation des paramètres d'un modèle de classification à l'aide de données étiquetées et non étiquetées par l'algorithme EM. Nos contributions sur la sélection de modèles font l'objet des deux chapitres suivants. Au chapitre 3, nous présentons un test statistique où les données non étiquetées sont utilisées pour mettre à l'épreuve le modèle utilisé. Au chapitre 4 nous présentons un critère de sélection de modèles AIC_cond, dérivé du critère AIC d'un point de vue prédictif. Nous prouvons la convergence asymptotique de ce critère particulièrement bien adapté au contexte semi-supervisé et ses bonnes performances pratiques comparé à la validation croisée et à d'autres critères de vraisemblance pénalisée. Une deuxième partie de la thèse, sans rapport direct avec le contexte semi-supervisé, présente des modèles multinomiaux pour la classification sur variables qualitatives. Nous avons conçu ces modèles pour répondre à des limitations des modèles multinomiaux parcimonieux proposés dans le logiciel MIXMOD. À cette occasion, nous proposons un critère type BIC qui prend en compte de manière spécifique la complexité de ces modèles multinomiaux contraints.
APA, Harvard, Vancouver, ISO, and other styles
24

Godard, Emmanuel. "Réécritures de graphes et algorithmique distribuée." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12518.

Full text
Abstract:
Un système distribué peut être représenté par un graphe étiqueté : les sommets correspondent aux processeurs, les arêtes aux liens de communication et les étiquettes associées aux sommets codent les états des processeurs. Un algorithme distribué est alors décrit par un système de règles de transition locale où l'étiquette suivante d'un sommet est fonction de son étiquette actuelle et de celles de ses voisins (réétiquetage local). Les réétiquetages opérant sur des voisinages disjoints se déroulent en parallèle, de manière asynchrone. Dans ce cadre, on étudie la réalisabilité et non-réalisabilité des tâches distribuées. Nous illustrerons notre méthode en nous intéressant en particulier à certains problèmes spécifiques aux systèmes distribués (élection d'un noeud, reconnaissance de certaines propriétés topologiques du graphe sous-jacent au réseau, calcul de métriques du réseau comme par exemple la taille ou le diamètre). Dans tous ces cas, on présente une caractérisation complète de ce qui est réalisable par calcul distribué en fonction de la topologie du graphe sous-jacent mais également du degré de connaissance qu'a le réseau sur lui-même ("connaissance structurelle"). Ces conditions nécessaires et suffisantes sont principalement exprimées en termes de fermetures par s̀̀imilarités'' des familles de réseaux considérées. Ces s̀̀imilarités'' sont décrites de manière combinatoire à l'aide de morphismes de graphes particuliers : les revêtements et les quasi-revêtements. Les preuves des conditions nécessaires emploient des techniques de simulation à base de revêtements et quasi-revêtements. Les algorithmes distribués présentés pour les preuves des conditions suffisantes se fondent essentiellement sur un algorithme de cartographie du réseau sous-jacent. Celui-ci est construit à partir des extensions d'un algorithme d'énumération de A. Mazurkiewicz et d'un algorithme de détection des propriétés stables de Shy, Szymanski et Prywes.
APA, Harvard, Vancouver, ISO, and other styles
25

Mostefaoui, Mustapha. "Analyse des propriétés temporelles des graphes d'événements valués continus." Nantes, 2001. http://www.theses.fr/2001NANT2100.

Full text
Abstract:
Les réseaux de Petri (RdP) sont un formalisme puissant de modélisation et d'évaluation des systèmes dynamiques complexes. Une classe particulière des RdP, que sont les graphes d'événements valués (GdEV) fortement connexes, permet plus particulièrement d'analyser les systèmes cycliques sans conflit structurel. Lorsque la notion de flux apparaît (système fluide, structure à haut débit, etc. ) il est possible d'utiliser un modèle GdEV continu (GdEVC). Le plus souvent, les méthodes d'analyse des propriétés temporelles des RdP continus se basent sur le développement du graphe d'évolution qui représente la dynamique du système. . .
APA, Harvard, Vancouver, ISO, and other styles
26

Albano, Alice. "Dynamique des graphes de terrain : analyse en temps intrinsèque." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066260/document.

Full text
Abstract:
Nous sommes entourés par une multitude de réseaux d'interactions, issus de contextes très différents. Ces réseaux peuvent être modélisés par des graphes, appelés graphes de terrain. Ils possèdent une structure en communautés, c'est-à-dire en groupes de nœuds très liés entre eux, et peu liés avec les autres. Un phénomène que l'on étudie sur les graphes dans de nombreux contextes est la diffusion. La propagation d'une maladie en est un exemple. Ces phénomènes dépendent d'un paramètre important, mais souvent peu étudié : l'échelle de temps selon laquelle on les observe. Selon l'échelle choisie, la dynamique du graphe peut varier de manière très importante.Dans cette thèse, nous proposons d'étudier des processus dynamiques en utilisant une échelle de temps adaptée. Nous considérons une notion de temps relatif, que nous appelons le temps intrinsèque, par opposition au temps "classique", que nous appelons temps extrinsèque. Nous étudions en premier lieu des phénomènes de diffusion selon une échelle de temps intrinsèque, et nous comparons les résultats obtenus avec une échelle extrinsèque. Ceci nous permet de mettre en évidence le fait qu'un même phénomène observé dans deux échelles de temps différentes puisse présenter un comportement très différent. Nous analysons ensuite la pertinence de l'utilisation du temps intrinsèque pour la détection de communautés dynamiques. Les communautés obtenues selon les échelles de temps extrinsèques et intrinsèques nous montrent qu'une échelle intrinsèque permet la détection de communautés beaucoup plus significatives et détaillées que l'échelle extrinsèque
We are surrounded by a multitude of interaction networks from different contexts. These networks can be modeled as graphs, called complex networks. They have a community structure, i.e. groups of nodes closely related to each other and less connected with the rest of the graph. An other phenomenon studied in complex networks in many contexts is diffusion. The spread of a disease is an example of diffusion. These phenomena are dynamic and depend on an important parameter, which is often little studied: the time scale in which they are observed. According to the chosen scale, the graph dynamics can vary significantly. In this thesis, we propose to study dynamic processes using a suitable time scale. We consider a notion of relative time which we call intrinsic time, opposed to "traditional" time, which we call extrinsic time. We first study diffusion phenomena using intrinsic time, and we compare our results with an extrinsic time scale. This allows us to highlight the fact that the same phenomenon observed at two different time scales can have a very different behavior. We then analyze the relevance of the use of intrinsic time scale for detecting dynamic communities. Comparing communities obtained according extrinsic and intrinsic scales shows that the intrinsic time scale allows a more significant detection than extrinsic time scale
APA, Harvard, Vancouver, ISO, and other styles
27

Janaqi, Stefan. "Quelques éléments de la géométrie des graphes : graphes médians, produits d'arbres, génération convexe des graphes de Polymino." Université Joseph Fourier (Grenoble), 1994. http://www.theses.fr/1995GRE10093.

Full text
Abstract:
La notion d'intervalle dans un graphe, traduit de façon naturelle la notion du segment dans les espaces euclidiens. Par analogie, un ensemble C de sommets est convexe si pour tout couple x, y de sommets de C, l'intervalle entre x et y est inclu dans C. En utilisant la convexité géodésique, Djokovic a caractérisé les graphes isométriquement plongeable dans l'hypercube. Une vingtaine d'années plus tard, Mulder a caractérisé les graphes médians comme des graphes isométriquement plongeable dans l'hypercube et qui sont fermés pour l'opération médian. La comprehension du lien apparent entre ces deux résultats, nous a permis de trouver une nouvelle caractérisation, d'inspiration géométrique, des graphes médians. Cette caractérisation nous a permis à reconnaître les graphes médians qui sont des produits d'arbres ou de chemins. Nous avons donné une caractérisation de ces produits par mineurs convexes exclus. Un autre groupe de résultats concerne des graphes définis naturellement à partir des polyminos. En cherchant le nombre minimum de sommets qui engendrent convexement un tel graphe G, nous avons trouvé que ce nombre est égal au nombre maximum de sommets de degré un d'un arbre obtenu à partir de G par la contraction d'arêtes bien choisies
APA, Harvard, Vancouver, ISO, and other styles
28

Mercier, Lucas. "Grands graphes et grands arbres aléatoires : analyse du comportement asymptotique." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0028/document.

Full text
Abstract:
Cette thèse est consacrée à l'étude du comportement asymptotique de grands graphes et arbres aléatoires. Le premier modèle étudié est un modèle de graphe aléatoire inhomogène introduit par Bo Söderberg. Un chapitre de ce manuscrit est consacré à l'étude asymptotique de la taille des composantes connexes à proximité de la fenêtre critique, en le reliant à la longueur des excursions d'un mouvement brownien avec dérive parabolique, étendant les résultats obtenus par Aldous. Le chapitre suivant est consacré à un processus de graphes aléatoires proposé par Itai Benjamini, défini ainsi : les arêtes sont ajoutées indépendamment, à taux fixe. Lorsqu'un sommet atteint le degré k, toutes les arêtes adjacentes à ce sommet sont immédiatement supprimées. Ce processus n'est pas croissant, ce qui empêche d'utiliser directement certaines approches usuelles. L'utilisation de limites locales permet de montrer la présence (resp. l'absence) d'une composante géante à certaines étapes dans le cas k>=5 (resp. k<=3). Dans le cas k=4, ces résultats permettent de caractériser la présence d'une composante géante en fonction du caractère surcritique ou non d'un processus de branchement associé. Dans le dernier chapitre est étudiée la hauteur d'un arbre de Lyndon associé à un mot de Lyndon choisi uniformément parmi les mots de Lyndon de longueur n, prouvant que cette hauteur est approximativement c ln n, avec c=5,092... la solution d'un problème d'optimisation. Afin d'obtenir ce résultat, nous couplons d'abord l'arbre de Lyndon à un arbre de Yule, que nous étudions ensuite à l'aide de techniques provenant des théories des marches branchantes et des grandes déviations
This thesis is dedicated to the study of the asymptotic behavior of some large random graphs and trees. First is studied a random graph model introduced by Bo Söderberg in 2002. One chapter of this manuscript is devoted to the study of the asymptotic behavior of the size of the connected components near the critical window, linking it to the lengths of excursion of a Brownian motion with parabolic drift. The next chapter talks about a random graph process suggested by Itai Benjamini, defined as follows: edges are independently added at a fixe rate. Whenever a vertex reaches degree k, all adjacent edges are removed. This process is non-increasing, preventing the use of some commonly used methods. By using local limits, in the spirit of the PWIT, we were able to prove the presence (resp. absence) of a giant component at some stages of the process when k>=5 (resp. k<=3). In the case k=4, these results allows to link the presence (resp. absence) of a giant component to the supercriticality (resp. criticality or subcriticality) of an associated branching process. In the last chapter, the height of random Lyndon tree is studied, and is proven to be approximately c ln n, in which c=5.092... the solution of an optimization problem. To obtain this result, we couple the Lyndon tree with a Yule tree, then studied with the help of branching walks and large deviations
APA, Harvard, Vancouver, ISO, and other styles
29

Ravelomanana, Vlady. "Graphes multicycliques étiquetés : aspects combinatoires et probabilistes." Amiens, 2000. http://www.theses.fr/2000AMIE0122.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Cutrona, Jérôme. "Analyse de forme des objets biologiques : représentation, classification et suivi temporel." Reims, 2003. http://www.theses.fr/2003REIMS018.

Full text
Abstract:
En biologie, les relations entre la forme, élément majeur de la vision par ordinateur, et la fonction ont depuis longtemps été mises en évidence. Cette thèse présente une chaîne de traitement permettant d'aboutir à la classification non supervisée de formes, au suivi de déformation et à la classification supervisée de populations d'objets. Nous proposons dans un premier temps une contribution en segmentation automatique basée sur une procédure de classification floue, ainsi que deux méthodes semi-automatiques s'appuyant sur la connectivité floue et les lignes de partage des eaux. Nous menons ensuite une étude sur plusieurs descripteurs de la forme des objets utilisant des primitives et des anti-primitives, le contour , la silhouette et la courbure multi-échelle. Après mise en correspondance, les descripteurs sont soumis à une analyse statistique pour mettre en évidence les modes de variations au sein des échantillons. Le modèle statistique obtenu est à la base des applications proposées
N biology, the relationship between shape, a major element in computer vision, and function has been emphasized since a long time. This thesis proposes a processing line leading to unsupervised shape classification, deformation tracking and supervised classification of whole population of objects. We first propose a contribution to unsupervised segmentation based on a fuzzy classification method and two semi-automatic methods founded on fuzzy connectedness and watersheds. Next, we perform a study on several shape descriptors including primitives and anti-primitives, contour, silhouete and multi-scale curvature. After shape matching, the descriptors are submitted to statistical analysis to highlight the modes of variations within the samples. The obtained statistical model is the basis of the proposed applications
APA, Harvard, Vancouver, ISO, and other styles
31

Ferrandiz, Sylvain. "Evaluation d'une mesure de similitude en classification supervisée : application à la préparation de données séquentielles." Phd thesis, Université de Caen, 2006. http://tel.archives-ouvertes.fr/tel-00123406.

Full text
Abstract:
En phase de préparation d'un processus de fouille de données, une part importante
du travail est consacrée à la construction et à la sélection des variables descriptives.
L'approche filtre univariée usuellement adoptée nécessite l'emploi d'une méthode
d'évaluation d'une variable. Nous considérons la question de l'évaluation supervisée d'une
variable séquentielle. Pour résoudre ce problème, nous montrons qu'il suffit de résoudre
un problème plus général : celui de l'évaluation supervisée d'une mesure de similitude.

Nous proposons une telle méthode d'évaluation. Pour l'obtenir, nous formulons le
problème en un problème de recherche d'une partition de Voronoi informative. Nous
proposons un nouveau critère d'évaluation supervisée de ces partitions et une nouvelle
heuristique de recherche optimisée. Le critère prévient automatiquement le risque de surapprentissage
et l'heuristique trouve rapidement une bonne solution. Au final, la méthode
réalise une estimation non paramétrique robuste de la densité d'une variable cible catégorielle
conditionnellement à une mesure de similitude définie à partir d'une variable descriptive.

La méthode a été testée sur de nombreux jeux de données. Son utilisation permet
de répondre à des questions comme : quel jour de la semaine ou quelle tranche horaire
sur la semaine discrimine le mieux le segment auquel appartient un foyer à partir de sa
consommation téléphonique fixe ? Quelle série de mesures permet de quantifier au mieux l'appétence à un nouveau service ?
APA, Harvard, Vancouver, ISO, and other styles
32

Jin, Xiong. "Construction et analyse multifractale de fonctions aléatoires et de leurs graphes." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00841501.

Full text
Abstract:
Cette thèse est consacrée à la construction et l'analyse multifractale de fonctions aléatoires et de leurs graphes. La construction de ces objets se fait dans le cadre de la théorie des T-martingales de Kahane, et plus spécifiquement des [0, 1]-martingales. Cette théorie est fréquemment utilisée pour construire des martingales à valeurs dans les mesures de Borel positives dont la limite soit presque sûrement singulière par rapport à la mesure de Lebesgue. Ceci se fait en perturbant cette dernière à l'aide d'une suite de densités aléatoires qui sont des martingales positives d'espérance 1. Ici, nous autorisons ces martingales à prendre des valeurs complexes, et plutôt que des martingales à valeurs dans les mesures, nous considérons des martingales à valeurs dans les fonctions continues à valeurs complexes, puis la question de leur convergence uniforme presque sûre. Nous obtenons une condition suffisante de convergence pour les éléments d'une large classe de [0, 1]-martingales complexes. Les limites non dégénérées sont toutes candidates à être des fonctions multifractales. L'étude de leur nature multifractale révèle de nouvelles diffiultés. Nous la menons de façon complète dans le cas des "cascades b-adiques indépendantes" complexes. Ceci conduit à de nouveaux phénomènes. En particulier, nous construisons des fonctions continues statistiquement autosimilaires dont le spectre de singularité est croissant et entièrement supporté par l'intervalle [0;\infty]. Nous considérons également de nouveaux spectres de singularité associés au graphe, à l'image, ainsi qu'aux ensembles de niveau d'une fonction multifractale f donnée. Ces spectres s'obtiennent de la façon suivante. Soit Eh l'ensemble iso-Hölder de f associé à l'exposant h. Soit h le sous-ensemble du graphe de f obtenu en y relevant Eh. Pour tout h, on cherche la dimension de Hausdorff de h, celle de f(Eh), et celle des ensembles du type h \ Ly, où Ly est l'ensemble de niveau y de f. Pour les cascades b-adiques indépendantes non conservatives à valeurs réelles, nous obtenons presque sûrement les spectres associés au graphe et à l'image, et pour les spectres associés aux ensembles de niveau, nous obtenons un résultat en regardant des lignes de niveau dans "Lebesgue presque toute direction". Enfin, nous considérons les mêmes questions que précédemment pour une autre classe de foncions aléatoires multifractales obtenues comme séries d'ondelettes pondérées par des mesures de Gibbs. Nous obtenons presque sûrement les spectres associés au graphe et à l'image.
APA, Harvard, Vancouver, ISO, and other styles
33

Drira, Khalil. "Transformation et composition de graphes de refus : analyse de la testabilité." Toulouse 3, 1992. http://www.theses.fr/1992TOU30142.

Full text
Abstract:
Les techniques de description formelle (tdf) pour la specification de systemes communicants sont utilisees pour valider et tester des implementations de ces systemes. Dans le cas de systemes constitues de modules, il est interessant de savoir evaluer la testabilite de chacun des composants a travers l'environnement de test que constitue les autres composants interconnectes. Cette these presente deux contributions principales aux approches de validation et de test dans le cadre des tdf: 1) une caracterisation operationnelle des relations de conformite, avec derivation automatique de tests de conformite; 2) une approche d'analyse de la testabilite des systemes partiellement observables et commandables. Les deux contributions sont basees sur une structure de graphe doublement etiquete: le graphe de refus. La verification automatique de conformite est basee sur un calcul de bissimulation adapte a cette structure. L'analyse de testabilite est basee sur l'ordonnancement de modeles d'implementations erronees. La definition des operateurs de composition et restriction sur les graphes de refus permet d'ameliorer l'efficacite de la recherche des limites de testabilite. Un environnement logiciel a ete developpe sous environnement unix pour (1) la verification des relations de conformite dans le cas des systemes a etats finis; 2) la generation de tests de conformite, et pour; 3) la mise en uvre de l'analyse de testabilite d'un systeme a travers un environnement
APA, Harvard, Vancouver, ISO, and other styles
34

Capelle, Christian. "Décompositions de graphes et permutations factorisantes." Montpellier 2, 1997. http://www.theses.fr/1997MON20006.

Full text
Abstract:
Depuis plusieurs decennies les decompositions de graphes ont ete largement etudiees, en particulier comme des outils destines a mettre en uvre le paradigme diviser pour resoudre. Ici, nous nous interessons a des decompositions dont le point commun est le suivant: identifier des ensembles d'elements d'un graphe qui ont un comportement similaire vis a vis du reste du graphe. Ces ensembles sont appeles ensembles de decomposition. Nous formalisons et etudions un concept central en theorie de la decomposition: la notion de permutation factorisante. Il s'agit d'une permutation sur les sommets ou les arcs du graphe qui respecte la decomposition de ce dernier en ensembles de decomposition. Nous illustrons son interet dans le cadre de plusieurs decompositions: nous montrons que calculer la decomposition par substitution est equivalent a calculer une permutation factorisante. En utilisant la theorie de la decomposition par substitution, nous proposons une nouvelle decomposition: la decomposition en blocs des graphes d'heritage. Les graphes d'heritage (appeles aussi hierarchies d'heritage) sont les graphes orientes sans circuits possedant un plus grand et un plus petit element. Ils modelisent des relations souvent presentes dans les langages a objets ou en representation de connaissances. Nous proposons des algorithmes de calcul de cette decomposition, la aussi bases sur le calcul d'une permutation factorisante
APA, Harvard, Vancouver, ISO, and other styles
35

Gay, Dominique. "Calcul de motifs sous contraintes pour la classification supervisée." Phd thesis, Université de Nouvelle Calédonie, 2009. http://tel.archives-ouvertes.fr/tel-00516706.

Full text
Abstract:
Ces dernières années, l'extraction de motifs locaux (itemsets fréquents et règles d'association) a suscité beaucoup d'entrain pour la classification supervisée. Cette thèse traite du calcul et de l'usage de motifs sous contraintes pour la classification supervisée. Nous nous attaquons à deux problèmes difficiles en classification supervisée à base de motifs et proposons deux contributions méthodologiques : D'un côté, lorsque les attributs sont bruités, les performances des classifieurs peuvent être désastreuses. Les méthodes existantes consistent à corriger les valeurs d'attributs ou supprimer les objets bruités -- ce qui génère une perte d'information. Dans ce mémoire, nous proposons une méthode générique de construction de descripteurs robustes au bruit d'attributs -- sans modifier les valeurs d'attributs ni supprimer les objets bruités. Notre approche se déroule en deux étapes : premièrement nous extrayons l'ensemble des règles delta-fortes de caractérisation. Ces règles offrent des propriétés de corps minimal, de non-redondance et sont basées sur les itemsets delta-libres et leur delta-fermeture -- qui ont déjà fait leur preuve pour la caractérisation de groupements dans des contextes bruités. Deuxièmement, nous construisons un nouveau descripteur numérique robuste pour chaque règle extraite. Les expérimentations menées dans des données bruitées, montrent que des classifieurs classiques sont plus performants en terme de précision sur les données munies des nouveaux descripteurs que sur les données avec les attributs originaux. D'autre part, lorsque la distribution des classes est inégale, les approches existantes de classification à base de motifs ont tendance à être biaisées vers la classe majoritaire. La précision sur la (ou les) classe(s) majoritaire(s) est alors élevée au détriment de la précision sur la (ou les) classe(s) minoritaire(s). Nous montrons que ce problème est dû au fait que les approches existantes ne tiennent pas compte de la répartition des classes et/ou de la fréquence relative des motifs dans chacune des classes de la base. Pour pallier ce problème, nous proposons un nouveau cadre de travail dans lequel nous extrayons un nouveau type de motifs : les règles de caractérisation One-Versus-Each (OVE-règles). Ce nouveau cadre de travail nécessite le paramétrage d'un nombre conséquent de seuils de fréquence et d'infréquence. Pour ce faire, nous proposons un algorithme d'optimisation de paramètres, fitcare ainsi qu'un algorithme d'extraction d'OVE-règles. Les expérimentations menées sur des données UCI multi-classes disproportionnées et sur des données de diagnostic de méningite aigüe, montrent que notre approche fitcare est plus performante que les approches existantes en terme de précision sur les classes mineures. L'application de notre méthode de classification associative à l'analyse de données d'érosion des sols en Nouvelle-Calédonie a mis en évidence l'intérêt de notre proposition pour caractériser les phénomènes d'érosion.
APA, Harvard, Vancouver, ISO, and other styles
36

Ruiz, Dominguez Cinta. "Analyse automatique des troubles de contraction cardiaque en échocardiographie." Paris 11, 2005. http://www.theses.fr/2005PA112074.

Full text
Abstract:
L'etude automatisee de la contraction segmentaire du ventricule gauche (normokinesie, hypokinesie, akinesie et dyskinesie) connait de nombreux developpements, notamment en echocardiographie. Une nouvelle methode d'imagerie parametrique, basee sur l'etude des variations temporelles d'intensite des pixels, appelee analyse parametrique du mouvement dominant (apmd), est proposee. Cette methode synthetise l'information contenue dans une " boucle " d'images en deux images parametriques interpretables par un medecin : une image trichrome d'amplitude et une image des temps moyens de contraction. Une base de donnees comportant 602 segments a ete cotee par l'interpretation des images estimees par l'apmd, et confrontee a l'analyse visuelle des boucles cine, issue d'un consensus de deux lecteurs experts, constituant le score de reference. Les taux de concordance absolue et de concordance relative sont de 64% et de 93%. Des indices segmentaires ont ete estimes a partir des images issues de l'apmd. Une classification automatique des segments en 2 classes (segments normaux et segments pathologiques) a partir de ces indices a ete realisee. Les performances diagnostiques des differents indices ont ete evaluees en utilisant une methodologie des courbes roc. Puis, une classification des segments en 4 classes a ete effectuee pour l'indice le plus performant. Les taux de concordance absolue et relative, obtenus par la classification en 4 classes sur une base de test, sont de 56% et de 90%. La prise en compte de la localisation et de l'echogenicite des segments pour l'estimation de l'indice doit permettre d'ameliorer ces resultats
Many methods are developed to study the automatic evaluation of the left ventricle regional wall motion (normokinesia, hypokinesia, akinesia and dyskinesia), especially in echocardiography. A new parametric imaging method, based on the temporal intensity of pixels and called ‘parametric analysis of the main motion' (pamm) was proposed. This method synthesises the information contained in a sequence of images into two parametric images interpretable by a clinician: a three-color image of amplitude and a mean time contraction image. 602 segments of a database were scored with the interpretation of the pamm images and compared to a consensual visual interpretation of the cine-loop sequences by two experimented readers. Absolute and relative concordances are 64% and 82%. Some segmental indices were estimated from the pamm images. An automatic classification of the segments into two classes (normal and pathological segments) using this indices was performed. The diagnostic performance of the different indices was evaluated using the roc curve theory. Then a four-classes classification was done using the optimal index. Absolute and relative concordances obtained by the four-classes classification on a test database are 56% and 90%. The results could be improved if the localisation and the echogenicity of the segments are taken into account for the indices estimation
APA, Harvard, Vancouver, ISO, and other styles
37

El, Maftouhi Abdelhakim. "Méthodes probabilistes en combinatoire et théorie des graphes." Paris 11, 1994. http://www.theses.fr/1994PA112408.

Full text
Abstract:
Cette thèse rassemble plusieurs travaux dont le point commun est l'utilisation de méthodes probabilistes. La première partie concerne l'étude des paramètres de domination et d'irredondance dans les graphes aléatoires de probabilité d'arête 1/2. Nos résultats apportent un point final à l'étude du trio: irredondance, domination et stabilité dans ces graphes. Dans la deuxième partie on délaisse momentanément les probabilités pour aborder les graphes signés. On s'intéresse plus particulièrement au problème de l'équilibre dans ces graphes. On introduit la notion de sous-graphes équilibrants dont on donne quelques caractérisations qui permettent d'obtenir de nouveaux résultats. Nous introduisons dans la troisième partie la notion de graphes signés aléatoires et nous étudions les principales propriétés statistiques de ces graphes. La quatrième partie est consacrée à l'énumération d'une classe d'ordres partiels. Nous donnons une procédure pour calculer le nombre d'ordres partiels gradués de largeur et de rang donnes. Pour une largeur fixée la procédure utilise un temps de calcul qui est une fonction linéaire du rang. Finalement, dans la dernière partie, on étudie le problème de la satisfiabilité d'un ensemble de 3-clauses aléatoires
APA, Harvard, Vancouver, ISO, and other styles
38

Rafi, Selwa. "Chaînes de Markov cachées et séparation non supervisée de sources." Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0020/document.

Full text
Abstract:
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle
The restoration problem is usually encountered in various domains and in particular in signal and image processing. It consists in retrieving original data from a set of observed ones. For multidimensional data, the problem can be solved using different approaches depending on the data structure, the transformation system and the noise. In this work, we have first tackled the problem in the case of discrete data and noisy model. In this context, the problem is similar to a segmentation problem. We have exploited Pairwise and Triplet Markov chain models, which generalize Hidden Markov chain models. The interest of these models consist in the possibility to generalize the computation procedure of the posterior probability, allowing one to perform bayesian segmentation. We have considered these methods for two-dimensional signals and we have applied the algorithms to retrieve of old hand-written document which have been scanned and are subject to show through effect. In the second part of this work, we have considered the restoration problem as a blind source separation problem. The well-known "Independent Component Analysis" (ICA) method requires the assumption that the sources be statistically independent. In practice, this condition is not always verified. Consequently, we have studied an extension of the ICA model in the case where the sources are not necessarily independent. We have introduced a latent process which controls the dependence and/or independence of the sources. The model that we propose combines a linear instantaneous mixing model similar to the one of ICA model and a probabilistic model on the sources with hidden variables. In this context, we show how the usual independence assumption can be weakened using the technique of Iterative Conditional Estimation to a conditional independence assumption
APA, Harvard, Vancouver, ISO, and other styles
39

Lecomte, Sébastien. "Classification partiellement supervisée par SVM : application à la détection d’événements en surveillance audio." Thesis, Troyes, 2013. http://www.theses.fr/2013TROY0031/document.

Full text
Abstract:
Cette thèse s’intéresse aux méthodes de classification par Machines à Vecteurs de Support (SVM) partiellement supervisées permettant la détection de nouveauté (One-Class SVM). Celles-ci ont été étudiées dans le but de réaliser la détection d’événements audio anormaux pour la surveillance d’infrastructures publiques, en particulier dans les transports. Dans ce contexte, l’hypothèse « ambiance normale » est relativement bien connue (même si les signaux correspondants peuvent être très non stationnaires). En revanche, tout signal « anormal » doit pouvoir être détecté et, si possible, regroupé avec les signaux de même nature. Ainsi, un système de référence s’appuyant sur une modélisation unique de l’ambiance normale est présenté, puis nous proposons d’utiliser plusieurs SVM de type One Class mis en concurrence. La masse de données à traiter a impliqué l’étude de solveurs adaptés à ces problèmes. Les algorithmes devant fonctionner en temps réel, nous avons également investi le terrain de l’algorithmie pour proposer des solveurs capables de démarrer à chaud. Par l’étude de ces solveurs, nous proposons une formulation unifiée des problèmes à une et deux classes, avec et sans biais. Les approches proposées ont été validées sur un ensemble de signaux réels. Par ailleurs, un démonstrateur intégrant la détection d’événements anormaux pour la surveillance de station de métro en temps réel a également été présenté dans le cadre du projet Européen VANAHEIM
This thesis addresses partially supervised Support Vector Machines for novelty detection (One-Class SVM). These have been studied to design abnormal audio events detection for supervision of public infrastructures, in particular public transportation systems. In this context, the null hypothesis (“normal” audio signals) is relatively well known (even though corresponding signals can be notably non stationary). Conversely, every “abnormal” signal should be detected and, if possible, clustered with similar signals. Thus, a reference system based on a single model of normal signals is presented, then we propose to use several concurrent One-Class SVM to cluster new data. Regarding the amount of data to process, special solvers have been studied. The proposed algorithms must be real time. This is the reason why we have also investigated algorithms with warm start capabilities. By the study of these algorithms, we have proposed a unified framework for One Class and Binary SVMs, with and without bias. The proposed approach has been validated on a database of real signals. The whole process applied to the monitoring of a subway station has been presented during the final review of the European Project VANAHEIM
APA, Harvard, Vancouver, ISO, and other styles
40

Hidane, Moncef. "Décompositions multi-échelles de données définies sur des graphes." Caen, 2013. http://www.theses.fr/2013CAEN2088.

Full text
Abstract:
Cette thèse traite d'approches permettant la construction de décompositions multi-échelles de signaux définis sur des graphes pondérés généraux. Ce manuscrit traite de trois approches que nous avons développées. La première approche est basée sur un procédé variationnel itératif et hiérarchique et généralise la décomposition structure-texture, proposée initialement pour les images. Deux versions sont proposées : l'une basée sur un apriori quadratique et l'autre sur un apriori de type variation totale. L'étude de la convergence est effectuée et le choix des paramètres discuté dans chaque cas. Nous détaillons l'application des décompositions que nous obtenons au rehaussement de détails dans les images et les modèles 3D. La deuxième approche fournit une analyse multirésolution de l'espace des signaux sur un graphe donné. Cette construction repose sur l'organisation du graphe sous la forme d'une hiérarchie de partitions. Nous avons développé un algorithme permettant la construction adaptative de telles hiérarchies. Enfin, dans la troisième approche, nous adaptons le schéma de lifting à des signaux sur graphes. Cette adaptation pose divers problèmes pratiques. Nous nous sommes intéressés d'une part à l'étape de sous-échantillonnage, pour laquelle nous avons adopté une approche gloutonne, et d'autre part à l'itération de la transformée sur des sous-graphes induits
This thesis is concerned with approaches to the construction of multiscale decompositions of signals defined on general weighted graphs. This manuscript discusses three approaches that we have developed. The first approach is based on a variational and iterative process. It generalizes the structure-texture decomposition, originally proposed for images. Two versions are proposed: one is based on a quadratic prior while the other is based on a total variation prior. The study of the convergence is performed and the choice of parameters discussed in each case. We describe the application of the decompositions we get to the enhancement of details in images and 3D models. The second approach provides a multiresolution analysis of the space of signals on a given graph. This construction is based on the organization of the graph as a hierarchy of partitions. We have developed an adaptive algorithm for the construction of such hierarchies. Finally, in the third approach, we adapt the lifting scheme to signals on graphs. This adaptation raises a number of practical problems. We focused on the one hand on the subsampling step for which we adopted a greedy approach, and on the other hand on the iteration of the transform on induced subgraphs
APA, Harvard, Vancouver, ISO, and other styles
41

Delanoue, Nicolas. "Algorithmes numériques pour l'analyse topologique : Analyse par intervalles et théorie des graphes." Phd thesis, Université d'Angers, 2006. http://tel.archives-ouvertes.fr/tel-00340999.

Full text
Abstract:
Le travail présenté dans cette thèse concerne d'une part, l'étude qualitative d'ensembles et d'autre part, celui de l'étude de la stabilité d'un système dynamique. Les méthodes numériques proposées combinent le calcul par intervalles et la théorie des graphes.

De nombreux problèmes, comme l'étude de l'espace des configurations d'un robot, se ramènent à une étude qualitative d'ensembles. Ici, la ``taille'' de l'ensemble importe peu, ce qui compte, c'est sa ``topologie''. Les méthodes proposées calculent des invariants topologiques d'ensembles. Les ensembles considérés sont décrits à l'aide d'inégalités $\mathcal{C}^{\infty}$. L'idée maîtresse est de décomposer un ensemble donné en parties contractiles et d'utiliser l'homologie de \v Cech.

La seconde partie de la thèse concerne l'étude de point
asymptotiquement stables des systèmes dynamiques (linéaires ou non). Plus largement, on propose une méthode pour approcher le bassin d'attraction d'un point asymptotiquement stable. Dans un premier temps, on utilise la théorie de Lyapunov et le calcul par intervalle
pour trouver effectivement un voisinage inclus dans le bassin d'attraction d'un point prouvé asymptotiquement stable. Puis, on combine, une fois de plus, la théorie des graphes et les méthodes d'intégration d'équations différentielles ordinaires pour améliorer ce voisinage et ainsi construire un ensemble inclus dans le bassin
d'attraction de ce point.
APA, Harvard, Vancouver, ISO, and other styles
42

VENET, ARNAUD. "Analyse statique des systemes dynamiques de graphes dans les langages non types." Palaiseau, Ecole polytechnique, 1998. http://www.theses.fr/1998EPXX0073.

Full text
Abstract:
Dans cette these nous decrivons des techniques d'interpretation abstraite de programmes manipulant des structures dynamiques de graphes. Nous concentrons notre etude autour de deux problemes importants en analyse statique : la determination automatique des alias de pointeurs dans les langages non types et l'analyse de la topologie des communications dans les systemes de processus mobiles decrits dans le pi-calcul. Ces deux analyses sont originales et permettent d'identifier les elements de structures definies de maniere recursive.
APA, Harvard, Vancouver, ISO, and other styles
43

Tanana, Mariam. "Evaluation formative du savoir-faire des apprenants à l'aide d'algorithmes de classification : application à l'électronique numérique." Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00442930.

Full text
Abstract:
Lorsqu'un enseignant veut évaluer le savoir-faire des apprenants à l'aide d'un logiciel, il utilise souvent les systèmes Tutoriels Intelligents (STI). Or, les STI sont difficiles à développer et destinés à un domaine pédagogique très ciblé. Depuis plusieurs années, l'utilisation d'algorithmes de classification par apprentissage supervisé a été proposée pour évaluer le savoir des apprenants. Notre hypothèse est que ces mêmes algorithmes vont aussi nous permettre d'évaluer leur savoir-faire. Notre domaine d'application étant l'électronique numérique, nous proposons une mesure de similarité entre schémas électroniques et une bas d'apprentissage générée automatiquement. cette base d'apprentissage est composées de schémas électroniques pédagogiquement étiquetés "bons" ou "mauvais" avec des informations concernant le degré de simplification des erreurs commises. Finalement, l'utilisation d'un algorithme de classification simple (les k plus proches voisins) nous a permis de faire une évaluation des schémas électroniques dans la majorité des cas.
APA, Harvard, Vancouver, ISO, and other styles
44

Kalakech, Mariam. "Sélection semi-supervisée d'attributs : application à la classification de textures couleur." Thesis, Lille 1, 2011. http://www.theses.fr/2011LIL10018/document.

Full text
Abstract:
Dans le cadre de cette thèse, nous nous intéressons à la sélection des attributs en s'appuyant sur la théorie des graphes dans les différents contextes d'apprentissage non supervisé, semi-supervisé et supervisé. En particulier, nous nous intéressons aux scores de classement d'attributs basés sur des contraintes must-link et cannot-link. En effet, ces contraintes sont faciles à obtenir dans le cadre des applications réelles. Elles nécessitent juste de formuler pour deux données si elles se ressemblent et donc doivent être regroupées ensemble ou non, sans requérir d'informations détaillées sur les classes à retrouver. Les scores de contraintes ont montré de bonnes performances pour la sélection semi-supervisée des attributs. Cependant, ils sont fortement dépendants du sous-ensemble de contraintes disponibles. Nous proposons alors un score qui utilise à la fois l'ensemble des contraintes disponibles et les propriétés locales des données non contraintes. Des expériences réalisées sur des bases de données artificielles et réelles montrent que ce nouveau score est moins dépendant de l'ensemble de contraintes disponibles que les scores existants tout en atteignant des performances de classification similaires. La sélection semi-supervisée d'attributs a également été appliquée avec succès à la classification de textures couleur. En effet, parmi les nombreux attributs de texture pouvant être extraits des images couleur, il est nécessaire de sélectionner les plus pertinents afin d'améliorer la qualité de classification
Within the framework of this thesis, we are interested in feature selection methods based on graph theory in different unsupervised, semi-supervised and supervised learning contexts. We are particularly interested in the feature ranking scores based on must-link et cannot-link constraints. Indeed, these constraints are easy to be obtained on real applications. They just require to formalize for two data samples if they are similar and then must be grouped together or not, without detailed information on the classes to be found. Constraint scores have shown good performances for semi-supervised feature selection. However, these scores strongly depend on the given must-link and cannot-link subsets built by the user. We propose then a new semi-supervised constraint scores that uses both pairwise constraints and local properties of the unconstrained data. Experiments on artificial and real databases show that this new score is less sensitive to the given constraints than the previous scores while providing similar performances. Semi supervised feature selection was also successfully applied to the color texture classification. Indeed, among many texture features which can be extracted from the color images, it is necessary to select the most relevant ones to improve the quality of classification
APA, Harvard, Vancouver, ISO, and other styles
45

RAFI, Selwa. "Chaînes de Markov cachées et séparation non supervisée de sources." Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00995414.

Full text
Abstract:
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle
APA, Harvard, Vancouver, ISO, and other styles
46

Grebinski, Vladimir. "Recherche combinatoire : problèmes de pesage, reconstruction de graphes et applications." Nancy 1, 1998. http://www.theses.fr/1998NAN10248.

Full text
Abstract:
La recherche combinatoire est une branche de l'algorithmique combinatoire qui est étroitement liée avec d'autres domaines des mathématiques et de l'informatique, tels que l'étude de la complexité d'algorithmes, la théorie des graphes, la théorie des nombres, la théorie des ensembles extrémaux. En termes très généraux, la recherche combinatoire étudié les problèmes d'identification d'un objet inconnu dans un ensemble d'objets à l'aide de questions indirectes sur cet objet. Les méthodes de la recherche combinatoire trouvent de nombreuses applications pratiques dans les domaines de la biologie, la médecine, la conception de réseaux, et d'autres. Le thème central de la thèse est le modèle additif en recherche combinatoire. Nous étudions la puissance de ce modèle en l'appliquant à quelques problèmes classiques de recherche combinatoire. Trois familles de problèmes sont considérées : les problèmes de pesage de monnaies, le problème de reconstruction de graphes d'une classe donnée et le problème de reconstruction de partitions. Pour les problèmes de reconstruction de graphes et de pesage, nous examinons les résultats connus et démontrons de nouveaux résultats plus généraux. Un des résultats les plus importants est l'obtention d'une borne supérieure pour le problème de reconstruction de vecteurs à poids borné. Nous introduisons également le problème de reconstruction de partitions, pour lequel nous développons des algorithmes efficaces dont nous analysons la complexité
APA, Harvard, Vancouver, ISO, and other styles
47

Seifi, Massoud. "Coeurs stables de communautés dans les graphes de terrain." Paris 6, 2012. http://www.theses.fr/2012PA066058.

Full text
Abstract:
Dans de nombreux contextes, des ensembles d'entités en relation peuvent être modélisés par des graphes, dans lesquels les entités individuelles sont représentées par des sommets et les relations entre ces entités par des liens. Ces graphes, que nous appellerons "graphes de terrain", peuvent être rencontrés dans le monde réel dans différents domaines tels que les sciences sociales, l'informatique, la biologie, le transport, la linguistique, etc. La plupart des graphes de terrain sont composés de sous-graphes denses faiblement inter-connectés appelés "communautés" et de nombreux algorithmes ont été proposés afin d'identifier cette structure communautaire automatiquement. Nous nous sommes intéressés dans cette thèse aux problèmes des algorithmes de détéction de communautés, notamment leur non-déterminisme et l'instabilité qui en découle. Nous avons présenté une méthodologie qui tire parti de ce non- déterminisme afin d'améliorer les résultats obtenus avec les techniques actuelles de détection de communautés. Nous avons proposé une approche basée sur le concept de communautés fortes ou "coeurs de communautés" et nous avons montré l'amélioration apportée par notre approche en l'appliquant à des graphes réels et artificiels. Nous avons aussi étudié la structure des coeurs des graphes aléatoires et nous avons montré qu'à la différence des algorithmes classiques de détection de communautés qui peuvent trouver des partitions en communautés dans des graphes n'ayant pourtant aucune structure communautaire intrinsèque, notre approche indique clairement l'absence de structure communautaire dans les graphes aléatoires et permet en ce sens de distinguer les graphes aléatoires des graphes réels. Nous avons étudié également l'évolution des coeurs dans des réseaux dynamiques via une dynamique simulée simple et contrôlable ainsi qu'une dynamique réelle. Nous avons montré que les coeurs sont beaucoup plus stables que les communautés obtenues par les techniques actuelles de détection de communautés et que notre approche peut donc pallier les défauts des méthodes stabilisées qui ont été proposées récemment
In many contexts, sets of related entities can be modeled by graphs, in which entities are represented by nodes and relationships between these entities by edges. These graphs, which we call "complex networks", may be encountered in the real world in various fields such as social science, computer science, biology, transportation, linguistics, etc. Most complex networks are composed of dense subgraphs weakly interconnected called "communities" and many algorithms have been proposed to identify the community structure of complex networks automatically. During this thesis, we focused on the problems of community detection algorithms, especially their non-determinism and the instability that results. We presented a methodology that takes advantage of this non-determinism to improve the results obtained with current community detection techniques. We proposed an approach based on the concept of strong communities, or "community cores", and we showed the improvement made by our approach by applying it to real and artificial graphs. We also studied the structure of cores in random graphs and we showed that unlike classical community detection algorithms which can find communities in graphs with no intrinsic community structure, our approach clearly indicates the absence of community structure in random graphs and, in this way, allows to distinguish between random and real graphs. We also studied the evolution of cores in dynamical networks using a simple and controllable simulated dynamic and a real dynamic. We showed that cores are much more stable than communities obtained by current community detection techniques and our approach can overcome the disadvantages of stabilized methods that have been recently proposed
APA, Harvard, Vancouver, ISO, and other styles
48

Golenia, Sylvain. "Méthodes algébriques dans l'analyse spectrale d'opérateurs sur les graphes et les variétés." Cergy-Pontoise, 2004. http://biblioweb.u-cergy.fr/theses/04CERG0218.PDF.

Full text
Abstract:
Dans cette thèse, nous établissons de nouveaux résultats concernant les propriétés spectrales d'opérateurs agissant sur les arbres et divers critères concernant la stabilité du spectre essentiel d'opérateurs non-bornés. Elle se compose de trois articles. Les deux premiers traitent de la théorie spectrale et de la diffusion des opérateurs de Schrödinger sur un arbre et de sa généralisation naturelle aux espaces de Fock. Les problèmes abordés sont : la validité de l'estimation de Mourre et la caractérisation du spectre essentiel d'opérateurs anisotropes par des méthodes C-étoile-algébriques. Dans le troisième article, nous donnons des critères de stabilité du spectre essentiel pour des opérateurs agissant sur des modules de Banach. Les applications couvrent les opérateurs de Dirac, les perturbations de métriques riemanniennes et les opérateurs sous forme divergence
In this thesis, we use C-star-algebraical techniques aiming for applications in spectral theory. In the first two articles, in the context of trees, we adapt the C-star-algebra methods to the study of the spectral and scattering theories of Hamiltonians of the system. We first consider a natural formulation and generalization of the problem in a Fock space context. We then get a Mourre estimate for the free Hamiltonian and its perturbations. Finally, we compute the quotient of a C-star-algebra of energy observables with respect to its ideal of compact operators. As an application, the essential spectrum of highly anisotropic Schr\"odinger operators is computed. In the third article, we give powerful critera of stability of the essential spectrum of unbounded operators. Our applications cover Dirac operators, perturbations of riemannian metrics, differential operators in divergence form. The main point of our approach is that no regularity conditions are imposed on the coefficients
APA, Harvard, Vancouver, ISO, and other styles
49

Golenia, Sylvain Georgescu Vladimir. "Méthodes algébriques dans l'analyse spectrale d'opérateurs sur les graphes et les variétés." [s.l.] : [s.n.], 2007. http://biblioweb.u-cergy.fr/theses/04CERG0218.PDF.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Barakat-Barbieri, Bruno. "Vers une construction automatique de graphes de concepts." Châtenay-Malabry, Ecole centrale de Paris, 1992. http://www.theses.fr/1992ECAP0416.

Full text
Abstract:
Ce travail propose une méthode de construction automatique de graphes de concepts à partir d'une base de données en texte intégral. La terminologie significative est extraite et normalisée à l'aide d'un traitement linguistique automatique. Le graphe de concepts ainsi construit est un arbre dont les nœuds sont les termes retenus. Les relations sont de nature générique-spécifique. Dans un premier temps, après une étude de la détermination de l'unité sémantique optimale, on introduit la notion de champ sémantique fondée sur la notion de concurrence de termes au sein de cette unité. Puis, après avoir mis en évidence les inconvénients de cette première approche, une nouvelle notion est présentée: les ensembles sémantiques. Ceux-ci sont moins dépendants de la répartition par thèmes des documents. L'étude du recouvrement de ces ensembles sémantiques nous permet de mettre en évidence les liens unissant les concepts entre eux. Une solution pour l'identification des polysèmes est également proposée. Enfin, l'auteur présente une discussion sur la qualité des résultats et les limites de cette approche
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography