To see the other types of publications on this topic, follow the link: Apprentissage de représentations sur graphes.

Dissertations / Theses on the topic 'Apprentissage de représentations sur graphes'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 48 dissertations / theses for your research on the topic 'Apprentissage de représentations sur graphes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mazari, Ahmed. "Apprentissage profond pour la reconnaissance d’actions en vidéos." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS171.

Full text
Abstract:
De nos jours, les contenus vidéos sont omniprésents grâce à Internet et les smartphones, ainsi que les médias sociaux. De nombreuses applications de la vie quotidienne, telles que la vidéo surveillance et la description de contenus vidéos, ainsi que la compréhension de scènes visuelles, nécessitent des technologies sophistiquées pour traiter les données vidéos. Il devient nécessaire de développer des moyens automatiques pour analyser et interpréter la grande quantité de données vidéo disponibles. Dans cette thèse, nous nous intéressons à la reconnaissance d'actions dans les vidéos, c.a.d au problème de l'attribution de catégories d'actions aux séquences vidéos. Cela peut être considéré comme un ingrédient clé pour construire la prochaine génération de systèmes visuels. Nous l'abordons avec des méthodes d'intelligence artificielle, sous le paradigme de l'apprentissage automatique et de l'apprentissage profond, notamment les réseaux de neurones convolutifs. Les réseaux de neurones convolutifs actuels sont de plus en plus profonds, plus gourmands en données et leur succès est donc tributaire de l'abondance de données d'entraînement étiquetées. Les réseaux de neurones convolutifs s'appuient également sur le pooling qui réduit la dimensionnalité des couches de sortie (et donc atténue leur sensibilité à la disponibilité de données étiquetées)
Nowadays, video contents are ubiquitous through the popular use of internet and smartphones, as well as social media. Many daily life applications such as video surveillance and video captioning, as well as scene understanding require sophisticated technologies to process video data. It becomes of crucial importance to develop automatic means to analyze and to interpret the large amount of available video data. In this thesis, we are interested in video action recognition, i.e. the problem of assigning action categories to sequences of videos. This can be seen as a key ingredient to build the next generation of vision systems. It is tackled with AI frameworks, mainly with ML and Deep ConvNets. Current ConvNets are increasingly deeper, data-hungrier and this makes their success tributary of the abundance of labeled training data. ConvNets also rely on (max or average) pooling which reduces dimensionality of output layers (and hence attenuates their sensitivity to the availability of labeled data); however, this process may dilute the information of upstream convolutional layers and thereby affect the discrimination power of the trained video representations, especially when the learned action categories are fine-grained
APA, Harvard, Vancouver, ISO, and other styles
2

Cuissart, Bertrand. "Plus grande structure commune à deux graphes : méthode de calcul et intérêt dans un contexte SAR." Caen, 2004. http://www.theses.fr/2004CAEN2043.

Full text
Abstract:
Notre travail est une contribution à la résolution de problèmes de classification supervisée dans le domaine de l'informatique chimique, les problèmes SAR. Ces problèmes, destinés à construire des modèles reliant les structures chimiques avec une activité physico-chimique ou biologique, portent sur des objets, les molécules, modélisés par des graphes. Dans ce cadre, nous étudions le plus grand sous-graphe commun à deux graphes comme moyen de description des molécules. Nous commençons par présenter un algorithme permettant de déterminer un plus grand sous-graphe commun à deux graphes, les sous-graphes considérés étant les sous-graphes induits et connexes. Cet algorithme est performant et souple : il s'adapte directement à d'autres notions de plus grand sous-graphe commun. Nous évaluons ensuite l'intérêt du plus grand sous-graphe commun pour un problème SAR particulier : la prédiction de la biodégradabilité facile. Dans ce contexte, nous montrons que les similarités établies uniquement en quantifiant l'importance du plus grand sous-graphe commun regroupent effectivement des molécules d'activité similaire. De plus, en fonctionnant directement à partir des objets étudiés, le plus grand sous-graphe commun permet une première exploration des données d'un nouveau problème SAR. Ces travaux expérimentaux permettent de conclure sur l'intérêt effectif du plus grand sous-graphe commun dans la construction des modèles SAR.
APA, Harvard, Vancouver, ISO, and other styles
3

Celikkanat, Abdulkadir. "Graph Representation Learning with Random Walk Diffusions." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG030.

Full text
Abstract:
L'objectif principal de l'Apprentissage de Représentations sur Graphes est de plonger les nœuds dans un espace vectoriel de petite dimension. Dans cette thèse, nous abordons plusieurs enjeux dans le domaine. Tout d'abord, nous étudions comment exploiter l'existence de communautés structurelles locales inhérentes aux graphes tout en apprenant les représentations. Nous apprenons des représentations améliorées de la communauté en combinant les informations latentes avec les représentations. De plus, nous nous concentrons sur l'expressivité des représentations. Nous mettons l'accent sur les distributions de familles exponentielles pour saisir des modèles d'interaction riches. Nous proposons un modèle qui combine les marches aléatoires avec une matrice de factorisation sous forme de noyau. Dans la dernière partie de la thèse, nous étudions des modèles permettant un bon compromis entre efficacité et précision. Nous proposons un modèle évolutif qui calcule des représentations binaires
Graph Representation Learning aims to embed nodes in a low-dimensional space. In this thesis, we tackle various challenging problems arising in the field. Firstly, we study how to leverage the inherent local community structure of graphs while learning node representations. We learn enhanced community-aware representations by combining the latent information with the embeddings. Moreover, we concentrate on the expressive- ness of node representations. We emphasize exponential family distributions to capture rich interaction patterns. We propose a model that combines random walks with kernelized matrix factorization. In the last part of the thesis, we study models balancing the trade-off between efficiency and accuracy. We propose a scalable embedding model which computes binary node representations
APA, Harvard, Vancouver, ISO, and other styles
4

Vialatte, Jean-Charles. "Convolution et apprentissage profond sur graphes." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0118/document.

Full text
Abstract:
Pour l’apprentissage automatisé de données régulières comme des images ou des signaux sonores, les réseaux convolutifs profonds s’imposent comme le modèle de deep learning le plus performant. En revanche, lorsque les jeux de données sont irréguliers (par example : réseaux de capteurs, de citations, IRMs), ces réseaux ne peuvent pas être utilisés. Dans cette thèse, nous développons une théorie algébrique permettant de définir des convolutions sur des domaines irréguliers, à l’aide d’actions de groupe (ou, plus généralement, de groupoïde) agissant sur les sommets d’un graphe, et possédant des propriétés liées aux arrêtes. A l’aide de ces convolutions, nous proposons des extensions des réseaux convolutifs à des structures de graphes. Nos recherches nous conduisent à proposer une formulation générique de la propagation entre deux couches de neurones que nous appelons la contraction neurale. De cette formule, nous dérivons plusieurs nouveaux modèles de réseaux de neurones, applicables sur des domaines irréguliers, et qui font preuve de résultats au même niveau que l’état de l’art voire meilleurs pour certains
Convolutional neural networks have proven to be the deep learning model that performs best on regularly structured datasets like images or sounds. However, they cannot be applied on datasets with an irregular structure (e.g. sensor networks, citation networks, MRIs). In this thesis, we develop an algebraic theory of convolutions on irregular domains. We construct a family of convolutions that are based on group actions (or, more generally, groupoid actions) that acts on the vertex domain and that have properties that depend on the edges. With the help of these convolutions, we propose extensions of convolutional neural netowrks to graph domains. Our researches lead us to propose a generic formulation of the propagation between layers, that we call the neural contraction. From this formulation, we derive many novel neural network models that can be applied on irregular domains. Through benchmarks and experiments, we show that they attain state-of-the-art performances, and beat them in some cases
APA, Harvard, Vancouver, ISO, and other styles
5

Amate, Laure. "Apprentissage de modèles de formes parcimonieux basés sur des représentations splines." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00456612.

Full text
Abstract:
Il est souvent important de trouver une représentation compacte des propriétés morphologiques d'un ensemble d'objets. C'est le cas lors du déplacement de robots autonomes dans des environnements naturels, qui doivent utiliser les objets dispersés dans la région de travail pour naviguer. Cette thèse est une contribution à la définition de formalismes et méthodes pour l'identification de tels modèles. Les formes que nous voulons caractériser sont des courbes fermées correspondant aux contours des objets détectés dans l'environnement, et notre caractérisation des leurs propriétés sera probabiliste. Nous formalisons la notion de forme en tant que classes d'équivalence par rapport à des groupes d'opérateurs géométriques basiques, introduisant deux approches : discrète et continue. La théorie discrète repose sur l'existence d'un ensemble de points remarquables et est sensible à leur sélection. L'approche continue, qui représente une forme par des objets de dimension infinie, correspond mieux à la notion intuitive de forme mais n'est pas parcimonieuse. Nous combinons les avantages des deux approches en représentant les formes à l'aide de splines : fonctions continues, flexibles, définies par un ensemble de noeuds et de points de contrôle. Nous étudions d'abord l'ajustement d'un modèle spline à une courbe, comme la recherche d'un compromis entre la parcimonie de la représentation et sa fidélité aux données, approche classique dans le cadre de familles imbriquées de dimension croissante. Nous passons en revue les méthodes utilisées dans la littérature, et nous retenons une approche en deux étapes, qui satisfait nos pré-requis : détermination de la complexité du modèle (par une chaîne de Markov à sauts réversibles), suivie de l'estimation des paramètres (par un algorithme de recuit simulé). Nous discutons finalement le lien entre l'espace de formes discrètes et les représentations splines lorsque l'on prend comme points remarquables les points de contrôle. Nous étudions ensuite le problème de modélisation d'un ensemble de courbes, comme l'identification de la distribution des paramètres de leur représentation par des splines où les points de contrôles et les noeuds sont des variables latentes du modèle. Nous estimons ces paramètres par un critère de vraisemblance marginale. Afin de pouvoir traiter séquentiellement un grand nombre de données nous adaptons une variante de l'algorithme EM proposée récemment. Le besoin de recourir à des approximations numériques (méthodes de Monte-Carlo) pour certains calculs requis par la méthode EM, nous conduit à une nouvelle variante de cet algorithme, proposée ici pour la première fois.
APA, Harvard, Vancouver, ISO, and other styles
6

Amate, Laure. "Apprentissage de modèles de formes parcimonieux basés sur les représentations splines." Nice, 2009. http://www.theses.fr/2009NICE4117.

Full text
Abstract:
Il est souvent important de trouver une représentation compacte des propriétés morphologiques d'un ensemble d'objets. C'est le cas lors du déplacement de robots autonomes dans des environnements naturels, qui doivent utiliser les objets dispersés dans la région de travail pour naviguer. Cette thèse est une contribution à la définition de formalismes et méthodes pour l'identification de tels modèles. Les formes que nous voulons caractériser sont des courbes fermées correspondant aux contours des objets détectés dans l'environnement, et notre caractérisation des leurs propriétés sera probabiliste. Nous formalisons la notion de forme en tant que classes d'équivalence par rapport à des groupes d'opérateurs géométriques basiques, introduisant deux approches : discrète et continue. La théorie discrète repose sur l'existence d'un ensemble de points remarquables et est sensible à leur sélection. L'approche continue, qui représente une forme par des objets de dimension infinie, correspond mieux à la notion intuitive de forme mais n'est pas parcimonieuse. Nous combinons les avantages des deux approches en représentant les formes à l'aide de splines : fonctions continues, flexibles, définies par un ensemble de noeuds et de points de contrôle. Nous étudions d'abord l'ajustement d'un modèle spline à une courbe, comme la recherche d'un compromis entre la parcimonie de la représentation et sa _délité aux données, approche classique dans le cadre de familles imbriquées de dimension croissante. Nous passons en revue les méthodes utilisées dans la littérature, et nous retenons une approche en deux étapes, qui satisfait nos pré-requis : détermination de la complexité du modèle (par une chaîne de Markov à sauts réversibles), suivie de l'estimation des paramètres (par un algorithme de recuit simulé). Nous discutons finalement le lien entre l'espace de formes discrètes et les représentations splines lorsque l'on prend comme points remarquables les points de contrôle. Nous étudions ensuite le problème de modélisation d'un ensemble de courbes, comme l'identification de la distribution des paramètres de leur représentation par des splines où les points de contrôles et les noeuds sont des variables latentes du modèle. Nous estimons ces paramètres par un critère de vraisemblance marginale. Afin de pouvoir traiter séquentiellement un grand nombre de données nous adaptons une variante de l'algorithme EM proposée récemment. Le besoin de recourir à des approximations numériques (méthodes de Monte-Carlo) pour certains calculs requis par la méthode EM, nous conduit à une nouvelle variante de cet algorithme, proposée ici pour la première fois
In many contexts it is important to be able to find compact representations of the collective morphological properties of a set of objects. This is the case of autonomous robotic platforms operating in natural environments that must use the perceptual properties of the objects present in their workspace to execute their mission. This thesis is a contribution to the definition of formalisms and methods for automatic identification of such models. The shapes we want to characterize are closed curves corresponding to contours of objects detected in the scene. We begin with the formal definition of the notion of shape as classes of equivalence with respect to groups of basic geometric operators, introducing two distinct approaches that have been used in the literature: discrete and continuous. The discrete theory, admitting the existence of a finite number of recognizable landmarks, provides in an obvious manner a compact representation but is sensible to their selection. The continuous theory of shapes provides a more fundamental approach, but leads to shape spaces of infinite dimension, lacking the parsimony of the discrete representation. We thus combine in our work the advantages of both approaches representing shapes of curves with splines: piece-wise continuous polynomials defined by sets of knots and control points. We first study the problem of fitting free-knots splines of varying complexity to a single observed curve. The trade-o_ between the parsimony of the representation and its fidelity to the observations is a well known characteristic of model identification using nested families of increasing dimension. After presenting an overview of methods previously proposed in the literature, we single out a two-step approach which is formally sound and matches our specific requirements. It splits the identification, simulating a reversible jump Markov chain to select the complexity of the model followed by a simulated annealing algorithm to estimate its parameters. We investigate the link between Kendall's shape space and spline representations when we take the spline control points as landmarks. We consider now the more complex problem of modeling a set of objects with similar morphological characteristics. We equate the problem to finding the statistical distribution of the parameters of the spline representation, modeling the knots and control points as unobserved variables. The identified distribution is the maximizer of a marginal likelihood criterion, and we propose a new Expectation-Maximization algorithm to optimize it. Because we may want to treat a large number of curves observed sequentially, we adapt an iterative (on-line) version of the EM algorithm recently proposed in the literature. For the choice of statistical distributions that we consider, both the expectation and the maximization steps must resort to numerical approximations, leading to a stochastic/on-line variant of the EM algorithm that, as far as we know, is implemented here for the first time
APA, Harvard, Vancouver, ISO, and other styles
7

Caron, Stéphane. "Détection d'anomalies basée sur les représentations latentes d'un autoencodeur variationnel." Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69185.

Full text
Abstract:
Dans ce mémoire, nous proposons une méthodologie qui permet de détecter des anomalies parmi un ensemble de données complexes, plus particulièrement des images. Pour y arriver, nous utilisons un type spécifique de réseau de neurones, soit un autoencodeur variationnel (VAE). Cette approche non-supervisée d'apprentissage profond nous permet d'obtenir une représentation plus simple de nos données sur laquelle nous appliquerons une mesure de distance de Kullback-Leibler nous permettant de discriminer les anomalies des observations "normales". Pour déterminer si une image nous apparaît comme "anormale", notre approche se base sur une proportion d'observations à filtrer, ce qui est plus simple et intuitif à établir qu'un seuil sur la valeur même de la distance. En utilisant notre méthodologie sur des images réelles, nous avons démontré que nous pouvons obtenir des performances de détection d'anomalies supérieures en termes d'aire sous la courbe ROC, de précision et de rappel par rapport à d'autres approches non-supervisées. De plus, nous avons montré que la simplicité de l'approche par niveau de filtration permet d'adapter facilement la méthode à des jeux de données ayant différents niveaux de contamination d'anomalies.
In this master's thesis, we propose a methodology that aims to detect anomalies among complex data, such as images. In order to do that, we use a specific type of neural network called the varitionnal autoencoder (VAE). This non-supervised deep learning approach allows us to obtain a simple representation of our data on which we then use the Kullback-Leibler distance to discriminate between anomalies and "normal" observations. To determine if an image should be considered "abnormal", our approach is based on a proportion of observations to be filtered, which is easier and more intuitive to establish than applying a threshold based on the value of a distance metric. By using our methodology on real complex images, we can obtain superior anomaly detection performances in terms of area under the ROC curve (AUC),precision and recall compared to other non-supervised methods. Moreover, we demonstrate that the simplicity of our filtration level allows us to easily adapt the method to datasets having different levels of anomaly contamination.
APA, Harvard, Vancouver, ISO, and other styles
8

Khalife, Sammy. "Graphes, géométrie et représentations pour le langage et les réseaux d'entités." Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX055.

Full text
Abstract:
Le traitement informatique des objets qui nous entourent, naturels ou créés par l'homme, demande toujours de passer par une phase de traduction en entités traitables par des programmes. Le choix de ces représentations abstraites est toujours crucial pour l'efficacité des traitements et est le terrain d'améliorations constantes. Mais il est un autre aspect émergeant : le lien entre l'objet à représenter et "sa" représentation n'est pas forcément bijectif ! Ainsi la nature ambiguë de certaines structures discrètes pose problème pour la modélisation ainsi que le traitement et l'analyse à l'aide d'un programme informatique. Le langage dit ``naturel'', et sous sa forme en particulier de représentation textuelle, en est un exemple. Le sujet de cette thèse consiste à explorer cette question, que nous étudions à l'aide de méthodes combinatoires et géométriques. Ces méthodes nous permettent de formaliser le problème d'extraction d'information dans des grands réseaux d'entités ainsi que de construire des représentations géométriques utiles pour le traitement du langage naturel. Dans un premier temps, nous commençons par démontrer des propriétés combinatoires des graphes de séquences intervenant de manière implicite dans les modèles séquentiels. Ces propriétés concernent essentiellement le problème inverse de trouver une séquence représentant un graphe donné. Les algorithmes qui en découlent nous permettent d'effectuer une comparaison expérimentale de différents modèles séquentiels utilisés en modélisation du langage. Dans un second temps, nous considérons une application pour le problème d'identification d'entités nommées. A la suite d'une revue de solutions récentes, nous proposons une méthode compétitive basée sur la comparaison de structures de graphes de connaissances et moins coûteuse en annotations d'exemples dédiés au problème. Nous établissons également une analyse expérimentale d'influence d'entités à partir de relations capitalistiques. Cette analyse suggère l'élargissement du cadre d'application de l'identification d'entités à des bases de connaissances de natures différentes. Ces solutions sont aujourd'hui utilisées au sein d'une librairie logicielle dans le secteur bancaire. Ensuite, nous développons une étude géométrique de représentations de mots récemment proposées, au cours de laquelle nous discutons une conjecture géométrique théoriquement et expérimentalement. Cette étude suggère que les analogies du langage sont difficilement transposables en propriétés géométriques, et nous amène a considérer le paradigme de la géométrie des distances afin de construire de nouvelles représentations. Enfin, nous proposons une méthodologie basée sur le paradigme de la géométrie des distances afin de construire de nouvelles représentations de mots ou d'entités. Nous proposons des algorithmes de résolution de ce problème à grande échelle, qui nous permettent de construire des représentations interprétables et compétitives en performance pour des tâches extrinsèques. Plus généralement, nous proposons à travers ce paradigme un nouveau cadre et piste d'explorations pour la construction de représentations en apprentissage machine
The automated treatment of familiar objects, either natural or artifacts, always relies on a translation into entities manageable by computer programs. The choice of these abstract representations is always crucial for the efficiency of the treatments and receives the utmost attention from computer scientists and developers. However, another problem rises: the correspondence between the object to be treated and "its" representation is not necessarily one-to-one! Therefore, the ambiguous nature of certain discrete structures is problematic for their modeling as well as their processing and analysis with a program. Natural language, and in particular its textual representation, is an example. The subject of this thesis is to explore this question, which we approach using combinatorial and geometric methods. These methods allow us to address the problem of extracting information from large networks of entities and to construct representations useful for natural language processing.Firstly, we start by showing combinatorial properties of a family of graphs implicitly involved in sequential models. These properties essentially concern the inverse problem of finding a sequence representing a given graph. The resulting algorithms allow us to carry out an experimental comparison of different sequential models used in language modeling.Secondly, we consider an application for the problem of identifying named entities. Following a review of recent solutions, we propose a competitive method based on the comparison of knowledge graph structures which is less costly in annotating examples dedicated to the problem. We also establish an experimental analysis of the influence of entities from capital relations. This analysis suggests to broaden the framework for applying the identification of entities to knowledge bases of different natures. These solutions are used today in a software library in the banking sector.Then, we perform a geometric study of recently proposed representations of words, during which we discuss a geometric conjecture theoretically and experimentally. This study suggests that language analogies are difficult to transpose into geometric properties, and leads us to consider the paradigm of distance geometry in order to construct new representations.Finally, we propose a methodology based on the paradigm of distance geometry in order to build new representations of words or entities. We propose algorithms for solving this problem on some large scale instances, which allow us to build interpretable and competitive representations in performance for extrinsic tasks. More generally, we propose through this paradigm a new framework and research leadsfor the construction of representations in machine learning
APA, Harvard, Vancouver, ISO, and other styles
9

Brissac, Olivier. "Contributions à l'étude des mécanismes d'apprentissage opérant sur des descriptions à base de graphes." La Réunion, 1996. http://elgebar.univ-reunion.fr/login?url=http://thesesenligne.univ.run/96_S003_Brissac.pdf.

Full text
Abstract:
Nous nous intéressons aux mécanismes d'apprentissage symbolique automatique dans le cadre de l'utilisation de langages de description à base de graphes. Notre étude s'articule autour de deux axes: la recherche de régularités dans les descriptions d'exemples, et la re-description de ces exemples à l'aide des régularités extraites. Nous proposons dans un premier temps un modèle basé sur l'utilisation des hypergraphes, qui permet de re-décrire un ensemble de descriptions initiales à partir de régularités précédemment observées sur ces descriptions, sans perte d'information. Nous abordons ensuite le problème de la recherche de régularités. Nous proposons alors un algorithme de recherche de sous-structures, capable d'extraire un certain nombre de sous-graphes partiels à partir d'un unique graphe ou d'un ensemble de graphes initiaux. Cet algorithme est basé sur une méthode de partitionnement et prend en paramètre une méthode de classification numérique. Il est capable d'extraire des sous-graphes partiels au sens général du terme (non limités à des arbres, chemins,) et possède une complexité polynomiale. Nous expérimentons enfin cet algorithme de recherche de sous-structures sur deux problèmes réels.
APA, Harvard, Vancouver, ISO, and other styles
10

Dos, Santos Ludovic. "Representation learning for relational data." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066480/document.

Full text
Abstract:
L'utilisation croissante des réseaux sociaux et de capteurs génère une grande quantité de données qui peuvent être représentées sous forme de graphiques complexes. Il y a de nombreuses tâches allant de l'analyse de l'information à la prédiction et à la récupération que l'on peut imaginer sur ces données où la relation entre les noeuds de graphes devrait être informative. Dans cette thèse, nous avons proposé différents modèles pour trois tâches différentes: - Classification des noeuds graphiques - Prévisions de séries temporelles relationnelles - Filtrage collaboratif. Tous les modèles proposés utilisent le cadre d'apprentissage de la représentation dans sa variante déterministe ou gaussienne. Dans un premier temps, nous avons proposé deux algorithmes pour la tâche de marquage de graphe hétérogène, l'un utilisant des représentations déterministes et l'autre des représentations gaussiennes. Contrairement à d'autres modèles de pointe, notre solution est capable d'apprendre les poids de bord lors de l'apprentissage simultané des représentations et des classificateurs. Deuxièmement, nous avons proposé un algorithme pour la prévision des séries chronologiques relationnelles où les observations sont non seulement corrélées à l'intérieur de chaque série, mais aussi entre les différentes séries. Nous utilisons des représentations gaussiennes dans cette contribution. C'était l'occasion de voir de quelle manière l'utilisation de représentations gaussiennes au lieu de représentations déterministes était profitable. Enfin, nous appliquons l'approche d'apprentissage de la représentation gaussienne à la tâche de filtrage collaboratif. Ceci est un travail préliminaire pour voir si les propriétés des représentations gaussiennes trouvées sur les deux tâches précédentes ont également été vérifiées pour le classement. L'objectif de ce travail était de généraliser ensuite l'approche à des données plus relationnelles et pas seulement des graphes bipartis entre les utilisateurs et les items
The increasing use of social and sensor networks generates a large quantity of data that can be represented as complex graphs. There are many tasks from information analysis, to prediction and retrieval one can imagine on those data where relation between graph nodes should be informative. In this thesis, we proposed different models for three different tasks: - Graph node classification - Relational time series forecasting - Collaborative filtering. All the proposed models use the representation learning framework in its deterministic or Gaussian variant. First, we proposed two algorithms for the heterogeneous graph labeling task, one using deterministic representations and the other one Gaussian representations. Contrary to other state of the art models, our solution is able to learn edge weights when learning simultaneously the representations and the classifiers. Second, we proposed an algorithm for relational time series forecasting where the observations are not only correlated inside each series, but also across the different series. We use Gaussian representations in this contribution. This was an opportunity to see in which way using Gaussian representations instead of deterministic ones was profitable. At last, we apply the Gaussian representation learning approach to the collaborative filtering task. This is a preliminary work to see if the properties of Gaussian representations found on the two previous tasks were also verified for the ranking one. The goal of this work was to then generalize the approach to more relational data and not only bipartite graphs between users and items
APA, Harvard, Vancouver, ISO, and other styles
11

Dos, Santos Ludovic. "Representation learning for relational data." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066480.

Full text
Abstract:
L'utilisation croissante des réseaux sociaux et de capteurs génère une grande quantité de données qui peuvent être représentées sous forme de graphiques complexes. Il y a de nombreuses tâches allant de l'analyse de l'information à la prédiction et à la récupération que l'on peut imaginer sur ces données où la relation entre les noeuds de graphes devrait être informative. Dans cette thèse, nous avons proposé différents modèles pour trois tâches différentes: - Classification des noeuds graphiques - Prévisions de séries temporelles relationnelles - Filtrage collaboratif. Tous les modèles proposés utilisent le cadre d'apprentissage de la représentation dans sa variante déterministe ou gaussienne. Dans un premier temps, nous avons proposé deux algorithmes pour la tâche de marquage de graphe hétérogène, l'un utilisant des représentations déterministes et l'autre des représentations gaussiennes. Contrairement à d'autres modèles de pointe, notre solution est capable d'apprendre les poids de bord lors de l'apprentissage simultané des représentations et des classificateurs. Deuxièmement, nous avons proposé un algorithme pour la prévision des séries chronologiques relationnelles où les observations sont non seulement corrélées à l'intérieur de chaque série, mais aussi entre les différentes séries. Nous utilisons des représentations gaussiennes dans cette contribution. C'était l'occasion de voir de quelle manière l'utilisation de représentations gaussiennes au lieu de représentations déterministes était profitable. Enfin, nous appliquons l'approche d'apprentissage de la représentation gaussienne à la tâche de filtrage collaboratif. Ceci est un travail préliminaire pour voir si les propriétés des représentations gaussiennes trouvées sur les deux tâches précédentes ont également été vérifiées pour le classement. L'objectif de ce travail était de généraliser ensuite l'approche à des données plus relationnelles et pas seulement des graphes bipartis entre les utilisateurs et les items
The increasing use of social and sensor networks generates a large quantity of data that can be represented as complex graphs. There are many tasks from information analysis, to prediction and retrieval one can imagine on those data where relation between graph nodes should be informative. In this thesis, we proposed different models for three different tasks: - Graph node classification - Relational time series forecasting - Collaborative filtering. All the proposed models use the representation learning framework in its deterministic or Gaussian variant. First, we proposed two algorithms for the heterogeneous graph labeling task, one using deterministic representations and the other one Gaussian representations. Contrary to other state of the art models, our solution is able to learn edge weights when learning simultaneously the representations and the classifiers. Second, we proposed an algorithm for relational time series forecasting where the observations are not only correlated inside each series, but also across the different series. We use Gaussian representations in this contribution. This was an opportunity to see in which way using Gaussian representations instead of deterministic ones was profitable. At last, we apply the Gaussian representation learning approach to the collaborative filtering task. This is a preliminary work to see if the properties of Gaussian representations found on the two previous tasks were also verified for the ranking one. The goal of this work was to then generalize the approach to more relational data and not only bipartite graphs between users and items
APA, Harvard, Vancouver, ISO, and other styles
12

Palesi, Frédéric. "Dynamique sur les espaces de représentations de surfaces non-orientables." Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00443930.

Full text
Abstract:
Nous considérons l'espace de représentations Hom(Pi,G) d'un groupe de surface Pi dans un groupe de Lie G, et l'espace de modules X(Pi,G) des classes de conjugaison de ces représentations. Le groupe modulaire de la surface sous-jacente agit naturellement sur ces espaces, et cette action possède une dynamique très riche qui dépend du choix du groupe de Lie G, et de la composante connexe de l'espace sur laquelle on se place. Dans cette thèse, nous étudions le cas où S est une surface non-orientable. Dans la première partie, nous étudions les propriétés dynamiques de l'action du groupe modulaire sur l'espace de modules X(Pi, SU(2)) et prouvons que cette action est ergodique lorsque la caractéristique d'Euler de la surface est inférieure à -2. Dans la deuxième partie, nous montrons que l'espace des représentations Hom(Pi, PSL(2,R)) possède deux composantes connexes indexées par une classe de Stiefel-Whitney.
APA, Harvard, Vancouver, ISO, and other styles
13

Palesi, Frédéric. "Dynamique sur les espaces de représentations de surfaces non-orientables." Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10317.

Full text
Abstract:
Nous considérons l'espace de représentations Hom(Pi,G) d'un groupe de surface Pi dans un groupe de Lie G, et l'espace de modules X(Pi,G) des classes de conjugaison de ces représentations. Le groupe modulaire de la surface sous-jacente agit naturellement sur ces espaces, et cette action possède une dynamique très riche qui dépend du choix du groupe de Lie G, et de la composante connexe de l'espace sur laquelle on se place. Dans cette thèse, nous étudions le cas où S est une surface non-orientable. Dans la première partie, nous étudions les propriétés dynamiques de l'action du groupe modulaire sur l'espace de modules X(Pi, SU(2)) et prouvons que cette action est ergodique lorsque la caractéristique d'Euler de la surface est inférieure à -2. Dans la deuxième partie, nous montrons que l'espace des représentations Hom(Pi, PSL(2,R)) possède deux composantes connexes indexées par une classe de Stiefel-Whitney
We consider the space of representations Hom(Pi,G) of a surface group Pi into a Lie group G, and the moduli space X(Pi,G) of G-conjugacy classes of such representations. These spaces admit a natural action of the mapping class group of the underlying surface S, and this actions displays very rich dynamics depending on the choice of the Lie group G, and on the connected component of the space that we consider. In this thesis, we focus on the case when S is a non-orientable surface. In the rst part, we study the dynamical properties of the mapping class group actions on the moduli space X(Pi,SU(2)) and prove that this action is ergodic when the Euler characteristic of the surface is less than -1 with respect to a natural measure on the space. In the second part, we show that the representation space Hom (Pi , PSL(2,R)) has two connected components indexed by a Stiefel-Whitney class
APA, Harvard, Vancouver, ISO, and other styles
14

Sokol, Marina. "Méthodes d'apprentissage semi-supervisé basé sur les graphes et détection rapide des nœuds centraux." Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00998394.

Full text
Abstract:
Les méthodes d'apprentissage semi-supervisé constituent une catégorie de méthodes d'apprentissage automatique qui combinent points étiquetés et données non labellisées pour construire le classifieur. Dans la première partie de la thèse, nous proposons un formalisme d'optimisation général, commun à l'ensemble des méthodes d'apprentissage semi-supervisé et en particulier aux Laplacien Standard, Laplacien Normalisé et PageRank. En utilisant la théorie des marches aléatoires, nous caractérisons les différences majeures entre méthodes d'apprentissage semi-supervisé et nous définissons des critères opérationnels pour guider le choix des paramètres du noyau ainsi que des points étiquetés. Nous illustrons la portée des résultats théoriques obtenus sur des données synthétiques et réelles, comme par exemple la classification par le contenu et par utilisateurs des systèmes pair-à-pair. Cette application montre de façon édifiante que la famille de méthodes proposée passe parfaitement à l'échelle. Les algorithmes développés dans la deuxième partie de la thèse peuvent être appliquées pour la sélection des données étiquetées, mais également aux autres applications dans la recherche d'information. Plus précisément, nous proposons des algorithmes randomisés pour la détection rapide des nœuds de grands degrés et des nœuds avec de grandes valeurs de PageRank personnalisé. A la fin de la thèse, nous proposons une nouvelle mesure de centralité, qui généralise à la fois la centralité d'intermédiarité et PageRank. Cette nouvelle mesure est particulièrement bien adaptée pour la détection de la vulnérabilité de réseau.
APA, Harvard, Vancouver, ISO, and other styles
15

Sokol, Marina. "Méthodes d’apprentissage semi-supervisé basé sur les graphes et détection rapide des nœuds centraux." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4018/document.

Full text
Abstract:
Les méthodes d'apprentissage semi-supervisé constituent une catégorie de méthodes d'apprentissage automatique qui combinent points étiquetés et données non labellisées pour construire le classifieur. Dans la première partie de la thèse, nous proposons un formalisme d'optimisation général, commun à l'ensemble des méthodes d'apprentissage semi-supervisé et en particulier aux Laplacien Standard, Laplacien Normalisé et PageRank. En utilisant la théorie des marches aléatoires, nous caractérisons les différences majeures entre méthodes d'apprentissage semi-supervisé et nous définissons des critères opérationnels pour guider le choix des paramètres du noyau ainsi que des points étiquetés. Nous illustrons la portée des résultats théoriques obtenus sur des données synthétiques et réelles, comme par exemple la classification par le contenu et par utilisateurs des systèmes pair-à-pair. Cette application montre de façon édifiante que la famille de méthodes proposée passe parfaitement à l’échelle. Les algorithmes développés dans la deuxième partie de la thèse peuvent être appliquées pour la sélection des données étiquetées, mais également aux autres applications dans la recherche d'information. Plus précisément, nous proposons des algorithmes randomisés pour la détection rapide des nœuds de grands degrés et des nœuds avec de grandes valeurs de PageRank personnalisé. A la fin de la thèse, nous proposons une nouvelle mesure de centralité, qui généralise à la fois la centralité d'intermédiarité et PageRank. Cette nouvelle mesure est particulièrement bien adaptée pour la détection de la vulnérabilité de réseau
Semi-supervised learning methods constitute a category of machine learning methods which use labelled points together with unlabeled data to tune the classifier. The main idea of the semi-supervised methods is based on an assumption that the classification function should change smoothly over a similarity graph. In the first part of the thesis, we propose a generalized optimization approach for the graph-based semi-supervised learning which implies as particular cases the Standard Laplacian, Normalized Laplacian and PageRank based methods. Using random walk theory, we provide insights about the differences among the graph-based semi-supervised learning methods and give recommendations for the choice of the kernel parameters and labelled points. We have illustrated all theoretical results with the help of synthetic and real data. As one example of real data we consider classification of content and users in P2P systems. This application demonstrates that the proposed family of methods scales very well with the volume of data. The second part of the thesis is devoted to quick detection of network central nodes. The algorithms developed in the second part of the thesis can be applied for the selections of quality labelled data but also have other applications in information retrieval. Specifically, we propose random walk based algorithms for quick detection of large degree nodes and nodes with large values of Personalized PageRank. Finally, in the end of the thesis we suggest new centrality measure, which generalizes both the current flow betweenness centrality and PageRank. This new measure is particularly well suited for detection of network vulnerability
APA, Harvard, Vancouver, ISO, and other styles
16

Aguerre, Sandrine. "Centration sur l'apprentissage d'une langue étrangère, le français : grammaires et représentations métalinguistiques." Phd thesis, Université Michel de Montaigne - Bordeaux III, 2010. http://tel.archives-ouvertes.fr/tel-00628351.

Full text
Abstract:
Cette thèse porte sur la didactique de la grammaire, celle-ci étant considérée dans ce travail comme un outil pour parler, enseigner et apprendre une langue, et non comme un objectif en soi. L'auteur s'intéresse plus précisément à la façon dont les apprenants développent leur grammaire mentale, c'est-à-dire l'outil qui leur permet de comprendre et produire des énoncés. La thèse de l'auteur est que les apprenants forment des représentations métalinguistiques, c'est-à-dire organisent, rassemblent et classent les éléments linguistiques, d'une façon plus ou moins intentionnelle et organisée en fonction de leurs représentations de ce qu'est apprendre une langue et de leur " passé " métalinguistique. Ce travail s'interroge sur les outils psychologiques et les ressources (manipulations, métalangage et autres systèmes de signes) qui sont mobilisables par l'apprenant pour ses opérations métalinguistiques, et qui peuvent être proposés par l'enseignant dans le cadre de différentes démarches. Plus précisément, est envisagée une démarche réflexive, qui se définit par son point de départ (un problème qui se pose à l'apprenant), ses ressources (présence obligatoire d'un corpus), et son déroulement (participation de l'apprenant en vue d'activités de conceptualisation de sa part).
APA, Harvard, Vancouver, ISO, and other styles
17

Gaüzère, Benoît. "Application des méthodes à noyaux sur graphes pour la prédiction des propriétés des molécules." Caen, 2013. http://www.theses.fr/2013CAEN2043.

Full text
Abstract:
Cette thèse s'intéresse à l'application des méthodes à noyaux sur graphes pour la prédiction de propriétés moléculaires. Dans ce manuscrit, nous présentons un état de l'art des méthodes à noyaux sur graphes définies dans le cadre de la chémoinformatique et plus particulièrement les noyaux sur graphes basés sur les sacs de motifs. Dans ce cadre, nous proposons un nouveau noyau sur graphes basé sur un ensemble explicite de sous-arbres, appelés treelets, permettant d'encoder une grande partie de l'information structurelle acyclique des graphes moléculaires. Nous proposons également de combiner ce noyau avec des méthodes d'apprentissage à noyaux multiples afin d'extraire un ensemble de motifs pertinents. Cette contribution est ensuite étendue en incluant l'information cyclique encodée par deux représentations moléculaires définies par le graphe de cycles pertinents et l'hypergraphe de cycles pertinents. Le graphe des cycles pertinents permet d'encoder le système cyclique d'une molécule. L'hypergraphe de cycles pertinents correspond à une nouvelle représentation moléculaire permettant d'encoder à la fois le système cyclique d'une molécule ainsi que les relations d'adjacence entre les cycles et les parties acycliques. Nous proposons également deux noyaux sur graphes utilisant ces représentations. Enfin, la dernière partie vise à définir des noyaux sur graphes pour la chémoinformatique basés sur la distance d'édition. Un premier noyau est basé sur un opérateur de régularisation utilisant la distance d'édition entre graphes moléculaires. Le second noyau introduit la comparaison de treelets dissimilaires basée sur un algorithme de calcul de la distance d'édition entre treelets
This work deals with the application of graph kernel methods to the prediction of molecular properties. In this document, we first present a state of the art of graph kernels used in chemoinformatics and particurlarly those which are based on bags of patterns. Within this framework, we introduce the treelet kernel based on a set of trees which allows to encode most of the structural information encoded in molecular graphs. We also propose a combination of this kernel with multiple kernel learning methods in order to extract a subset of relevant patterns. This kernel is then extended by including cyclic information using two molecular representations defined by the relevant cycle graph and the relevant cycle hypergraph. Relevant cycle graph allows to encode the cyclic system of a molecule
APA, Harvard, Vancouver, ISO, and other styles
18

Sevi, Harry. "Analyse harmonique sur graphes dirigés et applications : de l'analyse de Fourier aux ondelettes." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEN068/document.

Full text
Abstract:
La recherche menée dans cette thèse a pour but de développer une analyse harmonique pour des fonctions définies sur les sommets d'un graphe orienté. À l'ère du déluge de données, de nombreuses données sont sous forme de graphes et données sur ce graphe. Afin d'analyser d'exploiter ces données de graphes, nous avons besoin de développer des méthodes mathématiques et numériquement efficientes. Ce développement a conduit à l'émergence d'un nouveau cadre théorique appelé le traitement de signal sur graphe dont le but est d'étendre les concepts fondamentaux du traitement de signal classique aux graphes. Inspirées par l'aspect multi échelle des graphes et données sur graphes, de nombreux constructions multi-échelles ont été proposé. Néanmoins, elles s'appliquent uniquement dans le cadre non orienté. L'extension d'une analyse harmonique sur graphe orienté bien que naturelle, s'avère complexe. Nous proposons donc une analyse harmonique en utilisant l'opérateur de marche aléatoire comme point de départ de notre cadre. Premièrement, nous proposons des bases de type Fourier formées des vecteurs propres de l'opérateur de marche aléatoire. De ces bases de Fourier, nous en déterminons une notion fréquentielle en analysant la variation de ses vecteurs propres. La détermination d'une analyse fréquentielle à partir de la base des vecteurs de l'opérateur de marche aléatoire nous amène aux constructions multi-échelles sur graphes orientés. Plus particulièrement, nous proposons une construction en trames d'ondelettes ainsi qu'une construction d'ondelettes décimées sur graphes orientés. Nous illustrons notre analyse harmonique par divers exemples afin d'en montrer l'efficience et la pertinence
The research conducted in this thesis aims to develop a harmonic analysis for functions defined on the vertices of an oriented graph. In the era of data deluge, much data is in the form of graphs and data on this graph. In order to analyze and exploit this graph data, we need to develop mathematical and numerically efficient methods. This development has led to the emergence of a new theoretical framework called signal processing on graphs, which aims to extend the fundamental concepts of conventional signal processing to graphs. Inspired by the multi-scale aspect of graphs and graph data, many multi-scale constructions have been proposed. However, they apply only to the non-directed framework. The extension of a harmonic analysis on an oriented graph, although natural, is complex. We, therefore, propose a harmonic analysis using the random walk operator as the starting point for our framework. First, we propose Fourier-type bases formed by the eigenvectors of the random walk operator. From these Fourier bases, we determine a frequency notion by analyzing the variation of its eigenvectors. The determination of a frequency analysis from the basis of the vectors of the random walk operator leads us to multi-scale constructions on oriented graphs. More specifically, we propose a wavelet frame construction as well as a decimated wavelet construction on directed graphs. We illustrate our harmonic analysis with various examples to show its efficiency and relevance
APA, Harvard, Vancouver, ISO, and other styles
19

Al-Hammouri, Samer. "Enquête sur les représentations de la langue française et de son apprentissage chez les étudiants jordaniens." Thesis, Paris 3, 2009. http://www.theses.fr/2009PA030093.

Full text
Abstract:
Notre recherche est centrée sur l'étude des représentations de la langue française et son apprentissage chez les étudiants jordaniens. Nous avons tenté de découvrir et d’explorer les images que représentent la France et les français chez un échantillon d’étudiants. Nous avons utilisé un questionnaire comme un instrument d’enquête. Les résultats montrent que les étudiants ont une vue très équilibrée de la langue française et de son apprentissage en général. L’enquête montre aussi l’existence de relation entre les représentations de la langue cible et la motivation d’apprentissage. Cette étude montre en fin de compte l'importance de comprendre la nature complexe des représentations d'apprenants envers la langue maternelle et la première langue apprise dans la salle de classe de français langue étrangère
Our research is about the study of the representations of the French language and its learning by Jordanian students. We tried to discover the images concerning France and French people from a sample of Jordanian students. The purpose of this paper is to explore more the question of the representations of the Jordanian learners in a university bilingual context, little studied from an Arabophone context. We have studied a sample of 68 Jordanian students from the Yarmouk University by means of questionnaire. This study also reveals the representations - stereotypes of both mother and foreign tongues and their places in class of French language as a foreign language. The results of this study show that the students have a very well-balanced about the generally sight of the French language and its apprenticeship. The study also makes evident the existence of relationship between the representations of the target language and the motiv! ation for learning. Moreover; this study shows the importance of understanding the complex nature of the representations of learners towards their mother tongue and the first language learnt in the classroom of French as a Foreign Language
APA, Harvard, Vancouver, ISO, and other styles
20

Lagrange, Jean-Baptiste. "Des situations connues aux traitements sur des données codifiées : représentations mentales et processus d'acquisition dans les premiers apprentissages en informatique." Paris 7, 1991. http://jb.lagrange.free.fr/Preprints/TheseLagrange.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Gaüzère, Benoit. "Application des méthodes à noyaux sur graphes pour la prédiction des propriétés des molécules." Phd thesis, Université de Caen, 2013. http://tel.archives-ouvertes.fr/tel-00933187.

Full text
Abstract:
Cette thèse s'intéresse à l'application des méthodes à noyaux sur graphes pour la prédiction de propriétés moléculaires. Dans ce manuscrit, nous présentons un état de l'art des méthodes à noyaux sur graphes définies dans le cadre de la chémoinformatique et plus particulièrement les noyaux sur graphes basés sur les sacs de motifs. Dans ce cadre, nous proposons un nouveau noyau sur graphes basé sur un ensemble explicite de sous-arbres, appelés treelets, permettant d'encoder une grande partie de l'information structurelle acyclique des graphes moléculaires. Nous proposons également de combiner ce noyau avec des méthodes d'apprentissage à noyaux multiples afin d'extraire un ensemble de motifs pertinents. Cette contribution est ensuite étendue en incluant l'information cyclique encodée par deux représentations moléculaires définies par le graphe de cycles pertinents et l'hypergraphe de cycles pertinents. Le graphe des cycles pertinents permet d'encoder le système cyclique d'une molécule. L'hypergraphe de cycles pertinents correspond à une nouvelle représentation moléculaire permettant d'encoder à la fois le système cyclique d'une molécule ainsi que les relations d'adjacence entre les cycles et les parties acycliques. Nous proposons également deux noyaux sur graphes utilisant ces représentations. Enfin, la dernière partie vise à définir des noyaux sur graphes pour la chémoinformatique basés sur la distance d'édition. Un premier noyau est basé sur un opérateur de régularisation utilisant la distance d'édition entre graphes moléculaires. Le second noyau introduit la comparaison de treelets dissimilaires basée sur un algorithme de calcul de la distance d'édition entre treelets.
APA, Harvard, Vancouver, ISO, and other styles
22

Li, Huihua. "Généralisation de l'ordre et des paramètres de macro-actions par apprentissage basé sur l'explication. Extension de l'apprentissage par explications sur l'ordre partiel." Paris 6, 1992. http://www.theses.fr/1992PA066233.

Full text
Abstract:
Les methodes traditionnelles d'apprentissage comme l'apprentissage par macro-actions de fikes et l'apprentissage par explications (ebl) traitent les plans totalement ordonnes. Elles generalisent seulement les actions et les conditions sous lesquelles le plan peut etre applique, mais jamais elles ne transforment l'ordre des actions en un ordre partiel moins strict dans lequel le plan peut aussi etre correctement execute. Une methode est proposee pour construire, a partir d'une sequence d'actions du type strips realisant une conjonction de buts, des macro-actions partiellement ordonnees dont chacune exige l'ensemble des conditions les plus faibles pour sa reutilisation. Elle est aussi valable pour generaliser les plans partiellement ordonnes. Les actions sont generalisees dans la table triangulaire de fikes. On introduit des axiomes du domaine pour generer les contraintes sur les parametres des actions. Ces contraintes, avec celles issues des destructions des actions, assurent la consistance des etats generalises. L'ensemble de contraintes est transforme en une disjonction ou chaque element definit un ensemble de substitutions admissibles d'une particularisation de la macro-action. En completant la table par des informations sur les destructions, on obtient l'explication globale sur l'ordre partiel des actions. Puis, on represente toutes les relations d'ordre necessaires par un (multi)graphe. L'exploitation de ce graphe permet d'expliciter la dependance entre les ordres partiels generalises et les contraintes sur les parametres et d'obtenir l'ensemble des solutions
APA, Harvard, Vancouver, ISO, and other styles
23

Tiré, Marianne. "Les pratiques effectives d'acculturation à l'écrit en classe de CP : impact sur les représentations des élèves et sur l'apprentissage du lire-écrire." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAL022/document.

Full text
Abstract:
Plusieurs enquêtes nationales et internationales (Lire écrire compter, PISA, PIRLS) ont pointé l’augmentation, en France, des écarts de performances en lecture et en écriture entre les élèves issus d’un milieu socioculturel défavorisé et ceux issus d’un milieu favorisé. Notre recherche s’inscrit dans le champ de la didactique de l’écrit. Elle cherche à montrer comment des pratiques enseignantes qui favorisent le processus d’acculturation à l’écrit et qui s’articulent à un apprentissage « technique » de la lecture et de l’écriture peuvent être un levier possible pour enrayer les inégalités. Pour explorer les liens entre pratiques d’acculturation à l’écrit dans les classes de CP et apprentissage de la lecture, une étude longitudinale a été réalisée dans deux classes de CP situées en éducation prioritaire. Notre démarche écologique et ethnographique s’appuie sur des données qualitatives et quantitatives que nous avons recueillies à partir d’entretiens réalisés auprès des élèves et des enseignantes et de questionnaires renseignés par les parents. Nos propres données ont été complétées par les données issues de la recherche #LireEcrireCP coordonnée par R. Goigoux (évaluations, questionnaires, fichiers « tâches codées », films de séances de classe). Les résultats mettent en évidence d’une part que des pratiques moyennement acculturantes ne permettent pas de faire suffisamment progresser les élèves afin de réduire les inégalités. D’autre part, ils montrent que pour être efficaces, les pratiques d’acculturation doivent non seulement être régulières et ritualisées mais aussi accompagnées de postures d’enseignement qui favorisent les interactions langagières pour rendre explicites les savoirs et les savoir-faire engagés, et qui considèrent l’écrit dans sa globalité et pas seulement comme une activité scolaire. Enfin, l’analyse de deux pratiques d’acculturation exemplaires (production d’écrit et pratiques variées de lectures) dans deux autres classes participant à la recherche #LireEcrireCP indique que des pratiques d’acculturation efficaces sont possibles, même en éducation prioritaire. Ainsi, il ressort de notre recherche que les pratiques d’acculturation assorties de gestes d’enseignement efficients peuvent contribuer à réduire les inégalités scolaires
Several national and international studies (reading writing numeracy, PISA, PIRLS) have shown that the gap in France between pupils from privileged sociocultural backgrounds and those from a disadvantaged background when it comes to reading and writing is on the increase. Our research focuses on written teaching. We are trying to demonstrate how teaching practices that favour writing cultural integration through technical learning of reading and writing can help reducing inequalities. In order to explore the connection between cultural integration practices for writing in CP classes and learning to read, a longitudinal study was undertaken in two CP classes within a priority education zone. Our ecological and ethnographic approach is based on qualitative and quantitative data collected from interviews with pupils and teachers and from questionnaire filled in by parents. Our own data were compounded with results from #LireEcrireCP research coordinated by R.Goigoux (evaluations, questionnaires, “coded tasks” records, class videos). Results show on one hand that moderate cultural integration practices are not sufficient for pupils’ progress to reduce inequalities. On the other hand, that in order to be efficient, not only acculturation practices must be used regularly and routinely, but they must also be used in conjunction with teaching practices that encourage language interaction in order to make sense of what has been learned, and to consider writing in its entirety and not only in a school context. Finally, analysis of two examples of cultural integration (written assignment and various reading practices) in two other classes taking part in the study #LireEcrireCP shows that cultural integration practices can be successful, even in priority education. Our research therefore demonstrates that cultural integration practices, along with efficient teaching methods, can contribute to a reduction in academic inequalities
APA, Harvard, Vancouver, ISO, and other styles
24

Boudebia-Baala, Afaf. "L'impact des contextes sociolinguistique et scolaire sur l'enseignement/apprentissage du français dans le Souf à travers l'analyse des représentations comme outil de description." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00942722.

Full text
Abstract:
Prenant pour ancrage la sociolinguistique et la didactique, notre étude porte sur un contexte d'enseignement/ apprentissage du français situé dans le Sud-est algérien : le Souf. La spécificité de ce contexte a été étudiée suivant deux axes différents mais complémentaires : l'environnement sociolinguistique et le cadre institutionnel. Ces deux axes ont été définis à partir de l'analyse thématique de données déclaratives recueillies auprès d'un public d'enseignants et d'apprenants. Dans l'objectif de croiser les regards enseignants/ apprenants, nous avons opté pour une triangulation des données recueilles à l'aide de plusieurs outils : questionnaires, entretiens, tests de mots associés et expressions écrites. La thèse emprunte une démarche à la fois qualitative et quantitative. Notre but est de déterminer l'impact des contextes sociolinguistique et scolaire sur l'enseignement/ apprentissage du français dans le Souf en utilisant les représentations comme outils de description. Les résultats obtenus indiquent que plusieurs paramètres produisent une influence négative sur l'enseignement/ apprentissage du français. Les plus importants sont : l'absence des pratiques langagières en français, les attitudes linguistiques, le milieu social, les représentations des langues, l'inadaptation des programmes, le volume horaire réduit, la place peu importante accordée au français dans le système éducatif et le recrutement d'enseignants non qualifiés. Certaines de nos conclusions pourront être utilisées dans une perspective de contextualisation des programmes, d'action sur les représentations des langues chez les apprenants et de formation continue des enseignants
APA, Harvard, Vancouver, ISO, and other styles
25

Boudebia-Baala, Afaf. "L'impact des contextes sociolinguistique et scolaire sur l'enseignement/apprentissage du français dans le Souf à travers l'analyse des représentations comme outil de description." Electronic Thesis or Diss., Besançon, 2012. http://indexation.univ-fcomte.fr/nuxeo/site/esupversions/a16ab6c1-551f-4c84-83f2-2dc7f158364f.

Full text
Abstract:
Prenant pour ancrage la sociolinguistique et la didactique, notre étude porte sur un contexte d’enseignement/ apprentissage du français situé dans le Sud-est algérien : le Souf. La spécificité de ce contexte a été étudiée suivant deux axes différents mais complémentaires : l’environnement sociolinguistique et le cadre institutionnel. Ces deux axes ont été définis à partir de l’analyse thématique de données déclaratives recueillies auprès d’un public d’enseignants et d’apprenants. Dans l’objectif de croiser les regards enseignants/ apprenants, nous avons opté pour une triangulation des données recueilles à l’aide de plusieurs outils : questionnaires, entretiens, tests de mots associés et expressions écrites. La thèse emprunte une démarche à la fois qualitative et quantitative. Notre but est de déterminer l’impact des contextes sociolinguistique et scolaire sur l’enseignement/ apprentissage du français dans le Souf en utilisant les représentations comme outils de description. Les résultats obtenus indiquent que plusieurs paramètres produisent une influence négative sur l’enseignement/ apprentissage du français. Les plus importants sont : l’absence des pratiques langagières en français, les attitudes linguistiques, le milieu social, les représentations des langues, l’inadaptation des programmes, le volume horaire réduit, la place peu importante accordée au français dans le système éducatif et le recrutement d’enseignants non qualifiés. Certaines de nos conclusions pourront être utilisées dans une perspective de contextualisation des programmes, d’action sur les représentations des langues chez les apprenants et de formation continue des enseignants
Taking as anchor sociolinguistics and didactics, our study focuses on the context of teaching/learning of French in the South-Eastern Algeria: The Souf. The specificity of this context has been studied following two different but complementary axes: the sociolinguistic environment and the institutional framework. Both axes have been defined from the thematic analysis of declarative data gathered from a group of teachers and learners. In order to connect the views of teachers/learners, we chose to triangulate the data gathered using several tools: questionnaires, interviews, word association tests and writing. The thesis takes an approach that is both qualitative and quantitative. Our goal is to determine the impact of the sociolinguistic and educational contexts on the teaching/learning of French in the Souf using the representations as a tool of description. The results indicate that several parameters produce a negative impact on the teaching/learning of French. The most important are : the absence of linguistic practices in French, linguistic attitudes, social environment, representations of languages, inadequate academic curriculum, the reduced number of hours devoted to teaching/learning, reduced importance of the teaching of French in the educational system, and recruitment of unqualified teachers. Some of our findings can be used in order to contextualize means to influence teacher training and linguistic representations in the learners
APA, Harvard, Vancouver, ISO, and other styles
26

Simonovsky, Martin. "Deep learning on attributed graphs." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1133/document.

Full text
Abstract:
Le graphe est un concept puissant pour la représentation des relations entre des paires d'entités. Les données ayant une structure de graphes sous-jacente peuvent être trouvées dans de nombreuses disciplines, décrivant des composés chimiques, des surfaces des modèles tridimensionnels, des interactions sociales ou des bases de connaissance, pour n'en nommer que quelques-unes. L'apprentissage profond (DL) a accompli des avancées significatives dans une variété de tâches d'apprentissage automatique au cours des dernières années, particulièrement lorsque les données sont structurées sur une grille, comme dans la compréhension du texte, de la parole ou des images. Cependant, étonnamment peu de choses ont été faites pour explorer l'applicabilité de DL directement sur des données structurées sous forme des graphes. L'objectif de cette thèse est d'étudier des architectures de DL sur des graphes et de rechercher comment transférer, adapter ou généraliser à ce domaine des concepts qui fonctionnent bien sur des données séquentielles et des images. Nous nous concentrons sur deux primitives importantes : le plongement de graphes ou leurs nœuds dans une représentation de l'espace vectorielle continue (codage) et, inversement, la génération des graphes à partir de ces vecteurs (décodage). Nous faisons les contributions suivantes. Tout d'abord, nous introduisons Edge-Conditioned Convolutions (ECC), une opération de type convolution sur les graphes réalisés dans le domaine spatial où les filtres sont générés dynamiquement en fonction des attributs des arêtes. La méthode est utilisée pour coder des graphes avec une structure arbitraire et variable. Deuxièmement, nous proposons SuperPoint Graph, une représentation intermédiaire de nuages de points avec de riches attributs des arêtes codant la relation contextuelle entre des parties des objets. Sur la base de cette représentation, l'ECC est utilisé pour segmenter les nuages de points à grande échelle sans sacrifier les détails les plus fins. Troisièmement, nous présentons GraphVAE, un générateur de graphes permettant de décoder des graphes avec un nombre de nœuds variable mais limité en haut, en utilisant la correspondance approximative des graphes pour aligner les prédictions d'un auto-encodeur avec ses entrées. La méthode est appliquée à génération de molécules
Graph is a powerful concept for representation of relations between pairs of entities. Data with underlying graph structure can be found across many disciplines, describing chemical compounds, surfaces of three-dimensional models, social interactions, or knowledge bases, to name only a few. There is a natural desire for understanding such data better. Deep learning (DL) has achieved significant breakthroughs in a variety of machine learning tasks in recent years, especially where data is structured on a grid, such as in text, speech, or image understanding. However, surprisingly little has been done to explore the applicability of DL on graph-structured data directly.The goal of this thesis is to investigate architectures for DL on graphs and study how to transfer, adapt or generalize concepts working well on sequential and image data to this domain. We concentrate on two important primitives: embedding graphs or their nodes into a continuous vector space representation (encoding) and, conversely, generating graphs from such vectors back (decoding). To that end, we make the following contributions.First, we introduce Edge-Conditioned Convolutions (ECC), a convolution-like operation on graphs performed in the spatial domain where filters are dynamically generated based on edge attributes. The method is used to encode graphs with arbitrary and varying structure.Second, we propose SuperPoint Graph, an intermediate point cloud representation with rich edge attributes encoding the contextual relationship between object parts. Based on this representation, ECC is employed to segment large-scale point clouds without major sacrifice in fine details.Third, we present GraphVAE, a graph generator allowing to decode graphs with variable but upper-bounded number of nodes making use of approximate graph matching for aligning the predictions of an autoencoder with its inputs. The method is applied to the task of molecule generation
APA, Harvard, Vancouver, ISO, and other styles
27

Poezevara, Guillaume. "Fouille de graphes pour la découverte de contrastes entre classes : application à l'estimation de la toxicité des molécules." Phd thesis, Université de Caen, 2011. http://tel.archives-ouvertes.fr/tel-01018425.

Full text
Abstract:
Cette thèse porte sur la fouille de graphes et propose un ensemble de méthodes pour la découverte de contrastes entre classes et leurs contributions à des problématiques de prédictions de propriétés (éco)toxicologiques de composés chimiques. Nous présentons un nouveau type de motifs, les motifs émergents de graphes - les conjonctions de graphes dont la présence est liée à la classification donnée en entrée - afin de cibler l'information caractérisant les différentes lasses. Notre méthode repose sur un changement de description des graphes permettant de revenir à un contexte de fouille de données tabulaires. L'étendue des contraintes utilisées en fouille de données tabulaires peut ainsi être exploitée, telle que la contrainte d'émergence. Nous montrons également qu'il est possible d'étendre aux motifs de graphes les représentations condensées de motifs sur la contrainte d'émergence. Cette méthode synthétise les motifs de graphes et facilite leur exploration et leur usages. Le fil conducteur de ce travail est celui de l'évaluation de propriétés (éco)toxicologiques de molécules par l'usage de modèles in silico, conformément à la norme européenne REACH. Dans ce contexte, les méthodes de fouille de graphes proposées permettent d'extraire des toxicophores (i.e. des fragments de molécules qui peuvent influencer le comportement toxique des molécules) à partir des exemples d'une chimiothèque. Une série expérimentale montre l'apparition de nouvelles structures lorsque le niveau de toxicité des molécules augmente. Ces travaux contribuent à l'acquisition de nouvelles connaissances sur les mécanismes de toxicité des molécules venant compléter les connaissances expertes humaines.
APA, Harvard, Vancouver, ISO, and other styles
28

Cascioli, Fiammetta. "La performativité du MOOC sur les représentations de l’apprenant : le cas du parcours MOOCLead." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC010.

Full text
Abstract:
Les MOOC constituent des outils d’apprentissage innovants (Christensen, 2013), ont une portée amplificatrice (Ceci, 2018), ont disrupté le monde de la formation en entreprise (Karnouskos, 2017) et peuvent constituer des dispositifs permettant à l'apprenant d'acquérir des connaissances et de les appliquer dans un domaine professionnel (Rafiq & al. 2019). Sur la base de l’hypothèse de Cox (2013), selon laquelle le numérique permet d’atteindre une performativité sur les représentations des apprenants, la recherche étudie la portée performative du MOOC sur les représentations, « le monde des descriptions » (Laurillard, 2002) des apprenants en entreprise. Elle analyse ainsi les dynamiques de modification des comportements et par conséquent identités managériales (Harding, 2003 cité par Aggeri, 2017) Ce travail a ainsi rendu possible l’explicitation des facteurs clés qui permettent l’évolution des représentations et la modification des comportements en entreprise grâce au numérique
MOOCs are innovative learning tools (Christensen, 2013), have an amplifying effect (Ceci, 2018) and have disrupted the world of in-company training (Karnouskos, 2017) On the basis of Cox's (2013) hypothesis, according to which digital technology allows the achievement of performativity on learner representations, research studies the performative impact of MOOC on the representations, "the world of descriptions" (Laurillard, 2002) of learners in companies. It thus analyses the dynamics of behavioural change and, consequently, managerial identities (Harding, 2003 cited by Aggeri, 2017). This work has thus made it possible to explain the key factors that enable the evolution of representations and the modification of behaviour in companies thanks to digital technology
APA, Harvard, Vancouver, ISO, and other styles
29

Remila, Eric. "Pavage de figures par des barres et reconnaissance de graphes sous-jacents à des réseaux d'automates." Lyon 1, 1992. http://www.theses.fr/1992LYO10037.

Full text
Abstract:
La première partie de cette thèse est centrée sur le problème de l'existence et de l'exhibition effective de pavages de figures finies du PLDAN, avec deux barres (l'une horizontale HM, l'autre verticale VN) avec l'idée de produire des algorithmes de pavages de complexité satisfaisante (linéaire). Nous donnons d'abord trois algorithmes de pavage par H2 et V2 : le premier très général est une conséquence directe de la théorie des couplages d'un graphe; le second permet de paver en temps linéaire toute figure horizontalement convexe. Enfin, nous indiquons un algorithme de pavage d'une figure sans trou, du A W. P. Thurston. Dans le cas général, nous donnons un algorithme de pavage des trapèzes. En introduisant la notion de col, nous donnons un algorithme de pavage des figures horizontalement convexes. Ce même algorithme se généralise à une classe de figures plus grande (figures sans pont). Dans la deuxième partie, nous reprenons les travaux de P. Rosensthiel et de A. Wu et A. Rosenfeld sur la reconnaissance de graphes sous-jacents à un réseau d'automates : nous généralisons la reconnaissance d'un rectangle aux structures classiques : tore, cylindre, moebius et sphère. Pour ce faire, nous avons introduit des méthodes (dans un espace discret) analogues à celles de la géométrie différentielle
APA, Harvard, Vancouver, ISO, and other styles
30

Dhifli, Wajdi. "Fouille de Sous-graphes Basée sur la Topologie et la Connaissance du Domaine: Application sur les Structures 3D de Protéines." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00922209.

Full text
Abstract:
Cette thèse est à l'intersection de deux domaines de recherche en plein expansion, à savoir la fouille de données et la bio-informatique. Avec l'émergence des bases de graphes au cours des dernières années, de nombreux efforts ont été consacrés à la fouille des sous-graphes fréquents. Mais le nombre de sous-graphes fréquents découverts est exponentiel, cela est due principalement à la nature combinatoire des graphes. Beaucoup de sous-graphes fréquents ne sont pas pertinents parce qu'ils sont redondants ou tout simplement inutiles pour l'utilisateur. En outre, leur nombre élevé peut nuire ou même rendre parfois irréalisable toute utilisation ultérieure. La redondance dans les sous-graphes fréquents est principalement due à la similarité structurelle et / ou sémantique, puisque la plupart des sous-graphes découverts diffèrent légèrement dans leur structures et peuvent exprimer des significations similaires ou même identiques. Dans cette thèse, nous proposons deux approches de sélection des sous-graphes représentatifs parmi les fréquents a n d'éliminer la redondance. Chacune des approches proposées s'intéresse à un type spécifique de redondance. La première approche s'adresse à la redondance sémantique où la similarité entre les sous-graphes est mesurée en fonction de la similarité entre les étiquettes de leurs nœuds, en utilisant les connaissances de domaine. La deuxième approche s'adresse à la redondance structurelle où les sous-graphes sont représentés par des descripteurs topologiques définis par l'utilisateur, et la similarité entre les sous-graphes est mesurée en fonction de la distance entre leurs descriptions topologiques respectives. Les principales données d'application de cette thèse sont les structures 3D des protéines. Ce choix repose sur des raisons biologiques et informatiques. D'un point de vue biologique, les protéines jouent un rôle crucial dans presque tous les processus biologiques. Ils sont responsables d'une variété de fonctions physiologiques. D'un point de vue informatique, nous sommes intéressés à la fouille de données complexes. Les protéines sont un exemple parfait de ces données car elles sont faites de structures complexes composées d'acides aminés interconnectés qui sont eux-mêmes composées d'atomes interconnectés. Des grandes quantités de structures protéiques sont actuellement disponibles dans les bases de données en ligne. Les structures 3D des protéines peuvent être transformées en graphes où les acides aminés représentent les nœuds du graphe et leurs connexions représentent les arêtes. Cela permet d'utiliser des techniques de fouille de graphes pour les étudier. L'importance biologique des protéines et leur complexité ont fait d'elles des données d'application appropriées pour cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
31

Viswanathan, Jayalakshmi. "Quand le bruit nous éclaire : une étude sur les mécanismes de la perception et de la mémoire à long-terme pour des stimuli auditifs sans signification." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30334/document.

Full text
Abstract:
L'homme peut discriminer les caractéristiques acoustiques de bruits Gaussiens. Les mécanismes de la mémoire sensorielle à long terme ont récemment été étudiés en utilisant des segments de bruit répétés en continu, ou bruits cycliques (CNs) (Agus et al., 2010). Les sujets devaient discriminer des CNs d'autres bruits aléatoires, certains CNs cibles étant présentés plusieurs fois à l'insu des sujets. Une mémorisation à long terme de ces CNs cibles a été démontrée, soulevant des questions quant aux mécanismes mnésiques sous-jacents. Ici, nous avons étudié la robustesse de cette mémoire, en testant la reconnaissance implicite à long terme (1 mois) de CNs cibles transformés : son enroulé sur lui-même (CNs " looped "), ou brouillé (CNs " scrambled ", 10 ou 20 ms). Nous montrons que de très courts segments de bruit peuvent être stockés en mémoire à long terme (10 ms). Le rôle des structures (sous-corticales) dans cette reconnaissance à long terme a ensuite été étudié par IRMf. Nous observons une trace mnésique des CNs cibles impliquant les premiers relais de la voie auditive, en particulier le corps genouillé médian, ainsi que l'hippocampe. Enfin, nous avons exploré les limites de cette mémoire en présentant des CNs cibles de différentes durées dans une oreille, et des bruits purement aléatoires dans l'autre oreille ; les sujets devant localiser le CN. Un mois après, les sujets ont une reconnaissance implicite de CNs cibles aussi brefs que 10 ms, avec seulement 8 répétitions (80ms). Nous démontrons ainsi : 1) la capacité d'apprendre et de conserver en mémoire des segments de bruit aussi courts que 10 ms, 2) une trace mnésique sous-corticale, dans les régions impliqués dans la perception des sons, 3) ces résultats sont en accord avec les performances de reconnaissance prédites par un modèle d'apprentissage STDP
Humans are able to detect acoustic features in Gaussian noise. Researchers recently used repeating noise segments [cyclic noises (CNs), presenting a segment of noise several times back to back] to investigate long-term sensory memory (Agus et al., 2010). They asked participants to discriminate CNs from plain noise, while implicitly presenting them with a few target CNs several times. The results demonstrated long-term memory for such sounds, which have raised several further questions. First, the robustness of memory for implicitly learned Gaussian sounds was tested using a similar paradigm. Participants' recognition memory was tested by presenting them with looped and scrambled (10 or 20-ms bin size) versions of target CNs 4 weeks post-learning. Our results suggest that neurons might code for very small bits of acoustic information (10 ms). Next, the spatial correlates of memory, specifically, the role of subcortical areas in storing auditory patterns was investigated. Using the same paradigm, participants performed the testing session during fMRI scanning. Implicit memory for target CNs was demonstrated and functional contrasts implicate the Medial Geniculate body and hippocampus. Lastly, we explored the mechanisms and resolution limits of this memory. Participants were presented with CNs in one ear and plain noise in the other ear, and had to localize the CN. Implicit and explicit memory for target CNs was tested 4 weeks later. Although participants lacked conscious memory, they were better at localizing target 10-ms CNs than novel CNs, even with 8 repeats (80 ms). Altogether we demonstrate: 1) the ability to learn and store short acoustic patterns (10 ms); 2) this memory is sub-cortical, in regions implicated in perception of sounds; and 3) these results are compatible with an STDP model of learning
APA, Harvard, Vancouver, ISO, and other styles
32

Haugeard, Jean-Emmanuel. "Extraction et reconnaissance de primitives dans les façades de Paris à l'aide d'appariement de graphes." Thesis, Cergy-Pontoise, 2010. http://www.theses.fr/2010CERG0497.

Full text
Abstract:
Cette dernière décennie, la modélisation des villes 3D est devenue l'un des enjeux de la recherche multimédia et un axe important en reconnaissance d'objets. Dans cette thèse nous nous sommes intéressés à localiser différentes primitives, plus particulièrement les fenêtres, dans les façades de Paris. Dans un premier temps, nous présentons une analyse des façades et des différentes propriétés des fenêtres. Nous en déduisons et proposons ensuite un algorithme capable d'extraire automatiquement des hypothèses de fenêtres. Dans une deuxième partie, nous abordons l'extraction et la reconnaissance des primitives à l'aide d'appariement de graphes de contours. En effet une image de contours est lisible par l'oeil humain qui effectue un groupement perceptuel et distingue les entités présentes dans la scène. C'est ce mécanisme que nous avons cherché à reproduire. L'image est représentée sous la forme d'un graphe d'adjacence de segments de contours, valué par des informations d'orientation et de proximité des segments de contours. Pour la mise en correspondance inexacte des graphes, nous proposons plusieurs variantes d'une nouvelle similarité basée sur des ensembles de chemins tracés sur les graphes, capables d'effectuer les groupements des contours et robustes aux changements d'échelle. La similarité entre chemins prend en compte la similarité des ensembles de segments de contours et la similarité des régions définies par ces chemins. La sélection des images d'une base contenant un objet particulier s'effectue à l'aide d'un classifieur SVM ou kppv. La localisation des objets dans l'image utilise un système de vote à partir des chemins sélectionnés par l'algorithme d'appariement
This last decade, modeling of 3D city became one of the challenges of multimedia search and an important focus in object recognition. In this thesis we are interested to locate various primitive, especially the windows, in the facades of Paris. At first, we present an analysis of the facades and windows properties. Then we propose an algorithm able to extract automatically window candidates. In a second part, we discuss about extraction and recognition primitives using graph matching of contours. Indeed an image of contours is readable by the human eye, which uses perceptual grouping and makes distinction between entities present in the scene. It is this mechanism that we have tried to replicate. The image is represented as a graph of adjacency of segments of contours, valued by information orientation and proximity to edge segments. For the inexact matching of graphs, we propose several variants of a new similarity based on sets of paths, able to group several contours and robust to scale changes. The similarity between paths takes into account the similarity of sets of segments of contours and the similarity of the regions defined by these paths. The selection of images from a database containing a particular object is done using a KNN or SVM classifier
APA, Harvard, Vancouver, ISO, and other styles
33

Boujaada, Elhadi. "Les représentations du fonctionnement du système nerveux véhiculées par le discours d'un manuel de biologie marocain au secondaire, et leur incidence sur la conception de l'apprentissage." Master's thesis, Université Laval, 1988. http://hdl.handle.net/20.500.11794/29320.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Kahindo, Senge Muvingi Christian. "Analyse automatique de l’écriture manuscrite sur tablette pour la détection et le suivi thérapeutique de personnes présentant des pathologies." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL016/document.

Full text
Abstract:
Nous présentons dans cette thèse un nouveau paradigme pour caractériser la maladie d’Alzheimer à travers l’écriture manuscrite acquise sur tablette graphique. L’état de l’art est dominé par des méthodes qui supposent un comportement unique ou homogène au sein de chaque profil cognitif. Ces travaux exploitent des paramètres cinématiques globaux, sur lesquels ils appliquent des tests statistiques ou des algorithmes de classification pour discriminer les différents profils cognitifs (les patients Alzheimer, les troubles cognitifs légers (« Mild Cognitive impairment » : MCI) et les sujets Contrôle (HC)). Notre travail aborde ces deux limites de la littérature de la façon suivante : premièrement au lieu de considérer un comportement homogène au sein de chaque profil cognitif ou classe (HC, MCI, ES-AD : « Early-Stage Alzheimer Disease »), nous nous sommes affranchis de cette hypothèse (ou contrainte) forte de la littérature. Nous considérons qu’il peut y avoir plusieurs comportements au sein de chaque profil cognitif. Ainsi, nous proposons un apprentissage semi-supervisé pour trouver des groupes homogènes de sujets et analysons l’information contenue dans ces clusters ou groupes sur les profils cognitifs. Deuxièmement, au lieu d’exploiter les paramètres cinématiques globaux (ex : vitesse moyenne, pression moyenne, etc.), nous avons défini deux paramétrisations ou codages : une paramétrisation semi-globale, puis locale en modélisant la dynamique complète de chaque paramètre. L’un de nos résultats importants met en évidence deux clusters majeurs qui sont découverts, l’un dominé par les sujets HC et MCI et l’autre par les MCI et ES-AD, révélant ainsi que les patients atteints de MCI ont une motricité fine qui est proche soit des sujets HC, soit des patients ES-AD. Notre travail montre également que la vitesse prise localement regroupe un ensemble riche des caractéristiques telles que la taille, l’inclinaison, la fluidité et la régularité, et révèle comment ces paramètres spatiotemporels peuvent conjointement caractériser les profils cognitifs
We present, in this thesis, a novel paradigm for assessing Alzheimer’s disease by analyzing impairment of handwriting (HW) on tablets, a challenging problem that is still in its infancy. The state of the art is dominated by methods that assume a unique behavioral trend for each cognitive profile, and that extract global kinematic parameters, assessed by standard statistical tests or classification models, for discriminating the neuropathological disorders (Alzheimer’s (AD), Mild Cognitive Impairment (MCI)) from Healthy Controls (HC). Our work tackles these two major limitations as follows. First, instead of considering a unique behavioral pattern for each cognitive profile, we relax this heavy constraint by allowing the emergence of multimodal behavioral patterns. We achieve this by performing semi-supervised learning to uncover homogeneous clusters of subjects, and then we analyze how much information these clusters carry on the cognitive profiles. Second, instead of relying on global kinematic parameters, mostly consisting of their average, we refine the encoding either by a semi-global parameterization, or by modeling the full dynamics of each parameter, harnessing thereby the rich temporal information inherently characterizing online HW. Thanks to our modeling, we obtain new findings that are the first of their kind on this research field. A striking finding is revealed: two major clusters are unveiled, one dominated by HC and MCI subjects, and one by MCI and ES-AD, thus revealing that MCI patients have fine motor skills leaning towards either HC’s or ES-AD’s. This thesis introduces also a new finding from HW trajectories that uncovers a rich set of features simultaneously like the full velocity profile, size and slant, fluidity, and shakiness, and reveals, in a naturally explainable way, how these HW features conjointly characterize, with fine and subtle details, the cognitive profiles
APA, Harvard, Vancouver, ISO, and other styles
35

Ghoumari, Asmaa. "Métaheuristiques adaptatives d'optimisation continue basées sur des méthodes d'apprentissage." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1114/document.

Full text
Abstract:
Les problèmes d'optimisation continue sont nombreux, en économie, en traitement de signal, en réseaux de neurones, etc. L'une des solutions les plus connues et les plus employées est l'algorithme évolutionnaire, métaheuristique basée sur les théories de l'évolution qui emprunte des mécanismes stochastiques et qui a surtout montré de bonnes performances dans la résolution des problèmes d'optimisation continue. L’utilisation de cette famille d'algorithmes est très populaire, malgré les nombreuses difficultés qui peuvent être rencontrées lors de leur conception. En effet, ces algorithmes ont plusieurs paramètres à régler et plusieurs opérateurs à fixer en fonction des problèmes à résoudre. Dans la littérature, on trouve pléthore d'opérateurs décrits, et il devient compliqué pour l'utilisateur de savoir lesquels sélectionner afin d'avoir le meilleur résultat possible. Dans ce contexte, cette thèse avait pour objectif principal de proposer des méthodes permettant de remédier à ces problèmes sans pour autant détériorer les performances de ces algorithmes. Ainsi nous proposons deux algorithmes :- une méthode basée sur le maximum a posteriori qui utilise les probabilités de diversité afin de sélectionner les opérateurs à appliquer, et qui remet ce choix régulièrement en jeu,- une méthode basée sur un graphe dynamique d'opérateurs représentant les probabilités de passages entre les opérateurs, et en s'appuyant sur un modèle de la fonction objectif construit par un réseau de neurones pour mettre régulièrement à jour ces probabilités. Ces deux méthodes sont détaillées, ainsi qu'analysées via un benchmark d'optimisation continue
The problems of continuous optimization are numerous, in economics, in signal processing, in neural networks, and so on. One of the best-known and most widely used solutions is the evolutionary algorithm, a metaheuristic algorithm based on evolutionary theories that borrows stochastic mechanisms and has shown good performance in solving problems of continuous optimization. The use of this family of algorithms is very popular, despite the many difficulties that can be encountered in their design. Indeed, these algorithms have several parameters to adjust and a lot of operators to set according to the problems to solve. In the literature, we find a plethora of operators described, and it becomes complicated for the user to know which one to select in order to have the best possible result. In this context, this thesis has the main objective to propose methods to solve the problems raised without deteriorating the performance of these algorithms. Thus we propose two algorithms:- a method based on the maximum a posteriori that uses diversity probabilities for the operators to apply, and which puts this choice regularly in play,- a method based on a dynamic graph of operators representing the probabilities of transitions between operators, and relying on a model of the objective function built by a neural network to regularly update these probabilities. These two methods are detailed, as well as analyzed via a continuous optimization benchmark
APA, Harvard, Vancouver, ISO, and other styles
36

Defrasne, Ait-Said Elise. "Perception et représentation du mouvement : influences de la verbalisation sur la reconnaissance de mouvements d'escrime en fonction de l'expertise." Thesis, Besançon, 2014. http://www.theses.fr/2014BESA1023/document.

Full text
Abstract:
Faut-il verbaliser pour mémoriser et apprendre ? D’après la littérature examinant l’influence des verbalisations sur l’apprentissage et la mémoire, la réponse à cette question dépend du type de matériel utilisé (matériel conceptuel versus matériel perceptif) et du niveau d’expertise des apprenants. Dans l’Étude 1, nous avons examiné l’incidence de descriptions verbales sur la reconnaissance visuelle de séquences de mouvements d’escrime, avec des participants de trois niveaux d’expertise (novices, intermédiaires et experts). Dans l’Étude 2, nous avons étudié l’influence de différents contenus de descriptions verbales sur la reconnaissance de séquences de mouvements d’escrime, en fonction de l’expertise. L’objectif de l’Étude 3 était d’examiner l’effet sur la mémoire d’une trace autre que verbale : une trace motrice. Les résultats de l’Étude 1 montrent que verbaliser améliore la reconnaissance des novices, altère celle des intermédiaires et n’a aucun effet sur la reconnaissance des experts. Les résultats de l’Étude 2 montrent que le contenu des descriptions verbales a une incidence sur la mémoire, en fonction du niveau d’expertise des participants. Les résultats de l’étude 3 montrent que reproduire le mouvement d’escrime, sans feedback, nuit à la reconnaissance visuelle des participants novices. Ces résultats élargissent le phénomène d’ombrage verbal à un matériel nettement plus conceptuel que celui qui est classiquement utilisé dans ce domaine de recherche. Ils apportent un étayage solide à la proposition théorique de l’interférence résultant d’un recodage verbal (Schooler, 1990). Ils montrent également qu’une trace motrice additionnelle peut nuire à la reconnaissance visuelle de séquences de mouvements
Is it necessary to verbalize in order to memorize and learn a material? According to the literature examining the influence of verbalizations on learning and memory, the answer to this question depends on the type of material used (conceptual material versus perceptive material) and on the learners’ level of expertise. In Study 1, we examined the influence of verbal descriptions on the visual recognition of sequences of fencing movements, with participants of the three levels of expertise (novices, intermediates, experts). In Study 2, we studied the influence of different content of verbal descriptions on the recognition of sequences of fencing movements, according to the level of expertise. The goal of Study 3 was to examine the effect on memory of a trace distinct from a verbal trace: a motor trace. The findings of Study 1 show that verbalizing improves novices’ recognition, impairs intermediates’ recognition and has no effect on experts’ recognition. The results of Study 2 show that the content of verbal descriptions has an effect on memory, according to the participants’ level of expertise. The findings of Study 3 show that duplicating the fencing movement, with no feedback, strongly impedes beginners’ visual recognition. These findings broaden the verbal overshadowing phenomena to a material distinctly more conceptual than the one classically used in this field of research. They bring strong support to the theoretical hypothesis of interference resulting from a verbal recoding (Schooler, 1990). They also show that an additional motor trace can harm visual recognition of movement sequences
APA, Harvard, Vancouver, ISO, and other styles
37

Negreponti, Androniki Iliana. "La prise en compte de l'élève dyslexique dans l'enseignement/apprentissage de l'anglais : une étude qualitative sur les représentations et les points de vue des enseignants, des parents et des élèves dyslexiques en France et en Grèce." Nantes, 2014. http://www.theses.fr/2014NANT3009.

Full text
Abstract:
L'apprentissage d'une langue étrangère constitue un processus complexe, notamment pour les élèves présentant une dyslexie. La présence des difficultés dues à la dyslexie contrarie l'effort fourni par les apprenants et constitue un défi important pour les enseignants de langues étrangères. Le principal objectif de la présente étude est l'exploration et la comparaison de la prise en compte de la dyxlexie lors de l'apprentissage de l'anglais dans la classe ordinaire en France et en Grèce. Plus précisément, elle vise à croiser les représentations et les attitudes des personnes concernée par la dyxlexie. Des entretiens semi-directifs auprès de 31 élèves dyslexiques (18 français et 13 grecs) apprenant l'anglais, 14 parents (6 français et 8 grecs) des élèves dyslexiques et 10 enseignants d'anglais (5 français et 5 grecs) ont été analysés de manière qualitative. Une analyse comparative a été réalisée examinant a/les représentations des élèves dyslexiques sur leurs compétences en anglais et leur support avec cette langue et b/les représentations des parents et des enseignants d'anglais sur la dyslexie, leur rôle dans la prise en charge de celle-ci et la relation école-famille. Si la plupart des apprenants dyslexiques de notre échantillon éprouvent des difficultés dans l'apprentissage de l'anglais et notamment en écrit, ceux-ci manifestent tout de même une attitude positive vis-à-vis de cette langue à l'oral. La situation des élèves dyslexiques se différencie selon des apects qui sont liés aux différents contextes éducatifs, linguistiques et familiaux. En Grèce et en France, les points de vue divergent essentiellement entre les parents et les enseignants.
APA, Harvard, Vancouver, ISO, and other styles
38

Gulikers, Lennart. "Sur deux problèmes d’apprentissage automatique : la détection de communautés et l’appariement adaptatif." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE062/document.

Full text
Abstract:
Dans cette thèse, nous étudions deux problèmes d'apprentissage automatique : (I) la détection des communautés et (II) l'appariement adaptatif. I) Il est bien connu que beaucoup de réseaux ont une structure en communautés. La détection de ces communautés nous aide à comprendre et exploiter des réseaux de tout genre. Cette thèse considère principalement la détection des communautés par des méthodes spectrales utilisant des vecteurs propres associés à des matrices choisiesavec soin. Nous faisons une analyse de leur performance sur des graphes artificiels. Au lieu du modèle classique connu sous le nom de « Stochastic Block Model » (dans lequel les degrés sont homogènes) nous considérons un modèle où les degrés sont plus variables : le « Degree-Corrected Stochastic Block Model » (DC-SBM). Dans ce modèle les degrés de tous les nœuds sont pondérés - ce qui permet de générer des suites des degrés hétérogènes. Nous étudions ce modèle dans deux régimes: le régime dense et le régime « épars », ou « dilué ». Dans le régime dense, nous prouvons qu'un algorithme basé sur une matrice d'adjacence normalisée réussit à classifier correctement tous les nœuds sauf une fraction négligeable. Dans le régime épars il existe un seuil en termes de paramètres du modèle en-dessous lequel n'importe quel algorithme échoue par manque d'information. En revanche, nous prouvons qu'un algorithme utilisant la matrice « non-backtracking » réussit jusqu'au seuil - cette méthode est donc très robuste. Pour montrer cela nous caractérisons le spectre des graphes qui sont générés selon un DC-SBM dans son régime épars. Nous concluons cette partie par des tests sur des réseaux sociaux. II) Les marchés d'intermédiation en ligne tels que des plateformes de Question-Réponse et des plateformes de recrutement nécessitent un appariement basé sur une information incomplète des deux parties. Nous développons un modèle de système d'appariement entre tâches et serveurs représentant le comportement de telles plateformes. Pour ce modèle nous donnons une condition nécessaire et suffisante pour que le système puisse gérer un certain flux de tâches. Nous introduisons également une politique de « back-pressure » sous lequel le débit gérable par le système est maximal. Nous prouvons que cette politique atteint un débit strictement plus grand qu'une politique naturelle « gloutonne ». Nous concluons en validant nos résultats théoriques avec des simulations entrainées par des données de la plateforme Stack-Overflow
In this thesis, we study two problems of machine learning: (I) community detection and (II) adaptive matching. I) It is well-known that many networks exhibit a community structure. Finding those communities helps us understand and exploit general networks. In this thesis we focus on community detection using so-called spectral methods based on the eigenvectors of carefully chosen matrices. We analyse their performance on artificially generated benchmark graphs. Instead of the classical Stochastic Block Model (which does not allow for much degree-heterogeneity), we consider a Degree-Corrected Stochastic Block Model (DC-SBM) with weighted vertices, that is able to generate a wide class of degree sequences. We consider this model in both a dense and sparse regime. In the dense regime, we show that an algorithm based on a suitably normalized adjacency matrix correctly classifies all but a vanishing fraction of the nodes. In the sparse regime, we show that the availability of only a small amount of information entails the existence of an information-theoretic threshold below which no algorithm performs better than random guess. On the positive side, we show that an algorithm based on the non-backtracking matrix works all the way down to the detectability threshold in the sparse regime, showing the robustness of the algorithm. This follows after a precise characterization of the non-backtracking spectrum of sparse DC-SBM's. We further perform tests on well-known real networks. II) Online two-sided matching markets such as Q&A forums and online labour platforms critically rely on the ability to propose adequate matches based on imperfect knowledge of the two parties to be matched. We develop a model of a task / server matching system for (efficient) platform operation in the presence of such uncertainty. For this model, we give a necessary and sufficient condition for an incoming stream of tasks to be manageable by the system. We further identify a so-called back-pressure policy under which the throughput that the system can handle is optimized. We show that this policy achieves strictly larger throughput than a natural greedy policy. Finally, we validate our model and confirm our theoretical findings with experiments based on user-contributed content on an online platform
APA, Harvard, Vancouver, ISO, and other styles
39

Halftermeyer, Pierre. "Connexité dans les Réseaux et Schémas d’Étiquetage Compact d’Urgence." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0140/document.

Full text
Abstract:
L’objectif de cette thèse est d’attribuer à chaque sommet x d’un graphe G à n sommets une étiquette L(x) de taille compacte O(log n) bits afin de pouvoir :1. construire, à partir des étiquettes d’un ensemble de sommets en panne X C V (G), une structure de donnée S(X)2. décider, à partir de S(X) et des étiquettes L(u) et L(v), si les sommets u et v sont connectés dans le graphe G n X.Nous proposons une solution à ce problème pour la famille des graphes 3-connexes de genre g (via plusieurs résultats intermédiaires).— Les étiquettes sont de taille O(g log n) bits— Le temps de construction de la structure de donnée S(X) est O(Sort([X]; n)).— Le temps de décision est O(log log n). Ce temps est optimal.Nous étendons ce résultat à la famille des graphes excluant un mineur H fixé. Les étiquettes sont ici de taille O(polylog n) bits
We aim at assigning each vertex x of a n-vertices graph G a compact O(log n)-bit label L(x) in order to :1. construct, from the labels of the vertices of a forbidden set X C V (G), a datastructure S(X)2. decide, from S(X), L(u) and L(v), whether two vertices u and v are connected in G n X.We give a solution to this problem for the family of 3-connected graphs whith bounded genus.— We obtain O(g log n)-bit labels.— S(X) is computed in O(Sort([X]; n)) time.— Connection between vertices is decided in O(log log n) optimal time.We finally extend this result to H-minor-free graphs. This scheme requires O(polylog n)-bit labels
APA, Harvard, Vancouver, ISO, and other styles
40

Rosar, Kós Lassance Carlos Eduardo. "Graphs for deep learning representations." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0204.

Full text
Abstract:
Ces dernières années, les méthodes d'apprentissage profond ont atteint l'état de l'art dans une vaste gamme de tâches d'apprentissage automatique, y compris la classification d'images et la traduction automatique. Ces architectures sont assemblées pour résoudre des tâches d'apprentissage automatique de bout en bout. Afin d'atteindre des performances de haut niveau, ces architectures nécessitent souvent d'un très grand nombre de paramètres. Les conséquences indésirables sont multiples, et pour y remédier, il est souhaitable de pouvoir comprendre ce qui se passe à l'intérieur des architectures d'apprentissage profond. Il est difficile de le faire en raison de: i) la dimension élevée des représentations ; et ii) la stochasticité du processus de formation. Dans cette thèse, nous étudions ces architectures en introduisant un formalisme à base de graphes, s'appuyant notamment sur les récents progrès du traitement de signaux sur graphe (TSG). À savoir, nous utilisons des graphes pour représenter les espaces latents des réseaux neuronaux profonds. Nous montrons que ce formalisme des graphes nous permet de répondre à diverses questions, notamment: i) mesurer des capacités de généralisation ;ii) réduire la quantité de des choix arbitraires dans la conception du processus d'apprentissage ; iii)améliorer la robustesse aux petites perturbations ajoutées sur les entrées ; et iv) réduire la complexité des calculs
In recent years, Deep Learning methods have achieved state of the art performance in a vast range of machine learning tasks, including image classification and multilingual automatic text translation. These architectures are trained to solve machine learning tasks in an end-to-end fashion. In order to reach top-tier performance, these architectures often require a very large number of trainable parameters. There are multiple undesirable consequences, and in order to tackle these issues, it is desired to be able to open the black boxes of deep learning architectures. Problematically, doing so is difficult due to the high dimensionality of representations and the stochasticity of the training process. In this thesis, we investigate these architectures by introducing a graph formalism based on the recent advances in Graph Signal Processing (GSP). Namely, we use graphs to represent the latent spaces of deep neural networks. We showcase that this graph formalism allows us to answer various questions including: ensuring generalization abilities, reducing the amount of arbitrary choices in the design of the learning process, improving robustness to small perturbations added to the inputs, and reducing computational complexity
APA, Harvard, Vancouver, ISO, and other styles
41

Kosowska-Stamirowska, Zuzanna. "Évolution et robustesse du réseau maritime mondial : une approche par les systèmes complexes." Thesis, Paris 1, 2020. http://www.theses.fr/2020PA01H022.

Full text
Abstract:
Plus de 70% de la valeur totale du commerce international est acheminée par voie maritime, ce qui représente 80% de la totalité du fret en volume. En 2016, le secrétaire général de l’ONU a attiré l’attention sur le rôle du transport maritime, qu’il décrit comme « l’épine dorsale du commerce mondial et de l’économie mondiale”. Les flux du commerce maritime ont un impact non seulement sur le développement économique des régions concernées, mais également sur leurs écosystèmes. Les navires en mouvement étant notamment un important vecteur de propagation pour les bioinvasions. En parallèle, l’avenir du secteur du transport maritime est inextricablement lié au changement climatique : les mouvements de navires contribuent de manière significative aux émissions mondiales de CO2, de NOx et de SOx, avec des émissions de CO2 comparables à celles de l’Allemagne et des émissions de NOx et de SOx comparables à celles des États-Unis. Le développement de la navigation dans l’Arctique devenant une réalité, la nécessité de comprendre le comportement de ce système et de prévoir les futurs flux du commerce maritime s’impose. Malgré l’importance évidente et cruciale de la logistique maritime pour l’économie mondiale, très peu de travaux fournissent une vue détaillée de la répartition mondiale des flux commerciaux maritimes, et encore moins n’analysent leur évolution sur le long terme et les règles qui les régissent. Dans cette thèse, nous utilisons une base de données unique sur les mouvements quotidiens de la flotte mondiale entre 1977 et 2008, fournie par l’assureur maritime Lloyd’s, afin de constituer un réseau complexe des flux du commerce maritime où les ports représentent les nœuds et les liens sont créés par les traversées de navires. Dans cette thèse, nous effectuons une analyse du réseau du commerce maritime qui est entièrement data-driven. Nous utilisons des outils issus de la science de la complexité et de Machine Learning appliqués aux données de réseau pour étudier les propriétés de ce réseau et développer des modèles de prévision des ouvertures de nouvelles lignes maritimes et des volumes des flux commerciaux futurs sur des liens. L’application du Machine Learning pour analyser les flux commerciaux sur le réseau nous paraît être une nouvelle approche par rapport à l’état de l’art. Cette approche nécessitait une sélection et une modification soigneuses des outils d’apprentissage automatique existants pour les adapter aux données de type réseau et sur des flux physiques. Les résultats de la thèse suggèrent que le commerce maritime suit une marche aléatoire sur la structure sous-jacente du réseau. [...] Grâce à une expérience naturelle impliquant une redirection du trafic du port de Kobe après le tremblement de terre de 1995, nous constatons que le trafic a été redirigé de préférence vers les ports qui avaient le plus grand nombre de voisins communs avec Kobe avant la catastrophe naturelle. Ensuite, en simulant des attaques ciblées sur le réseau du commerce maritime, nous analysons les meilleurs critères qui permettraient de maximiser les dommages causés au réseau, ainsi que la robustesse générale du réseau face aux différents types d’attaques. Tous ces résultats suggèrent que les flux commerciaux maritimes suivent une forme de marche aléatoire sur le réseau des connexions maritimes, ce qui fournit la preuve d’une vision nouvelle de la nature des flux commerciaux
Over 70% of the total value of international trade is carried by sea, accounting for 80% of all cargo in terms of volume. In 2016, the UN Secretary General drew attention to the role of maritime transport, describing it as “the backbone of global trade and of the global economy”. Maritime trade flows impact not only the economic development of the concerned regions, but also their ecosystems. Moving ships are an important vector of spread for bioinvasions. Shipping routes are constantly evolving and likely to be affected by the consequences of Climate Change, while at the same time ships are a considerable source of air pollution, with CO2 emissions at a level comparable to Germany, and NOx and SOx emissions comparable to the United States. With the development of Arctic shipping becoming a reality, the need to understand the behavior of this system and to forecast future maritime trade flows reasserts itself. Despite their scope and crucial importance, studies of maritime trade flows on a global scale, based on data and formal methods are scarce, and even fewer studies address the question of their evolution. In this thesis we use a unique database on daily movements of the world fleet between 1977 and 2008 provided by the maritime insurer Lloyd’s in order to build a complex network of maritime trade flows where ports stand for nodes and links are created by ship voyages. In this thesis we perform a data-driven analysis of the maritime trade network. We use tools from Complexity Science and Machine Learning applied on network data to study the network’s properties and develop models for predicting the opening of new shipping lines and for forecasting future trade volume on links. Applying Machine Learning to analyse networked trade flows appears to be a new approach with respect to the state-of-the-art, and required careful selection and customization of existing Machine Learning tools to make them fit networked data on physical flows. The results of the thesis suggest a hypothesis of trade following a random walk on the underlying network structure. [...] Thanks to a natural experiment, involving traffic redirection from the port of Kobe after the 1995 earthquake, we find that the traffic was redirected preferentially to ports which had the highest number of Common Neighbors with Kobe before the cataclysm. Then, by simulating targeted attacks on the maritime trade network, we analyze the best criteria which may serve to maximize the harm done to the network and analyse the overall robustness of the network to different types of attacks. All these results hint that maritime trade flows follow a form of random walk on the network of sea connections, which provides evidence for a novel view on the nature of trade flows
APA, Harvard, Vancouver, ISO, and other styles
42

Allani, Atig Olfa. "Une approche de recherche d'images basée sur la sémantique et les descripteurs visuels." Thesis, Paris 8, 2017. http://www.theses.fr/2017PA080032.

Full text
Abstract:
La recherche d’image est une thématique de recherche très active. Plusieurs approches permettant d'établir un lien entre les descripteurs de bas niveau et la sémantique ont été proposées. Parmi celles-là, nous citons la reconnaissance d'objets, les ontologies et le bouclage de pertinence. Cependant, leur limitation majeure est la haute dépendance d’une ressource externe et l'incapacité à combiner efficacement l'information visuelle et sémantique. Cette thèse propose un système basé sur un graphe de patrons, la sélection ciblée des descripteurs pour la phase en ligne et l'amélioration de la visualisation des résultats. L'idée est de (1) construire un graphe de patrons composé d'une ontologie modulaire et d'un modèle basé graphe pour l'organisation de l'information sémantique, (2) de construire un ensemble de collections de descripteurs pour guider la sélection des descripteurs à appliquer durant la recherche et (3) améliorer la visualisation des résultats en intégrant les relations sémantiques déduite du graphe de patrons.Durant la construction de graphe de patrons, les modules ontologiques associés à chaque domaine sont automatiquement construits. Le graphe de régions résume l'information visuelle en un format plus condensé et la classifie selon son domaine. Le graphe de patrons est déduit par composition de modules ontologiques. Notre système a été testé sur trois bases d’images. Les résultats obtenus montrent une amélioration au niveau du processus de recherche, une meilleure adaptation des descripteurs visuels utilisés aux domaines couverts et une meilleure visualisation des résultats qui diminue le niveau d’abstraction par rapport à leur logique de génération
Image retrieval is a very active search area. Several image retrieval approaches that allow mapping between low-level features and high-level semantics have been proposed. Among these, one can cite object recognition, ontologies, and relevance feedback. However, their main limitation concern their high dependence on reliable external resources and lack of capacity to combine semantic and visual information.This thesis proposes a system based on a pattern graph combining semantic and visual features, relevant visual feature selection for image retrieval and improvement of results visualization. The idea is (1) build a pattern graph composed of a modular ontology and a graph-based model, (2) to build visual feature collections to guide feature selection during online retrieval phase and (3) improve the retrieval results visualization with the integration of semantic relations.During the pattern graph building, ontology modules associated to each domain are automatically built using textual corpuses and external resources. The region's graphs summarize the visual information in a condensed form and classify it given its semantics. The pattern graph is obtained using modules composition. In visual features collections building, association rules are used to deduce the best practices on visual features use for image retrieval. Finally, results visualization uses the rich information on images to improve the results presentation.Our system has been tested on three image databases. The results show an improvement in the research process, a better adaptation of the visual features to the domains and a richer visualization of the results
APA, Harvard, Vancouver, ISO, and other styles
43

Bautista, Ruiz Esteban. "Laplacian Powers for Graph-Based Semi-Supervised Learning." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEN081.

Full text
Abstract:
Les techniques d’apprentissage semi-supervisé basées sur des graphes (G-SSL) permettent d’exploiter des données étiquetées et non étiquetées pour construire de meilleurs classifiers. Malgré de nombreuses réussites, leur performances peuvent encore être améliorées, en particulier dans des situations ou` les graphes ont une faible séparabilité de classes ou quand le nombres de sujets supervisés par l’expert est déséquilibrés. Pour aborder ces limitations on introduit une nouvelle méthode pour G-SSL, appel´ee Lγ -PageRank, qui constitue la principal contribution de cette th`ese. Il s’agit d’une g´en´eralisation de l’algorithme PageRank ´a partir de l’utilisation de puissances positives γ de la matrice Laplacienne du graphe. L’étude théorique de Lγ -PageRank montre que (i) pour γ < 1, cela correspond `a une extension de l’algorithme PageRank aux processus de vol de L´evy: ou` les marcheurs aléatoires peuvent désormais relier, en un seul saut, des nœuds distants du graphe; et (ii) pour γ > 1, la classification est effectué sur des graphes signés: ou` les nœuds appartenant `a une même classe ont plus de chances de partager des liens positifs, tandis que les nœuds de classes différentes ont plus de chances d’être connectés avec des arêtes négatifs. Nous montrons l’existence d’une puissance optimale γ qui maximise la performance de classification, pour laquelle une méthode d’estimation automatique est conçue et évaluée. Des expériences sur plusieurs jeux de données montrent que les marcheurs aléatoires de vols de Lévy peuvent améliorer la détection des classes ayant des structures locales complexes, tandis que les graphes signés permet d’améliorer considérablement la séparabilité des données et de surpasser le problème des données étiquetées non équilibrées. Dans un second temps, nous étudions des implémentations efficaces de Lγ -PageRank. Nous proposons des extensions de Power Iteration et Gauss-Southwell pour Lγ -PageRank, qui sont des algorithmes initialement conçues pour calculer efficacement la solution de la méthode PageRank standard. Ensuite, les versions dynamiques de ces algorithmes sont également étendues à Lγ -PageRank, permettant de mettre `a jour la solution de Lγ -PageRank en complexité sub-linéaire lorsque le graphe évolue ou que de nouvelles données arrivent. Pour terminer, nous appliquons Lγ -PageRank dans le contexte du routage Internet. Nous abordons le problème de l’identification des systèmes autonomes (AS) pour des arêtes inter-AS `a partir du réseau d’adresses IP et des registres publics des AS. Des expériences sur des mesures traceroute d’Internet montrent que Lγ -PageRank peut résoudre cette tâche sans erreurs, même lorsqu’il n’y a pas d’exemples étiquetés par l’expert pour la totalité des classes
Graph-Based Semi-Supervised Learning (G-SSL) techniques learn from both labelled and unla- belled data to build better classifiers. Despite successes, its performance can still be improved, particularly in cases of graphs with unclear clusters or unbalanced labelled datasets. To ad- dress such limitations, the main contribution of this dissertation is a novel method for G-SSL referred to as the Lγ -PageRank method. It consists of a generalization of the PageRank algo- rithm based on the positive γ-th powers of the graph Laplacian matrix. The theoretical study of Lγ -PageRank shows that (i) for γ < 1, it corresponds to an extension of the PageRank algo- rithm to L´evy processes: where random walkers can now perform far-distant jumps in a single step; and (ii) for γ > 1, it operates on signed graphs: where nodes belonging to one same class are more likely to share positive edges while nodes from different classes are more likely to be connected with negative edges. We show the existence of an optimal γ-th power that maximizes performance, for which a method for its automatic estimation is devised and assessed. Exper- iments on several datasets demonstrate that the L´evy flight random walkers can enhance the detection of classes with complex local structures and that the signed graphs can significantly improve the separability of data and also override the issue of unbalanced labelled data. In addition, we study efficient implementations of Lγ -PageRank. Extensions of Power Iteration and Gauss-Southwell, successful algorithms to efficiently compute the solution of the standard PageRank algorithm, are derived for Lγ -PageRank. Moreover, the dynamic versions of Power Iteration and Gauss-Southwell, which can update the solution of standard PageRank in sub- linear complexity when the graph evolves or new data arrive, are also extended to Lγ -PageRank. Lastly, we apply Lγ -PageRank in the context of Internet routing. We address the problem of identifying the Autonomous Systems (AS) of inter-AS links from the network of IP addresses and AS public registers. Experiments on tracerout measurements collected from the Internet show that Lγ -PageRank can solve this inference task with no errors, even when the expert does not provide labelled examples of all classes
APA, Harvard, Vancouver, ISO, and other styles
44

Pasdeloup, Bastien. "Extending convolutional neural networks to irregular domains through graph inference." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0048/document.

Full text
Abstract:
Tout d'abord, nous présentons des méthodes permettant d'inférer un graphe à partir de signaux, afin de modéliser le support des données à classifier. Ensuite, des translations préservant les voisinages des sommets sont identifiées sur le graphe inféré. Enfin, ces translations sont utilisées pour déplacer un noyau convolutif sur le graphe, afin dedéfinir un réseau de neurones convolutif adapté aux données d'entrée.Nous avons illustré notre méthodologie sur une base de données d'images. Sans utiliser de connaissances sur les signaux, nous avons pu inférer un graphe proche d'une grille. Les translations sur ce graphe sont proches des translations Euclidiennes, ce qui nous a permis de définir un réseau de neurones convolutif très similaire à ce que l'on aurait pu obtenir en utilisant l'information que les signaux sont des images. Ce réseau, entraîné sur les données initiales, a dépassé lesperformances des méthodes de l'état de l'art de plus de 13 points, tout en étant simple et facilement améliorable.La méthode que nous avons introduite est une généralisation des réseaux de neurones convolutifs, car ceux-ci sont des cas particuliers de notre approche quand le graphe est une grille. Nos travaux ouvrent donc de nombreuses perspectives, car ils fournissent une méthode efficace pour construire des réseaux adaptés aux données
This manuscript sums up our work on extending convolutional neuralnetworks to irregular domains through graph inference. It consists of three main chapters, each giving the details of a part of a methodology allowing the definition of such networks to process signals evolving on graphs with unknown structures.First, graph inference from data is explored, in order to provide a graph modeling the support of the signals to classify. Second, translation operators that preserve neighborhood properties of the vertices are identified on the inferred graph. Third, these translations are used to shift a convolutional kernel on the graph in order to define a convolutional neural network that is adapted to the input data.We have illustrated our methodology on a dataset of images. While not using any particular knowledge on the signals, we have been able to infer a graph that is close to a grid. Translations on this graph resemble Euclidean translations. Therefore, this has allowed us to define an adapted convolutional neural network that is very close what one would obtain when using the information that signals are images. This network, trained on the initial data, has out performed state of the art methods by more than 13 points, while using a very simple and easily improvable architecture.The method we have introduced is a generalization of convolutional neural networks. As a matter of fact, they can be seen as aparticularization of our approach in the case where the graph is a grid. Our work thus opens the way to numerous perspectives, as it provides an efficient way to build networks that are adapted to the data
APA, Harvard, Vancouver, ISO, and other styles
45

Viale, Benjamin. "Development of predictive analysis solutions for the ESD robustness of integrated circuits in advanced CMOS technologies." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI117.

Full text
Abstract:
Les circuits intégrés (CI) devenant de plus en plus complexes et vulnérables face aux décharges électrostatiques (ESD pour ElectroStatic Discharge), la capacité à vérifier de manière fiable la présence de défauts de conception ESD sur des puces comptant plusieurs milliards de transistors avant tout envoi en fabrication est devenu un enjeu majeur dans l’industrie des semi-conducteurs. Des outils commerciaux automatisés de dessin électronique (EDA pour Electronic Design Automation) et leur flot de vérification associé permettent d’effectuer différents types de contrôles qui se sont révélés être efficaces pour des circuits avec une architecture classique. Cependant, ils souffrent de limitations lorsqu’ils sont confrontés à des architectures inhabituelles, dites custom. De plus, ces méthodes de vérification sont généralement effectuées tard dans le flot de conception, rendant toute rectification de dessin coûteuse en termes d’efforts correctifs et de temps. Cette thèse de doctorat propose une méthodologie de vérification ESD systématique et multi-échelle introduite dans un outil appelé ESD IP Explorer qui a été spécifiquement implémenté pour couvrir le flot de conception dans sa globalité et pour adresser des circuits dits custom. Il est composé d’un module de reconnaissance et d’un module de vérification. Le module de reconnaissance identifie tout d’abord et de manière automatisée les structures de protection ESD, embarquées sur silicium dans le circuit intégré pour améliorer leur robustesse ESD, selon un mécanisme de reconnaissance topologique. Le module de vérification convertit ensuite le réseau de protection ESD, formé des structures de protection ESD, en un graphe dirigé. Finalement, une analyse ESD quasi-statique reposant sur des algorithmes génériques issus de la théorie des graphes est effectuée sur la globalité du circuit à vérifier. Des algorithmes d’apprentissage automatique ont été employés pour prédire les comportements quasi-statiques des protections ESD à partir des paramètres d’instance de leurs composants élémentaires sous la forme d’une liste d’interconnexions. L’avantage ici est qu’aucune simulation électrique n’est requise pendant toute la durée d’exécution d’ESD IP Explorer, ce qui simplifie l’architecture de l’outil et accélère l’analyse. Les efforts d’implémentation ont été concentrés sur la compatibilité d’ESD IP Explorer avec le nœud technologique 28nm FD-SOI (pour Fully Depleted Silicon On Insulator). L’outil de vérification développé a été utilisé avec succès pour l’analyse d’un circuit incorporant des parties numériques et à signaux mixtes et comprenant plus de 1,5 milliard de transistors en seulement quelques heures. Des circuits custom qui n’ont pas pu être vérifiés au moyen d’outils de vérification traditionnels du fait de problèmes d’incompatibilité ont également pu être soumis à analyse grâce à ESD IP Explorer
As Integrated Circuits (ICs) become more complex and susceptible to ElectroStatic Discharges (ESD), the ability to reliably verify the presence of ESD design weaknesses over a multi-billion transistor chip prior to the tape-out is a major topic in the semiconductor industry. Commercial tools dedicated to Electronic Design Automation (EDA) and related verification flows are in charge of providing checks that have been proven to be efficient for circuits with a mainstream architecture. However, they suffer limitations when confronted with custom designs. Moreover, these verification methods are often run late in the design flow, making any design re-spin costly in terms of corrective efforts and time. This Ph. D. thesis proposes a systematic and scalable ESD verification methodology embodied in a tool called ESD IP Explorer that has been specifically implemented to cover the entire design flow and to comply with custom circuit architectures. It is composed of a recognition module and a verification module. The recognition module first automatically identifies ESD protection structures, embedded in integrated circuits to enhance their ESD hardness, according to a topology-aware recognition mechanism. The verification module then converts the ESD protection network that is formed by ESD protection structures into a directed graph. There, technology-independent and graph-based verification mechanisms perform a chip-scale quasistatic ESD analysis. Machine learning algorithms have been used in order to infer the quasistatic behavior of ESD IPs from the netlist instance parameters of their primary devices. This approach has the advantage that no simulation is required during the execution of ESD IP Explorer, which makes the tool architecture simpler and improves execution times. Implementation efforts pertained to the compliance of ESD IP Explorer with the 28nm Fully Depleted Silicon On Insulator (FD-SOI) technology node. The developed verification tool has been used to successfully analyze a digital and mixed-signal circuit prototype counting more than 1.5 billion transistors in several hours, as well as custom designs that could not be analyzed by means of traditional verification tools due to incompatibility issues
APA, Harvard, Vancouver, ISO, and other styles
46

Lajoie, Isabelle. "Apprentissage de représentations sur-complètes par entraînement d’auto-encodeurs." Thèse, 2009. http://hdl.handle.net/1866/3768.

Full text
Abstract:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Progress in the machine learning domain allows computational system to address more and more complex tasks associated with vision, audio signal or natural language processing. Among the existing models, we find the Artificial Neural Network (ANN), whose popularity increased suddenly with the recent breakthrough of Hinton et al. [22], that consists in using Restricted Boltzmann Machines (RBM) for performing an unsupervised, layer by layer, pre-training initialization, of a Deep Belief Network (DBN), which enables the subsequent successful supervised training of such architecture. Since this discovery, researchers studied the efficiency of other similar pre-training strategies such as the stacking of traditional auto-encoder (SAE) [5, 38] and the stacking of denoising auto-encoder (SDAE) [44]. This is the context in which the present study started. After a brief introduction of the basic machine learning principles and of the pre-training methods used until now with RBM, AE and DAE modules, we performed a series of experiments to deepen our understanding of pre-training with SDAE, explored its different proprieties and explored variations on the DAE algorithm as alternative strategies to initialize deep networks. We evaluated the sensitivity to the noise level, and influence of number of layers and number of hidden units on the generalization error obtained with SDAE. We experimented with other noise types and saw improved performance on the supervised task with the use of pepper and salt noise (PS) or gaussian noise (GS), noise types that are more justified then the one used until now which is masking noise (MN). Moreover, modifying the algorithm by imposing an emphasis on the corrupted components reconstruction during the unsupervised training of each different DAE showed encouraging performance improvements. Our work also allowed to reveal that DAE was capable of learning, on naturals images, filters similar to those found in V1 cells of the visual cortex, that are in essence edges detectors. In addition, we were able to verify that the learned representations of SDAE, are very good characteristics to be fed to a linear or gaussian support vector machine (SVM), considerably enhancing its generalization performance. Also, we observed that, alike DBN, and unlike SAE, the SDAE had the potential to be used as a good generative model. As well, we opened the door to novel pre-training strategies and discovered the potential of one of them : the stacking of renoising auto-encoders (SRAE).
APA, Harvard, Vancouver, ISO, and other styles
47

Habib, Maria. "Influence du français langue seconde sur les représentations identitaires des jeunes au Liban." Phd thesis, 2009. http://tel.archives-ouvertes.fr/tel-00411947.

Full text
Abstract:
Notre recherche s'inscrit dans le cadre général des recherches sur les représentations identitaires et plus particulièrement celles liées au bilinguisme français/arabe. Nous y étudions, à travers des tests conçus et construits à cet effet, les réponses associatives des élèves libanais en classe de terminal, fréquentant des établissements scolaires représentatifs du terrain libanais. Nous avons élaboré et mis en œuvre une méthode spécifique d'identification des représentations inspirée du cadre général de la théorie du noyau central. Une analyse quantitative et qualitative des données recueillies, a fait apparaître les enjeux et les interactions sur le plan culturel et sur les représentations quand les deux langues sont en présence. Nos résultats dévoilent l'influence du français langue seconde et de la culture qu'il véhicule sur la construction des représentations. Cette étude a montré qu'il n y a pas de dichotomie entre les deux cultures et les deus langues malgré la distance linguistique et culturelle qui les sépare ; et qu'il n y a pas de rupture psycho linguistique quand le sujet passe d'une langue à une autre. La langue française aux côtés de la langue arabe, enrichit les sujets sur le plan culturel et personnel mais n'arrive à supplanter la culture véhiculée par la langue arabe. Toutefois, cette complémentarité entre les deux cultures confère aux sujets une souplesse et une capacité de s'adapter en fonction de la situation et du contexte. C'est cette complémentarité entre les deux cultures qui est l'essence même de l'originalité de l'identité des libanais.
APA, Harvard, Vancouver, ISO, and other styles
48

Assouel, Rim. "Entity-centric representations in deep learning." Thesis, 2020. http://hdl.handle.net/1866/24306.

Full text
Abstract:
Humans' incredible capacity to model the complexity of the physical world is possible because they cast this complexity as the composition of simpler entities and rules to process them. Extensive work in cognitive science indeed shows that human perception and reasoning ability is structured around objects. Motivated by this observation, a growing number of recent work focused on entity-centric approaches to learning representation and their potential to facilitate downstream tasks. In the first contribution, we show how an entity-centric approach to learning a transition model allows us to extract meaningful visual entities and to learn transition rules that achieve better compositional generalization. In the second contribution, we show how an entity-centric approach to generating graphs allows us to design a model for conditional graph generation that permits direct optimisation of the graph properties. We investigate the performance of our model in a prototype-based molecular graph generation task. In this task, called lead optimization in drug discovery, we wish to adjust a few physico-chemical properties of a molecule that has proven efficient in vitro in order to make a drug out of it.
L'incroyable capacité des humains à modéliser la complexité du monde physique est rendue possible par la décomposition qu'ils en font en un ensemble d'entités et de règles simples. De nombreux travaux en sciences cognitives montre que la perception humaine et sa capacité à raisonner est essentiellement centrée sur la notion d'objet. Motivés par cette observation, de récents travaux se sont intéressés aux différentes approches d'apprentissage de représentations centrées sur des entités et comment ces représentations peuvent être utilisées pour résoudre plus facilement des tâches sous-jacentes. Dans la première contribution on montre comment une architecture centrée sur la notion d'entité va permettre d'extraire des entités visuelles interpretables et d'apprendre un modèle du monde plus robuste aux différentes configurations d'objets. Dans la deuxième contribution on s’intéresse à un modèle de génération de graphes dont l'architecture est également centrée sur la notion d'entités et comment cette architecture rend plus facile l'apprentissage d'une génération conditionelle à certaines propriétés du graphe. On s’intéresse plus particulièrement aux applications en découverte de médicaments. Dans cette tâche, on souhaite optimiser certaines propriétés physico-chmiques du graphe d'une molécule qui a été efficace in-vitro et dont on veut faire un médicament.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography