Dissertations / Theses on the topic 'Apprentissage géométrique'

To see the other types of publications on this topic, follow the link: Apprentissage géométrique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Apprentissage géométrique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Tachoua, Njoud. "Interactions enseignant-élèves et situations d'enseignement-apprentissage en optique géométrique." Lyon 2, 2005. http://theses.univ-lyon2.fr/documents/lyon2/2005/tachoua_n.

Full text
Abstract:
Le domaine de la physique étudié est l'optique géométrique. Le contexte institutionnel est celui de la classe de Première de l'enseignement secondaire, filière scientifique. Le travail porte sur la relation entre les interactions enseignant-élèves et élève-élève et la construction de la compréhension conceptuelle chez les élèves du point de vue de la modélisation et de l'utilisation des registres sémiotiques. La méthode choisie est celle de l'étude de cas dans une classe réelle, basée sur l'enregistrement continu des productions verbales et des gestes d'une paire d'élève et de l'enseignant. Notre principal résultat est que les deux élèves se sont approprié un langage lié à la modélisation et ont réussi l'utilisation l'un des registres qui est le schéma en collaborant ensemble et en interagissant avec l'enseignant. Leurs verbalisations nous ont montré qu'ils ont construit une compréhension conceptuelle de la notion de décomposition en points d'un objet lumineux et de la formation des images à travers une lentille et un miroir
The studied domain of Physics is geometrical Optics. The teaching sequence takes place at grade 11 (scientific route) of upper secondary school. Our objective is to analyse the nature of the links between teacher-students and student-student interactions and the evolution of students' understanding of Physics concepts. For us an essential aspect of the Physics concepts is their capability to ensure modelling processes and to articulate a representation in various semiotic registers. We chose a case study methodology in a normal class, grounded upon the complete recording of the verbal and gesture activity of the teacher and of two students. Our main result is that students have acquired a modelling language and that they successfully used a given semiotic register (the schematic register) by collaborating each other and with teacher. Their verbalisation shows that they have constructed a conceptual comprehension of the decomposition in elementary points of an object and of image formation through converging lens and mirror
APA, Harvard, Vancouver, ISO, and other styles
2

Glachet, Roland. "Modélisation géométrique par apprentissage de cylindres droits généralisés homogènes en vision monoculaire." Clermont-Ferrand 2, 1992. http://www.theses.fr/1992CLF21414.

Full text
Abstract:
Les travaux presentes dans ce memoire concernent la modelisation d'un objet tridimensionnel, a partir d'une collection d'images qui presentent des aspects differents et complementaires de ce meme objet et pour laquelle le deplacement de la camera entre les differents points de vue n'est pas connu. La methodologie proposee repose sur l'analyse geometrique de la classe des objets traites et sur l'interpretation des contours percus dans les images, sous l'hypothese d'une projection perspective. Le premier chapitre rappelle un certain nombre de definitions et de proprietes geometriques relatives aux objets consideres, a leurs limbes et a leur projection perspective. Le second est consacre a la modelisation des objets de revolution, sous-classe importante des cylindres droits generalises homogenes. Un processus complet de modelisation base sur un ensemble d'algorithmes originaux, est propose: recherche de la projetee de l'axe dans l'image, localisation de l'objet a partir de diverses primitives puis utilisation de l'attitude de l'objet pour inferer la forme de ce dernier. Le troisieme chapitre tend a etendre les techniques precedentes aux cylindres droits generalises homogenes. La faisabilite d'une approche similaire a celle du chapitre precedent est montree, mais laisse apparaitre l'extreme complexite des algorithmes mis en jeu, due a la perte des proprietes specifiques des objets de revolution
APA, Harvard, Vancouver, ISO, and other styles
3

Buty, Christian. "Etude d'un apprentissage dans une séquence d'enseignement en optique géométrique à l'aide d'une modélisation informatique." Lyon 2, 2000. http://theses.univ-lyon2.fr/documents/lyon2/2000/buty_c.

Full text
Abstract:
Le domaine de la physique étudié est l'optique géométrique. Le contexte institutionnel est celui de la dernière année de l'enseignement secondaire, en classe réelle, dans un enseignement de "cours-TP" pendant une séquence de huit semaines. Les élèves disposent d'une représentation informatisée d'expériences utilisant un matériel classique. .
The studied domain of Physics is geometrical optics. The teaching sequence takes place in the last class of upper secondary school, in a normal class, during a eight-weeks-long lecture. The students use a computer-based representation of classical experiments. .
APA, Harvard, Vancouver, ISO, and other styles
4

Boubakeur-Amghar, Samia. "Approche géométrique de l'apprentissage numérique supervisé : une formalisation prétopologique." Lyon 1, 1995. http://www.theses.fr/1995LYO10262.

Full text
Abstract:
Les techniques des plus proches voisins elaborees pour le traitement des problemes de reconnaissance de formes supervisee, abordees sous l'angle de l'approche geometrique, s'appuient sur une vision locale, qui a l'avantage d'exploiter scrupuleusement l'information locale de l'ensemble d'apprentissage, et sur le principe simple que deux individus voisins ont de fortes chances d'appartenir a la meme classe. Cependant, en contre partie, on perd completement de vue la notion de separabilite des classes. Si ces techniques sont faciles a mettre en uvre, elles presentent, neanmoins, un inconvenient majeur, a savoir la non prise en compte du contexte, donnee a notre point de vue fort importante. En s'appuyant sur la meme vision que ces techniques, nous proposons un critere de classement qui tient compte de deux facteurs importants que sont la densite locale des etiquettes identiques et la proximite entre individus. Pour cela, nous avons ete amenes a definir les voisinages d'ordre k (k=1,2,) en se basant sur un formalisme pretopologique nous permettant de bien structurer l'ensemble d'apprentissage selon une structure de voisinage choisie, et d'apres la propriete fondamentale de non idempotence de l'adherence, l'information contextuelle est prise en compte. Nous avons baptise cette regle vote universel (vu) car tous les points de l'ensemble d'apprentissage peuvent participer au vote pour le classement d'un individu anonyme. Cette regle traduit efficacement une extension de la vision des methodes relevant de l'approche geometrique (exploitation du concept de voisinage) pour l'apprentissage numerique supervise. Cette notion de voisinages d'ordre k, que l'on peut qualifier de voisinages evolutifs, peut etre integree dans d'autres methodes de classement relevant ou non de l'approche geometrique telles que l'estimation par les k plus proches voisins et les fenetres de parzen. Dans le meme esprit, nous avons adapte le modele logit-probit, souvent utilise en econometrie comme alternative efficace quand la variable a modeliser est qualitative et notamment quand les donnees a traiter sont non lineairement separables (cas ou l'analyse discriminante echoue). Pour un individu a identifier, l'estimation de ses probabilites d'appartenance aux differentes classes, s'effectue dans son adherence k ieme. De cette facon, on construit des modeles locaux favorisant ainsi un meilleur classement
APA, Harvard, Vancouver, ISO, and other styles
5

Miteran, Johel. "Performances et intégration d'un algorithme de classification géométrique par apprentissage. Applications en traitement d'images." Dijon, 1994. http://www.theses.fr/1994DIJOS016.

Full text
Abstract:
Cette thèse, réalisée au laboratoire GERE, est consacrée a la construction, la caractérisation et l'intégration d'un opérateur de classification adapte au traitement d'images en temps réel (segmentation, détection de défauts. . . ), c'est-à-dire pouvant fournir une décision a la cadence vidéo (125 ns par pixel). Dans une première partie, nous avons recherche parmi les méthodes existantes, un opérateur répondant à nos besoins de vitesse et d'intégration. Cette recherche nous a conduits au développement d'un classifieur géométrique dit par polytopes de contrainte, fonctionnant par apprentissage. La deuxième partie est consacrée à l'établissement des performances théoriques et pratiques du classifieur développe, de manière à prouver sa robustesse, ses bonnes performances et donc sa bonne adéquation avec le traitement d'images. Nous avons alors dans une troisième partie développe l'architecture nécessaire à l'intégration de l'opérateur de décision associe au classifieur. Trois approches ont été menées: la première consiste à intégrer l'opérateur dans un asic en utilisant les outils standard cell. La deuxième approche est dite full custom, et permet d'accéder aux meilleures performances en termes d'intégration. Enfin, nous proposons une troisième approche, originale, utilisant la logique programmable (fpga), qui tire parti de la reprogrammabilité de ces composants en intégrant les constantes de notre application dans l'architecture. Nous présentons finalement des résultats et des exemples d'applications sur des images: segmentation de textures, détection de contours. Nous présentons également un exemple d'application haut niveau, en télésurveillance. Ce projet s'inscrit dans le cadre d'un contrat européen stride, en collaboration avec électronique associés
APA, Harvard, Vancouver, ISO, and other styles
6

Ennafii, Oussama. "Qualification géométrique de modèles 3D de bâtiments." Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC2001.

Full text
Abstract:
La génération automatique de modèles de construction 3D à partir de données géospatiales est maintenant une procédure standard. Une littérature abondante couvre les deux dernières décennies et plusieurs solutions logicielles sont maintenant disponibles. Cependant, les zones urbaines sont des environnements très complexes. Inévitablement, les producteurs de données doivent encore évaluer visuellement, à l'échelle de villes, l'exactitude de ces modèles et détecter les erreurs fréquentes de reconstruction. Un tel processus fait appel à des experts et prend beaucoup de temps, soit environ deux heures/km² par expert. Cette thèse propose une approche d'évaluation automatique de la qualité des modèles de bâtiments 3D. Les erreurs potentielles sont compilées dans une nouvelle taxonomie hiérarchique et modulaire. Cela permet, pour la première fois, de séparer erreurs de fidélité et de modélisation, quelque soit le niveau de détail des bâtiments modélisés. La qualité des modèles est estimée à l'aide des propriétés géométriques des bâtiments et, lorsqu'elles sont disponibles, d'images géospatiales à très haute résolution et des modèles numériques de surface. Une base de référence de caractéristiques ad hoc génériques est utilisée en entrée d'un classificateur par Random Forest ou par Séparateurs à Vaste Marge. Des attributs plus riches, s'appuyant sur des noyaux de graphes ainsi que sur des réseaux de type Scattering ont été proposées pour mieux prendre en compte la structure dans la donnée 3D. Les cas multi-classes et multi-étiquettes sont étudiés séparément: de par l'interdépendance entre les classes d'erreurs, il est possible de détecter toutes les erreurs en même temps tout en prédisant au niveau sémantique le plus simple des bâtiments corrects et erronés. Le cadre proposé dans cette thèse a été testé sur trois zones urbaines distinctes en France avec plus de 3 000 bâtiments étiquetés manuellement. Des valeurs de F-score élevées sont atteintes pour les erreurs les plus fréquentes (80%-99%). Pour une problématique de passage à l’échelle, l'impact de la composition de la zone urbaine sur la prédiction des erreurs a également été étudié, en termes de (i) transférabilité, de (ii) généralisation et de (iii) représentativité des classificateurs. Cette étude montre la nécessité de disposer de données de télédétection multimodale et de mélanger des échantillons d'entraînement provenant de différentes villes pour assurer une stabilité des taux de détection, même avec des tailles d'ensembles d'entraînement très limitées
The automatic generation of 3D building models from geospatial data is now a standard procedure. An abundant literature covers the last two decades and several softwares are now available. However, urban areas are very complex environments. Inevitably, practitioners still have to visually assess, at city-scale, the correctness of these models and detect frequent reconstruction errors. Such a process relies on experts, and is highly time-consuming with approximately two hours/km² per expert. This work proposes an approach for automatically evaluating the quality of 3D building models. Potential errors are compiled in a novel hierarchical and modular taxonomy. This allows, for the first time, to disentangle fidelity and modeling errors, whatever the level of details of the modeled buildings. The quality of models is predicted using the geometric properties of buildings and, when available, Very High Resolution images and Digital Surface Models. A baseline of handcrafted, yet generic, features is fed into a Random Forest or Support Vector Machine classifiers. Richer features, relying on graph kernels as well as Scattering Networks, were proposed to better take into consideration structure. Both multi-class and multi-label cases are studied: due to the interdependence between classes of errors, it is possible to retrieve all errors at the same time while simply predicting correct and erroneous buildings. The proposed framework was tested on three distinct urban areas in France with more than 3,000 buildings. 80%-99% F-score values are attained for the most frequent errors. For scalability purposes, the impact of the urban area composition on the error prediction was also studied, in terms of transferability, generalization, and representativeness of the classifiers. It shows the necessity of multi-modal remote sensing data and mixing training samples from various cities to ensure a stability of the detection ratios, even with very limited training set sizes
APA, Harvard, Vancouver, ISO, and other styles
7

Maignant, Elodie. "Plongements barycentriques pour l'apprentissage géométrique de variétés : application aux formes et graphes." Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ4096.

Full text
Abstract:
Une image obtenue par IRM, c'est plus de 60 000 pixels. La plus grosse protéine connue chez l'être humain est constituée d'environ 30 000 acides aminés. On parle de données en grande dimension. En réalité, la plupart des données en grande dimension ne le sont qu'en apparence. Par exemple, de toutes les images que l'on pourrait générer aléatoirement en coloriant 256 x 256 pixels, seule une infime proportion ressemblerait à l'image IRM d'un cerveau humain. C'est ce qu'on appelle la dimension intrinsèque des données. En grande dimension, apprentissage rime donc souvent avec réduction de dimension. Il existe de nombreuses méthodes de réduction de dimension, les plus récentes pouvant être classées selon deux approches.Une première approche, connue sous le nom d'apprentissage de variétés (manifold learning) ou réduction de dimension non linéaire, part du constat que certaines lois physiques derrière les données que l'on observe ne sont pas linéaires. Ainsi, espérer expliquer la dimension intrinsèque des données par un modèle linéaire est donc parfois irréaliste. Au lieu de cela, les méthodes qui relèvent du manifold learning supposent un modèle localement linéaire.D'autre part, avec l'émergence du domaine de l'analyse statistique de formes, il y eu une prise de conscience que de nombreuses données sont naturellement invariantes à certaines symétries (rotations, permutations, reparamétrisations...), invariances qui se reflètent directement sur la dimension intrinsèque des données. Ces invariances, la géométrie euclidienne ne peut pas les retranscrire fidèlement. Ainsi, on observe un intérêt croissant pour la modélisation des données par des structures plus fines telles que les variétés riemanniennes. Une deuxième approche en réduction de dimension consiste donc à généraliser les méthodes existantes à des données à valeurs dans des espaces non-euclidiens. On parle alors d'apprentissage géométrique. Jusqu'à présent, la plupart des travaux en apprentissage géométrique se sont focalisés sur l'analyse en composantes principales.Dans la perspective de proposer une approche qui combine à la fois apprentissage géométrique et manifold learning, nous nous sommes intéressés à la méthode appelée locally linear embedding, qui a la particularité de reposer sur la notion de barycentre, notion a priori définie dans les espaces euclidiens mais qui se généralise aux variétés riemanniennes. C'est d'ailleurs sur cette même notion que repose une autre méthode appelée barycentric subspace analysis, et qui fait justement partie des méthodes qui généralisent l'analyse en composantes principales aux variétés riemanniennes. Ici, nous introduisons la notion nouvelle de plongement barycentrique, qui regroupe les deux méthodes. Essentiellement, cette notion englobe un ensemble de méthodes dont la structure rappelle celle des méthodes de réduction de dimension linéaires et non linéaires, mais où le modèle (localement) linéaire est remplacé par un modèle barycentrique -- affine.Le cœur de notre travail consiste en l'analyse de ces méthodes, tant sur le plan théorique que pratique. Du côté des applications, nous nous intéressons à deux exemples importants en apprentissage géométrique : les formes et les graphes. En particulier, on démontre que par rapport aux méthodes standard de réduction de dimension en analyse statistique des graphes, les plongements barycentriques se distinguent par leur meilleure interprétabilité. En plus des questions pratiques liées à l'implémentation, chacun de ces exemples soulève ses propres questions théoriques, principalement autour de la géométrie des espaces quotients. Parallèlement, nous nous attachons à caractériser géométriquement les plongements localement barycentriques, qui généralisent la projection calculée par locally linear embedding. Enfin, de nouveaux algorithmes d'apprentissage géométrique, novateurs dans leur approche, complètent ce travail
An MRI image has over 60,000 pixels. The largest known human protein consists of around 30,000 amino acids. We call such data high-dimensional. In practice, most high-dimensional data is high-dimensional only artificially. For example, of all the images that could be randomly generated by coloring 256 x 256 pixels, only a very small subset would resemble an MRI image of a human brain. This is known as the intrinsic dimension of such data. Therefore, learning high-dimensional data is often synonymous with dimensionality reduction. There are numerous methods for reducing the dimension of a dataset, the most recent of which can be classified according to two approaches.A first approach known as manifold learning or non-linear dimensionality reduction is based on the observation that some of the physical laws behind the data we observe are non-linear. In this case, trying to explain the intrinsic dimension of a dataset with a linear model is sometimes unrealistic. Instead, manifold learning methods assume a locally linear model.Moreover, with the emergence of statistical shape analysis, there has been a growing awareness that many types of data are naturally invariant to certain symmetries (rotations, reparametrizations, permutations...). Such properties are directly mirrored in the intrinsic dimension of such data. These invariances cannot be faithfully transcribed by Euclidean geometry. There is therefore a growing interest in modeling such data using finer structures such as Riemannian manifolds. A second recent approach to dimension reduction consists then in generalizing existing methods to non-Euclidean data. This is known as geometric learning.In order to combine both geometric learning and manifold learning, we investigated the method called locally linear embedding, which has the specificity of being based on the notion of barycenter, a notion a priori defined in Euclidean spaces but which generalizes to Riemannian manifolds. In fact, the method called barycentric subspace analysis, which is one of those generalizing principal component analysis to Riemannian manifolds, is based on this notion as well. Here we rephrase both methods under the new notion of barycentric embeddings. Essentially, barycentric embeddings inherit the structure of most linear and non-linear dimension reduction methods, but rely on a (locally) barycentric -- affine -- model rather than a linear one.The core of our work lies in the analysis of these methods, both on a theoretical and practical level. In particular, we address the application of barycentric embeddings to two important examples in geometric learning: shapes and graphs. In addition to practical implementation issues, each of these examples raises its own theoretical questions, mostly related to the geometry of quotient spaces. In particular, we highlight that compared to standard dimension reduction methods in graph analysis, barycentric embeddings stand out for their better interpretability. In parallel with these examples, we characterize the geometry of locally barycentric embeddings, which generalize the projection computed by locally linear embedding. Finally, algorithms for geometric manifold learning, novel in their approach, complete this work
APA, Harvard, Vancouver, ISO, and other styles
8

Fang, Hao. "Modélisation géométrique à différent niveau de détails d'objets fabriqués par l'homme." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4002/document.

Full text
Abstract:
La modélisation géométrique d'objets fabriqués par l'homme à partir de données 3D est l'un des plus grands défis de la vision par ordinateur et de l'infographie. L'objectif à long terme est de générer des modèles de type CAO de la manière la plus automatique possible. Pour atteindre cet objectif, des problèmes difficiles doivent être résolus, notamment (i) le passage à l'échelle du processus de modélisation sur des données d'entrée massives, (ii) la robustesse de la méthodologie contre des mesures d'entrées erronés, et (iii) la qualité géométrique des modèles de sortie. Les méthodes existantes fonctionnent efficacement pour reconstruire la surface des objets de forme libre. Cependant, dans le cas d'objets fabriqués par l'homme, il est difficile d'obtenir des résultats dont la qualité approche celle des représentations hautement structurées, comme les modèles CAO. Dans cette thèse, nous présentons une série de contributions dans ce domaine. Tout d'abord, nous proposons une méthode de classification basée sur l'apprentissage en profondeur pour distinguer des objets dans des environnements complexes à partir de nuages de points 3D. Deuxièmement, nous proposons un algorithme pour détecter des primitives planaires dans des données 3D à différents niveaux d'abstraction. Enfin, nous proposons un mécanisme pour assembler des primitives planaires en maillages polygonaux compacts. Ces contributions sont complémentaires et peuvent être utilisées de manière séquentielle pour reconstruire des modèles de ville à différents niveaux de détail à partir de données 3D aéroportées. Nous illustrons la robustesse, le passage à l'échelle et l'efficacité de nos méthodes sur des données laser et multi-vues stéréo sur des scènes composées d'objets fabriqués par l'homme
Geometric modeling of man-made objects from 3D data is one of the biggest challenges in Computer Vision and Computer Graphics. The long term goal is to generate a CAD-style model in an as-automatic-as-possible way. To achieve this goal, difficult issues have to be addressed including (i) the scalability of the modeling process with respect to massive input data, (ii) the robustness of the methodology to various defect-laden input measurements, and (iii) the geometric quality of output models. Existing methods work well to recover the surface of free-form objects. However, in case of manmade objects, it is difficult to produce results that approach the quality of high-structured representations as CAD models.In this thesis, we present a series of contributions to the field. First, we propose a classification method based on deep learning to distinguish objects from raw 3D point cloud. Second, we propose an algorithm to detect planar primitives in 3D data at different level of abstraction. Finally, we propose a mechanism to assemble planar primitives into compact polygonal meshes. These contributions are complementary and can be used sequentially to reconstruct city models at various level-of-details from airborne 3D data. We illustrate the robustness, scalability and efficiency of our methods on both laser and multi-view stereo data composed of man-made objects
APA, Harvard, Vancouver, ISO, and other styles
9

Girard, Nicolas. "Approches d'apprentissage et géométrique pour l'extraction automatique d'objets à partir d'images de télédétection." Thesis, Université Côte d'Azur, 2020. https://tel.archives-ouvertes.fr/tel-03177997.

Full text
Abstract:
Créer un double numérique de la Terre sous forme de cartes a de nombreuses applications comme la conduite autonome, la planification urbaine, les télécommunications, la gestion des catastrophes naturelles, etc. Les systèmes d'information géographique (SIG) sont utilisés pour intégrer des données géolocalisées sous forme de cartes. Les SIG utilisent une représentation vectorielle pour les objets, prenant peu d'espace mémoire et rendant leur modification plus facile que des données raster. Avec la quantité croissante d'images satellites et aériennes capturées chaque jour, des méthodes automatiques sont en cours de développement pour extraire les informations de ces images de télédétection. Les méthodes d'apprentissage profond pour la segmentation d'images sont capables de délimiter les formes des objets, mais elles le font avec une représentation raster, sous la forme d'une carte de probabilité. Des méthodes de vectorisation post-traitement convertissent ensuite cette représentation raster en une représentation vectorielle compatible avec les SIG. Un autre défi de la télédétection est de gérer un certain type de bruit dans les données, qui est le désalignement entre différentes couches d'informations géolocalisées (par exemple entre les images et les cadastres des bâtiments). Ce type de bruit est fréquent en raison de diverses erreurs introduites lors du traitement des données de télédétection. Cette thèse développe des approches combinées d'apprentissage et géométriques dans le but d'améliorer l'automatisation du processus de cartographie SIG à partir d'images de télédétection.Nous proposons d'abord une méthode pour corriger une carte mal alignée sur une image, pur faire correspondre ces deux données géolocalisées, et aussi pour créer des jeu de données de télédétection pour la segmentation d'images avec une vérité terrain corrigé. En effet, entraîner un modèle sur une vérité terrain mal alignée ne mènerait pas à de bonnes segmentations. Au cours de ce travail, nous avons également observé un effet de débruitage par notre modèle d'alignement et l'avons utilisé pour débruiter un jeu de données mal aligné de manière auto-supervisée, ce qui signifie que seul le jeu de données mal aligné a été utilisé pour l'apprentissage.Nous proposons ensuite une approche simple pour utiliser un réseau de neurones produisant directement une représentation vectorielle de l'objet à détecter, afin de contourner l'étape de vectorisation post-traitement. Nous démontrons qu'il est possible d'apprendre à régresser les coordonnées de polygones (avec un nombre de sommets fixes dans notre cas), produisant directement des sorties cartographiques vectorielles.Bien que les méthodes plus récentes d'apprentissage directement en représentation vectorielle sont maintenant plus évoluées, elles ont encore d'autres limitations en termes de type de formes d'objets qu'elles peuvent prédire. Des cas topologiques plus complexes tels que des objets avec des trous ou des bâtiments se touchant ayant un mur mitoyen ne sont pas gérés par ces méthodes d'apprentissage. Nous proposons ainsi une approche hybride palliant ces limitations en entraînant un réseau de neurones pour produire une carte de probabilité de segmentation comme usuellement, mais aussi pour produire un “frame field” (4 champs vectoriels superposés) aligné avec les contours des objets détectés. Ce “frame field” encode des informations géométriques supplémentaires apprises par le réseau. Nous proposons ensuite notre méthode de polygonisation parallélisable pour exploiter ce “frame field” pour vectoriser efficacement la carte de probabilité de segmentation. Notre méthode de polygonisation ayant accès à des informations supplémentaires sous la forme d'un “frame field” elle peut être moins complexe que d'autres méthodes de vectorisation avancées et donc plus rapide. De plus calculer ce “frame field” n'augmente pratiquement pas le temps d'inférence, il n'est que bénéfique
Creating a digital double of the Earth in the form of maps has many applications in e.g. autonomous driving, automated drone delivery, urban planning, telecommunications, and disaster management. Geographic Information Systems (GIS) are the frameworks used to integrate geolocalized data and represent maps. They represent shapes of objects in a vector representation so that it is as sparse as possible while representing shapes accurately, as well as making it easier to edit than raster data. With the increasing amount of satellite and aerial images being captured every day, automatic methods are being developed to transfer the information found in those remote sensing images into Geographic Information Systems. Deep learning methods for image segmentation are able to delineate the shapes of objects found in images however they do so with a raster representation, in the form of a mask. Post-processing vectorization methods then convert that raster representation into a vector representation compatible with GIS. Another challenge in remote sensing is to deal with a certain type of noise in the data, which is the misalignment between different layers of geolocalized information (e.g. between images and building cadaster data). This type of noise is frequent due to various errors introduced during the processing of remote sensing data. This thesis develops combined learning and geometric approaches with the purpose to improve automatic GIS mapping from remote sensing images.We first propose a method for correcting misaligned maps over images, with the first motivation for them to match, but also with the motivation to create remote sensing datasets for image segmentation with alignment-corrected ground truth. Indeed training a model on misaligned ground truth would not lead to great performance, whereas aligned ground truth annotations will result in better models. During this work we also observed a denoising effect of our alignment model and use it to denoise a misaligned dataset in a self-supervised manner, meaning only the misaligned dataset was used for training.We then propose a simple approach to use a neural network to directly output shape information in the vector representation, in order to by-pass the post-processing vectorization step. Experimental results on a dataset of solar panels show that the proposed network succeeds in learning to regress polygon coordinates, yielding directly vectorial map outputs. Our simple method is limited to predicting polygons with a fixed number of vertices though.While more recent methods for learning directly in the vector representation do not have this limitation, they still have other limitations in terms of the type of object shapes they can predict. More complex topological cases such as objects with holes or buildings touching each other (with a common wall which is very typical of European city centers) are not handled by these fully deep learning methods. We thus propose a hybrid approach alleviating those limitations by training a neural network to output a segmentation probability map as usual and also to output a frame field aligned with the contours of detected objects (buildings in our case). That frame field constitutes additional shape information learned by the network. We then propose our highly parallelizable polygonization method for leveraging that frame field information to vectorize the segmentation probability map efficiently. Because our polygonization method has access to additional information in the form of a frame field, it can be less complex than other advanced vectorization methods and is thus faster. Lastly, requiring an image segmentation network to also output a frame field only adds two convolutional layers and virtually does not increase inference time, making the use of a frame field only beneficial
APA, Harvard, Vancouver, ISO, and other styles
10

Charon, Nicolas. "Analysis of geometric and functional shapes with extensions of currents : applications to registration and atlas estimation." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00942078.

Full text
Abstract:
This thesis addresses several questions related to the recent field of computational anatomy. Broadly speaking, computational anatomy intends to analyse shape variability among populations of anatomical structures. In this work, we are focused, in the first place, on the case of datasets of curves, surfaces and more generally submanifolds. Our goal is to provide a mathematical and numerical setting to build relevant data attachment terms between those objects in the purpose of embedding it into the large diffeomorphic metric mapping (LDDMM) model for shape registration. Previous approaches have been relying on the concept of currents that represents oriented submanifolds. We first propose an extension of these methods to the situation of non-oriented shapes by adapting the concept of varifolds from geometric measure theory. In the second place, we focus on the study of geometrico-functional structures we call 'functional shapes' (or fshapes), which combine varying geometries across individuals with signal functions defined on these shapes. We introduce the new notion of fshape metamorphosis to generalize the idea of deformation groups in the pure geometrical case. In addition, we define the extended setting of 'functional currents' to quantify dissimilarity between fshapes and thus perform geometrico-functional registration between such objects. Finally, in the last part of the thesis, we move on to the issue of analyzing entire groups of individuals (shapes or fshapes) together. In that perspective, we introduce an atlas estimation variational formulation that we prove to be mathematically well-posed and build algorithms to estimate templates and atlases from populations, as well as tools to perform statistical analysis and classification. All these methods are evaluated on several applications to synthetic datasets on the one hand and real datasets from biomedical imaging on the other.
APA, Harvard, Vancouver, ISO, and other styles
11

Tran, Kiem Minh. "Apprentissage des fonctions au lycée avec un environnement logiciel : situations d'apprentissage et genèse instrumentale des élèves." Phd thesis, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00658680.

Full text
Abstract:
La recherche se situe dans le cadre de l'étude des usages d'un environnement logiciel géométrique et algébrique dédié aux fonctions au lycée. Nous nous intéressons plus particulièrement au côté " élèves ", avec une étude des situations utilisant le logiciel Casyopée et de leurs effets sur l'apprentissage des fonctions. La problématique aborde des questions relatives aux usages des TICE dans l'enseignement et l'apprentissage des mathématiques, et considère l'enseignement des fonctions sous ses aspects épistémologique, cognitif et didactique. Le cadre théorique est construit à partir notamment d'une typologie d'activités sur les fonctions, de l'approche instrumentale de Rabardel et d'une théorie des représentations sémiotiques. Nous proposons une approche des fonctions via la modélisation fonctionnelle des dépendances géométriques. Les résultats indiquent un développement conjoint de connaissances mathématiques sur les fonctions et de connaissances sur Casyopée pendant la genèse instrumentale, et montrent comment une utilisation régulière de l'artefact permet aux élèves d'articuler ces deux types de connaissances. L'étude éclaire les apports de la typologie d'activités pour l'enseignement et l'apprentissage des fonctions en environnements numériques d'apprentissage. Nous considérons également comment les activités des élèves dans les différents registres de Casyopée peuvent faire émerger un co-développement des conceptions " processus " et " objet " et favoriser donc une compréhension flexible des fonctions.
APA, Harvard, Vancouver, ISO, and other styles
12

Delfour, Serge. "Étude du répertoire des procédures de copie d'un dessin géométrique : approche développementale." Thesis, Montpellier 3, 2011. http://www.theses.fr/2011MON30071/document.

Full text
Abstract:
Piaget, Inhelder et Szeminska (1948) ont analysé l’évolution avec l’âge de la copie d’un dessin géométrique angulaire composé de deux traits formant deux angles. Les résultats obtenus sont interprétés dans le modèle stadiste piagétien. En accord avec le modèle de choix de stratégies de Siegler (1996 ; 2007) et l’importance de la variabilité intra-individuelle (Lautrey, 2003), notre thèse reprend cette analyse en faisant l’hypothèse que chaque participant dispose de plusieurs procédures. Nous explorons le répertoire de procédures des enfants âgés de 6 à 12 ans et des adultes en proposant la copie dans plusieurs conditions expérimentales : copie spontanée, plusieurs copies successives en demandant au participant de copier autrement, copie avec l’utilisation d’un instrument spécifique. Nous tentons ensuite d’enrichir ce répertoire en montrant au participant une procédure qu’il n’a pas pu produite seul. Les résultats obtenus sont cohérents avec les modèles pluralistes du développement : dès 10 ans, les enfants disposent de plusieurs procédures pour copier le dessin. Cependant, la mise en évidence de la variabilité intra-individuelle dans cette tâche est contrainte par les conditions expérimentales et les connaissances instrumentales et conceptuelles du participant, notamment l’acquisition du concept d’angle
Piaget, Inhelder and Szeminska (1948) analysed the age evolution of a geometric drawing two-lines composed and forming an angle. The results obtained are interpreted in the stadist piagetian model. In accordance with the strategy choice model (Siegler, 1996; 2007) and with the intra-individual variability importance (Lautrey, 2003), our thesis takes up this analysis with hypothesis that each participant have at his disposal several procedures. We explore the 6 to 12 aged children and adult procedural repertory by suggesting the copy in different experimental conditions: spontaneous copy, several copies in proceeding (in other way), copy with specific instrument use,. We also attempt to complete this repertory by showing the participant a procedure he could not have produced by himself. The obtained results are suitable with plural models of development: from the age of ten, the children have several strategies for copying the drawing. However, the intra-individual variability observed in this task is forced by experimental conditions and instrumental and conceptual knowledge of the participant, in particular the acquisition of angle concept
APA, Harvard, Vancouver, ISO, and other styles
13

Le, Barz Cédric. "Navigation visuelle pour les missions autonomes des petits drones." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066424/document.

Full text
Abstract:
Lors de dette dernière décennie, l'évolution des technologies a permis le développement de drones de taille et de poids réduit aptes à évoluer dans des environnements intérieurs ou urbains. Pour exécuter les missions qui leur sont attribuées, les drones doivent posséder un système de navigation robuste, comprenant, notamment, une fonctionnalité temps réel d'ego-localisation précise dans un repère absolu. Nous proposons de résoudre cette problématique par la mise en correspondance des dernières images acquises avec des images géoréférencées de type Google Streetview.Dans l'hypothèse où il serait possible pour une image requête de retrouver l'image géo-référencée représentant la même scène, nous avons tout d'abord étudié une solution permettant d'affiner la localisation grâce à l'estimation de la pose relative entre ces deux images. Pour retrouver l'image de la base correspondant à une image requête, nous avons ensuite étudié et proposé une méthode hybride exploitant à la fois les informations visuelles et odométriques mettant en oeuvre une chaîne de Markov à états cachés. Les performances obtenues, dépendant de la qualité de la mesure de similarité visuelle, nous avons enfin proposé une solution originale basée sur l'apprentissage supervisé de distances permettant de mesurer les similarités entre les images requête et les images géoréférencées proches de la position supposée
In this last decade, technology evolution has enabled the development of small and light UAV able to evolve in indoor and urban environments. In order to execute missions assigned to them, UAV must have a robust navigation system, including a precise egolocalization functionality within an absolute reference. We propose to solve this problem by mapping the latest images acquired with geo-referenced images, i.e. Google Streetview images.In a first step, assuming that it is possible for a given query image to retrieve the geo-referenced image depicting the same scene, we study a solution, based on relative pose estimation between images, to refine the location. Then, to retrieve geo-referenced images corresponding to acquired images, we studied and proposed an hybrid method exploiting both visual and odometric information by defining an appropriate Hidden Markov Model (HMM), where states are geographical locations. The quality of achieved performances depending of visual similarities, we finally proposed an original solution based on a supervised metric learning solution. The solution measures similarities between the query images and geo-referenced images close to the putative position, thanks to distances learnt during a preliminary step
APA, Harvard, Vancouver, ISO, and other styles
14

Ribeiro, Póla Marie-Claire. "GDVisu@l, une approche interactive pour un meilleur apprentissage de la géométrie descriptive." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0015/NQ56844.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Ribeiro, Pöla Marie-Claire. "GDVisu@l : une approche interactive pour un meilleur apprentissage de la géométrie descriptive." Doctoral thesis, Université Laval, 2000. http://hdl.handle.net/20.500.11794/33567.

Full text
Abstract:
La présente recherche nous a permis de concevoir, de développer et d’évaluer un système d’apprentissage multimédia interactif. Le système a été bâti pour faciliter l’apprentissage de la géométrie descriptive, domaine dans lequel les étudiants ont des difficultés de visualisation spatiale. L’approche pédagogique privilégiée a été le constructivisme. Les activités et les exercices ont été créés de façon à ce que l’étudiant puisse manipuler des images pour construire ses concepts. Le système fonctionne sur Internet et invite l’étudiant à découvrir, à jouer, à résoudre des énigmes, à revoir ses erreurs. Tout ce que l’étudiant fait est enregistré sur le serveur, ce qui permet au professeur de faire un diagnostic et une évaluation de l’étudiant. Le système a été évalué par un groupe d’étudiants, par des experts en géométrie descriptive et en technologie éducative. Un modèle d’analyse qualitative a été adopté pour permettre le recueil et l’analyse des données générées par ces individus. Les résultats obtenus indiquent que le but de la recherche a été atteint.
Québec Université Laval, Bibliothèque 2019
APA, Harvard, Vancouver, ISO, and other styles
16

Kalunga, Emmanuel. "Vers des interfaces cérébrales adaptées aux utilisateurs : interaction robuste et apprentissage statistique basé sur la géométrie riemannienne." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV041/document.

Full text
Abstract:
Au cours des deux dernières décennies, l'intérêt porté aux interfaces cérébrales ou Brain Computer Interfaces (BCI) s’est considérablement accru, avec un nombre croissant de laboratoires de recherche travaillant sur le sujet. Depuis le projet Brain Computer Interface, où la BCI a été présentée à des fins de réadaptation et d'assistance, l'utilisation de la BCI a été étendue à d'autres applications telles que le neurofeedback et l’industrie du jeux vidéo. Ce progrès a été réalisé grâce à une meilleure compréhension de l'électroencéphalographie (EEG), une amélioration des systèmes d’enregistrement du EEG, et une augmentation de puissance de calcul.Malgré son potentiel, la technologie de la BCI n’est pas encore mature et ne peut être utilisé en dehors des laboratoires. Il y a un tas de défis qui doivent être surmontés avant que les systèmes BCI puissent être utilisés à leur plein potentiel. Ce travail porte sur des aspects importants de ces défis, à savoir la spécificité des systèmes BCI aux capacités physiques des utilisateurs, la robustesse de la représentation et de l'apprentissage du EEG, ainsi que la suffisance des données d’entrainement. L'objectif est de fournir un système BCI qui peut s’adapter aux utilisateurs en fonction de leurs capacités physiques et des variabilités dans les signaux du cerveau enregistrés.À ces fins, deux voies principales sont explorées : la première, qui peut être considérée comme un ajustement de haut niveau, est un changement de paradigmes BCI. Elle porte sur la création de nouveaux paradigmes qui peuvent augmenter les performances de la BCI, alléger l'inconfort de l'utilisation de ces systèmes, et s’adapter aux besoins des utilisateurs. La deuxième voie, considérée comme une solution de bas niveau, porte sur l’amélioration des techniques de traitement du signal et d’apprentissage statistique pour améliorer la qualité du signal EEG, la reconnaissance des formes, ainsi que la tache de classification.D'une part, une nouvelle méthodologie dans le contexte de la robotique d'assistance est définie : il s’agit d’une approche hybride où une interface physique est complémentée par une interface cérébrale pour une interaction homme-machine plus fluide. Ce système hybride utilise les capacités motrices résiduelles des utilisateurs et offre la BCI comme un choix optionnel : l'utilisateur choisit quand utiliser la BCI et peut alterner entre les interfaces cérébrales et musculaire selon le besoin.D'autre part, pour l’amélioration des techniques de traitement du signal et d'apprentissage statistique, ce travail utilise un cadre Riemannien. Un frein majeur dans le domaine de la BCI est la faible résolution spatiale du EEG. Ce problème est dû à l'effet de conductance des os du crâne qui agissent comme un filtre passe-bas non linéaire, en mélangeant les signaux de différentes sources du cerveau et réduisant ainsi le rapport signal-à-bruit. Par conséquent, les méthodes de filtrage spatial ont été développées ou adaptées. La plupart d'entre elles – à savoir la Common Spatial Pattern (CSP), la xDAWN et la Canonical Correlation Analysis (CCA) – sont basées sur des estimations de matrice de covariance. Les matrices de covariance sont essentielles dans la représentation d’information contenue dans le signal EEG et constituent un élément important dans leur classification. Dans la plupart des algorithmes d'apprentissage statistique existants, les matrices de covariance sont traitées comme des éléments de l'espace euclidien. Cependant, étant symétrique et défini positive (SDP), les matrices de covariance sont situées dans un espace courbe qui est identifié comme une variété riemannienne. Utiliser les matrices de covariance comme caractéristique pour la classification des signaux EEG, et les manipuler avec les outils fournis par la géométrie de Riemann, fournit un cadre solide pour la représentation et l'apprentissage du EEG
In the last two decades, interest in Brain-Computer Interfaces (BCI) has tremendously grown, with a number of research laboratories working on the topic. Since the Brain-Computer Interface Project of Vidal in 1973, where BCI was introduced for rehabilitative and assistive purposes, the use of BCI has been extended to more applications such as neurofeedback and entertainment. The credit of this progress should be granted to an improved understanding of electroencephalography (EEG), an improvement in its measurement techniques, and increased computational power.Despite the opportunities and potential of Brain-Computer Interface, the technology has yet to reach maturity and be used out of laboratories. There are several challenges that need to be addresses before BCI systems can be used to their full potential. This work examines in depth some of these challenges, namely the specificity of BCI systems to users physical abilities, the robustness of EEG representation and machine learning, and the adequacy of training data. The aim is to provide a BCI system that can adapt to individual users in terms of their physical abilities/disabilities, and variability in recorded brain signals.To this end, two main avenues are explored: the first, which can be regarded as a high-level adjustment, is a change in BCI paradigms. It is about creating new paradigms that increase their performance, ease the discomfort of using BCI systems, and adapt to the user’s needs. The second avenue, regarded as a low-level solution, is the refinement of signal processing and machine learning techniques to enhance the EEG signal quality, pattern recognition and classification.On the one hand, a new methodology in the context of assistive robotics is defined: it is a hybrid approach where a physical interface is complemented by a Brain-Computer Interface (BCI) for human machine interaction. This hybrid system makes use of users residual motor abilities and offers BCI as an optional choice: the user can choose when to rely on BCI and could alternate between the muscular- and brain-mediated interface at the appropriate time.On the other hand, for the refinement of signal processing and machine learning techniques, this work uses a Riemannian framework. A major limitation in this filed is the EEG poor spatial resolution. This limitation is due to the volume conductance effect, as the skull bones act as a non-linear low pass filter, mixing the brain source signals and thus reducing the signal-to-noise ratio. Consequently, spatial filtering methods have been developed or adapted. Most of them (i.e. Common Spatial Pattern, xDAWN, and Canonical Correlation Analysis) are based on covariance matrix estimations. The covariance matrices are key in the representation of information contained in the EEG signal and constitute an important feature in their classification. In most of the existing machine learning algorithms, covariance matrices are treated as elements of the Euclidean space. However, being Symmetric and Positive-Definite (SPD), covariance matrices lie on a curved space that is identified as a Riemannian manifold. Using covariance matrices as features for classification of EEG signals and handling them with the tools provided by Riemannian geometry provide a robust framework for EEG representation and learning
APA, Harvard, Vancouver, ISO, and other styles
17

Ballihi, Lahoucine. "Biométrie faciale 3D par apprentissage des caractéristiques géométriques : Application à la reconnaissance des visages et à la classification du genre." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00726299.

Full text
Abstract:
La biométrie du visage a suscité, ces derniers temps, l'intérêt grandissant de la communauté scientifique et des industriels de la biométrie vue son caractère naturel, sans contact et non-intrusif. Néanmoins, les performances des systèmes basés sur les images 2D sont affectées par différents types de variabilités comme la pose, les conditions d'éclairage, les occultations et les expressions faciales. Avec la disponibilité de caméras 3D capables d'acquérir la forme tridimensionnelle, moins sensibles aux changements d'illumination et de pose, plusieurs travaux de recherche se sont tournés vers l'étude de cette nouvelle modalité. En revanche, d'autres défis apparaissent comme les déformations de la forme faciales causées par les expressions et le temps de calcul que requièrent les approches développées. Cette thèse s'inscrit dans ce paradigme en proposant de coupler la géométrie Riemannienne avec les techniques d'apprentissage pour une biométrie faciale 3D efficace et robuste aux changements d'expressions. Après une étape de pré-traitement, nous proposons de représenter les surfaces faciales par des collections de courbes 3D qui captent localement leurs formes. Nous utilisons un cadre géométrique existant pour obtenir les déformations " optimales " entre les courbes ainsi que les distances les séparant sur une variété Riemannienne (espace des formes des courbes). Nous appliquons, par la suite, des techniques d'apprentissage afin de déterminer les courbes les plus pertinentes pour deux applications de la biométrie du visage : la reconnaissance d'identité et la classification du genre. Les résultats obtenus sur le benchmark de référence FRGC v2 et leurs comparaison avec les travaux de l'état de l'art confirment tout l'intérêt de coupler l'analyse locale de la forme par une approche géométrique (possibilité de calculer des moyennes, etc.) avec des techniques d'apprentissage (Basting, etc.) pour gagner en temps de calcul et en performances.
APA, Harvard, Vancouver, ISO, and other styles
18

Ferneda, Edilson. "Conception d'un agent rationnel et examen de son raisonnement en géométrie." Montpellier 2, 1992. http://www.theses.fr/1992MON20300.

Full text
Abstract:
Notre objectif dans ce travail est de faire l'anatomie d'un agent rationnel en regardant dans le plus grand detail l'ensemble des donnees, des heuristiques et des mecanismes qui interviennent pour qu'un agent rationnel realise des taches simples de raisonnement en geometrie. Etant donnees les contraintes de modelisation de l'agent rationnel, les concepts qu'il formule sous la forme de connaissances sont souvent errones. Comme le domaine de la geometrie est bien connu, l'agent humain est habile pour determiner des contre-exemples qui embarrassent l'agent; l'agent rationnel n'a pas pour objectif de produire une connaissance exacte, mais une connaissance argumentable, qui puisse etre corrigee lors d'un protocole de dialogue
APA, Harvard, Vancouver, ISO, and other styles
19

Flandin, Guillaume. "Utilisation d'informations géométriques pour l'analyse statistique des données d'IRM fonctionnelle." Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00633520.

Full text
Abstract:
L'imagerie par résonance magnétique fonctionnelle (IRMf) est une modalité récente permettant de mesurer in vivo l'activité neuronale chez le sujet sain ou le patient et d'étudier le lien entre la structure et la fonction cérébrale. Nous nous sommes intéressés à l'utilisation de l'information de l'anatomie cérébrale pour l'analyse des données fonctionnelles. Ainsi, nous avons reconsidéré l'analyse classique typiquement réalisée voxel par voxel avec lissage spatial pour proposer un modèle de représentation des données reposant sur une parcellisation anatomo-fonctionnelle du cortex. Cette représentation permet de réduire la dimension des données en un nombre restreint d'éléments pertinents du point de vue des neurosciences. Nous présentons des exemples d'utilisation de cette approche de parcellisation fondée sur l'anatomie seulement dans un premier temps. Une étude de détection d'activations par modèle linéaire met en évidence une sensibilité accrue comparée à une approche voxel par voxel. Nous présentons également deux autres applications utilisant des parcellisations, concernant la sélection de modèle régional et les études de connectivité fonctionnelle. Cette description permet en outre de proposer une solution au problème de l'analyse d'un groupe de sujets qui peuvent présenter une forte variabilité anatomique et fonctionnelle. Pour s'affranchir du délicat problème de mise en correspondance des différents sujets, nous avons présenté une parcellisation regroupant entre les sujets les régions homogènes du point de vue à la fois anatomique et fonctionnel. L'application de cette méthode sur un protocole fonctionnel montre sa robustesse pour les analyses multi-sujets.
APA, Harvard, Vancouver, ISO, and other styles
20

Da, Silva Sébastien. "Fouille de données spatiales et modélisation de linéaires de paysages agricoles." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0156/document.

Full text
Abstract:
Cette thèse s'inscrit dans un partenariat entre l'INRA et l'INRIA et dans le champs de l'extraction de connaissances à partir de bases de données spatiales. La problématique porte sur la caractérisation et la simulation de paysages agricoles. Plus précisément, nous nous concentrons sur des lignes qui structurent le paysage agricole, telles que les routes, les fossés d'irrigation et les haies. Notre objectif est de modéliser les haies en raison de leur rôle dans de nombreux processus écologiques et environnementaux. Nous étudions les moyens de caractériser les structures de haies sur deux paysages agricoles contrastés, l'un situé dans le sud-Est de la France (majoritairement composé de vergers) et le second en Bretagne (Ouest de la France, de type bocage). Nous déterminons également si, et dans quelles circonstances, la répartition spatiale des haies est structurée par la position des éléments linéaires plus pérennes du paysage tels que les routes et les fossés et l'échelle de ces structures. La démarche d'extraction de connaissances à partir de base de données (ECBD) mise en place comporte différentes étapes de prétraitement et de fouille de données, alliant des méthodes mathématiques et informatiques. La première partie du travail de thèse se concentre sur la création d'un indice spatial statistique, fondé sur une notion géométrique de voisinage et permettant la caractérisation des structures de haies. Celui-Ci a permis de décrire les structures de haies dans le paysage et les résultats montrent qu'elles dépendent des éléments plus pérennes à courte distance et que le voisinage des haies est uniforme au-Delà de 150 mètres. En outre différentes structures de voisinage ont été mises en évidence selon les principales orientations de haies dans le sud-Est de la France, mais pas en Bretagne. La seconde partie du travail de thèse a exploré l'intérêt du couplage de méthodes de linéarisation avec des méthodes de Markov. Les méthodes de linéarisation ont été introduites avec l'utilisation d'une variante des courbes de Hilbert : les chemins de Hilbert adaptatifs. Les données spatiales linéaires ainsi construites ont ensuite été traitées avec les méthodes de Markov. Ces dernières ont l'avantage de pouvoir servir à la fois pour l'apprentissage sur les données réelles et pour la génération de données, dans le cadre, par exemple, de la simulation d'un paysage. Les résultats montrent que ces méthodes couplées permettant un apprentissage et une génération automatique qui capte des caractéristiques des différents paysages. Les premières simulations sont encourageantes malgré le besoin d'un post-Traitement. Finalement, ce travail de thèse a permis la création d'une méthode d'exploration de données spatiales basée sur différents outils et prenant en charge toutes les étapes de l'ECBD classique, depuis la sélection des données jusqu'à la visualisation des résultats. De plus, la construction de cette méthode est telle qu'elle peut servir à son tour à la génération de données, volet nécessaire pour la simulation de paysage
This thesis is part of a partnership between INRA and INRIA in the field of knowledge extraction from spatial databases. The study focuses on the characterization and simulation of agricultural landscapes. More specifically, we focus on linears that structure the agricultural landscape, such as roads, irrigation ditches and hedgerows. Our goal is to model the spatial distribution of hedgerows because of their role in many ecological and environmental processes. We more specifically study how to characterize the spatial structure of hedgerows in two contrasting agricultural landscapes, one located in south-Eastern France (mainly composed of orchards) and the second in Brittany (western France, \emph{bocage}-Type). We determine if the spatial distribution of hedgerows is structured by the position of the more perennial linear landscape features, such as roads and ditches, or not. In such a case, we also detect the circumstances under which this spatial distribution is structured and the scale of these structures. The implementation of the process of Knowledge Discovery in Databases (KDD) is comprised of different preprocessing steps and data mining algorithms which combine mathematical and computational methods. The first part of the thesis focuses on the creation of a statistical spatial index, based on a geometric neighborhood concept and allowing the characterization of structures of hedgerows. Spatial index allows to describe the structures of hedgerows in the landscape. The results show that hedgerows depend on more permanent linear elements at short distances, and that their neighborhood is uniform beyond 150 meters. In addition different neighborhood structures have been identified depending on the orientation of hedgerows in the South-East of France but not in Brittany. The second part of the thesis explores the potential of coupling linearization methods with Markov methods. The linearization methods are based on the use of alternative Hilbert curves: Hilbert adaptive paths. The linearized spatial data thus constructed were then treated with Markov methods. These methods have the advantage of being able to serve both for the machine learning and for the generation of new data, for example in the context of the simulation of a landscape. The results show that the combination of these methods for learning and automatic generation of hedgerows captures some characteristics of the different study landscapes. The first simulations are encouraging despite the need for post-Processing. Finally, this work has enabled the creation of a spatial data mining method based on different tools that support all stages of a classic KDD, from the selection of data to the visualization of results. Furthermore, this method was constructed in such a way that it can also be used for data generation, a component necessary for the simulation of landscapes
APA, Harvard, Vancouver, ISO, and other styles
21

Louis, Maxime. "Méthodes numériques et statistiques pour l'analyse de trajectoire dans un cadre de géométrie Riemannienne." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS570.

Full text
Abstract:
Cette thèse porte sur l'élaboration d'outils de géométrie riemannienne et de leur application en vue de la modélisation longitudinale de sujets atteints de maladies neuro-dégénératives. Dans une première partie, nous prouvons la convergence d'un schéma numérique pour le transport parallèle. Ce schéma reste efficace tant que l'inverse de la métrique peut être calculé rapidement. Dans une deuxième partie, nous proposons l'apprentissage une variété et une métrique riemannienne. Après quelques résultats théoriques encourageants, nous proposons d'optimiser la modélisation de progression de sujets comme des géodésiques sur cette variété
This PhD proposes new Riemannian geometry tools for the analysis of longitudinal observations of neuro-degenerative subjects. First, we propose a numerical scheme to compute the parallel transport along geodesics. This scheme is efficient as long as the co-metric can be computed efficiently. Then, we tackle the issue of Riemannian manifold learning. We provide some minimal theoretical sanity checks to illustrate that the procedure of Riemannian metric estimation can be relevant. Then, we propose to learn a Riemannian manifold so as to model subject's progressions as geodesics on this manifold. This allows fast inference, extrapolation and classification of the subjects
APA, Harvard, Vancouver, ISO, and other styles
22

Thorstensen, Nicolas. "Apprentissage de variétés et applications au traitement de formes et d'images." Phd thesis, Ecole des Ponts ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005860.

Full text
Abstract:
Grâce aux bases de données en ligne, le volume de données ne cesse d accroitre. Non seulement la quantité de donnes augmente mais aussi la complexité des donnes est hautement complexe. Ce fait nécessite le développement d algorithmes performants. Récemment, une nouvelle classe de méthodes connue sous le nom de: "apprentissage de variétés" a été introduite. Ces méthodes présentent un formalisme intéressant et performant pour l analyse de données à très haute dimension. Ces méthode assument que les degrés de liberté dans les données sont bien plus petit que la dimension de l espace des données. Le but de ces algorithmes est retrouve une variété plongée dans un espace à haute dimension (voire infinie). La sortie d un tel algorithme est une fonction transformant les données dans un espace (espace de feature) où l'analyse devient plus facile. Souvent cette fonction est considère comme une para métrisation de la variété. Dans la première partie de ce manuscrit, nous allons introduire les idées principales ainsi que la théorie des espaces métriques. Ceci nous fournira les outils de bases pour les méthodes d'apprentissage de variétés. Par la suite nous présenterons des méthodes linéaires et non- linéaires pour l'apprentissage de variétés et analyserons leurs points forts et faibles. La deuxième partie développera deux applications en utilisant l'apprentissage des variétés. Dans les deux cas l'apprentissage de variétés est appliqué pour approximer le métrique dans l espace initiale. Ainsi la distance entre points dans l'espace originale peut être approximé en utilisant la métrique dans l'espace feature. Ainsi nous pouvant résoudre des problèmes d optimisation basée sur les distances entre points. Dans cette idée nous regardons le premier problème connu sous le nom "problème de la pré-image". Nous analyserons ce problème dans le contexte de la ACP a noyau and la technique des di
APA, Harvard, Vancouver, ISO, and other styles
23

Schwander, Olivier. "Méthodes de géométrie de l'information pour les modèles de mélange." Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00931722.

Full text
Abstract:
Cette thèse présente de nouvelles méthodes pour l'apprentissage de modèles de mélanges basées sur la géométrie de l'information. Les modèles de mélanges considérés ici sont des mélanges de familles exponentielles, permettant ainsi d'englober une large part des modèles de mélanges utilisés en pratique. Grâce à la géométrie de l'information, les problèmes statistiques peuvent être traités avec des outils géométriques. Ce cadre offre de nouvelles perspectives permettant de mettre au point des algorithmes à la fois rapides et génériques. Deux contributions principales sont proposées ici. La première est une méthode de simplification d'estimateurs par noyaux. Cette simplification est effectuée à l'aide un algorithme de partitionnement, d'abord avec la divergence de Bregman puis, pour des raisons de rapidité, avec la distance de Fisher-Rao et des barycentres modèles. La seconde contribution est une généralisation de l'algorithme k-MLE permettant de traiter des mélanges où toutes les composantes ne font pas partie de la même famille: cette méthode est appliquée au cas des mélanges de Gaussiennes généralisées et des mélanges de lois Gamma et est plus rapide que les méthodes existantes. La description de ces deux méthodes est accompagnée d'une implémentation logicielle complète et leur efficacité est évaluée grâce à des applications en bio-informatique et en classification de textures.
APA, Harvard, Vancouver, ISO, and other styles
24

Pfaff, Nathalie. "Processus de conceptualisation autour du théorème de Thalès." Paris 5, 1995. http://www.theses.fr/1995PA05H033.

Full text
Abstract:
La géométrie enseignée en collège est souvent liée à l'étude des figures. La résolution d'un exercice nécessite le passage du dessin, en tant qu'illustration, au statut de figure, prenant en compte les relations mathématiques. Pour analyser ce passage dessin-figure, nous avons choisi d'étudier le théorème de Thalès. Notre objectif est de comprendre les processus de conceptualisation lors du passage dessin-figure. Nous montrons que, seule, une étude conjointe au plan des signifies et au plan des signifiants permet de comprendre ce passage. L’analyse historique montre que de nombreuses présentations du théorème ont existé. Celui-ci peut être associe a plusieurs types de figures ainsi qu'a plusieurs types de calcul, qu'il est nécessaire de prendre en compte pour comprendre les différents processus de conceptualisation. Cet inventaire de problèmes ne se limite pas à un point de vue mathématique mais est complète par une analyse des taches cognitives. A partir de cette construction du champ conceptuel, nous analysons l'enseignement actuel du théorème. Celui-ci s'avère souvent limite à l'apprentissage d'une "recette", ne prenant pas en compte les différentes situations. Ces différences ne peuvent être distinguées que par une étude ciblée sur le champ conceptuel. Une analyse affinée permet de repérer quelques filiations et ruptures conceptuelles inhérentes au savoir, que l'élève devra conceptualiser au cours de son développement cognitif
The geometry taught in secondary schools is often linked to the study of geometrical figures. To solve a problem, we must necessarily take a step from the concept of a drawing as an illustration, to that giving it the status of a geometrical figure, taking into account the mathematical relationships. To analyse this, we have chosen to study Thales' theorem. Our objective is to understand the process of conceptualization which occurs during the passage from drawing to geometrical figure. We hope to demonstrate that only by studying both from the point of view of the signified and the signifier, can we understand this process. Historical analysis shows that there have been many and varied presentations of this theorem. It may be associated with several different types of geometrical figures, as well as different types of calculations. We need to take this into account in order to understand the different processes of conceptualization. This inventory of problems cannot be limited to a mathematical viewpoint, but must be complemented by an analysis of the cognitive tasks involved. Starting from this constructionof the conceptual field, we then hope to analyse current teaching practices regarding this theorem. These often turn out to be limited to the repetition of a "formula", a sort of recipe, which do not take into account the different situations encountered. These differences can only be distinguisted by a study aimed at the conceptual field. An in-depth analysis will allow us to identify certain conceptual links and breaks inherent in the learning process, which the student must conceptualize during the course of the development of his her cognitive faculties
APA, Harvard, Vancouver, ISO, and other styles
25

Bertolo, David. "Apports et évaluations des interactions sur tablettes numériques dans le cadre de l'apprentissage de la géométrie dans l'espace." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0360/document.

Full text
Abstract:
Les terminaux mobiles multipoints se sont très largement démocratisés durant ces dernières années. De plus en plus d’établissements scolaires expérimentent l’introduction des tablettes numériques dans les classes en espérant y trouver des apports pédagogiques. Cependant, les « stores » dédiés à ces nouveaux périphériques ne proposent quasiment aucune application concernant l’apprentissage de la géométrie dans l’espace à l’école primaire et au collège. La difficulté principale de ce type d’application réside dans la nécessité de manipuler un espace tridimensionnel à partir d’un périphérique qui est bidimensionnel. Les jeunes élèves en pleine structuration de l’espace en sont d’ailleurs souvent incapables avec les logiciels classiques des stations de bureau. Dans ce mémoire, nous nous focalisons sur l’utilisation des nouvelles technologies apportées par les tablettes numériques. Notre objectif est multiple, permettre aux élèves de 9 à 15 ans de manipuler, observer, modifier des scènes 3D et mesurer les apports pédagogiques d’une démarche non pas techno-centrée mais anthropo-centrée. En nous basant sur une approche centrée sur l’utilisateur, nous avons d’abord proposé une grammaire d’interactions adaptée à de jeunes apprenants. Nous avons ensuite évalué l’acceptabilité, la facilité d’utilisation et d’apprentissage de nos interactions. Enfin, nous avons étudié in situ l’apport pédagogique de l’introduction de tablettes numériques équipées d’une application basée sur notre grammaire. Nous constatons qu’en utilisant un ensemble d’interactions adapté, les élèves manipulent, observent et modifient des scènes 3D de manière intuitive. De plus, l’utilisation d’une telle application lors de l’apprentissage de la géométrie dans l’espace a montré un apport significatif dans des classes de CM1 principalement en termes de mise en relation des perspectives et d’investigation dans les patrons
Since a few years multi-touch mobile devices are becoming increasingly common. More and more schools are testing them with their pupils in the hope of bringing pedagogic benefits. However, very few applications in the context of 3D geometry learning can be found on the different stores. Manipulating a 3D scene with a 2D device is the main difficulty of such applications. Young students, learning structuration of space, are unable to do that with classical software used on desktop computer. Through this thesis, we focus on allowing students aged 9 to 15 to manipulate, observe and modify 3D scenes by using new technologies brought by the digital tablets. By using a user-centred approach, we have proposed a grammar of interactions adapted to young learners. Then, we have evaluated acceptability, ease to use and ease to learn of our interactions. Finally, we have studied in situ the pedagogic benefits brought by the use of tablets with an app based on our grammar. Our results shows that students are able to manipulate, observe and modify 3D scenes when they use an adapted set of interactions. Moreover, in the context of 3D geometry learning a significant contribution had been observed in two classes when students used such an application
APA, Harvard, Vancouver, ISO, and other styles
26

Bastug, Ejder. "Les méthodes de caching distribué dans les réseaux small cells." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLC017/document.

Full text
Abstract:
Cette thèse explore le caching proactif, l'un des principaux paradigmes des réseaux cellulaires 5G utilisé en particulier le déploiement des réseaux à petites cellules (RPCs). Doté de capacités de prévisions en combinaison avec les récents développements dans le stockage, la sensibilité au contexte et les réseaux sociaux, le caching distribué permet de réduire considérablement les pics de trafic dans la demande des utilisateurs en servant de manière proactive ces derniers en fonction de leurs demandes potentielles, et en stockant les contenus à la fois dans les stations de base et dans les terminaux des utilisateurs. Pour montrer la faisabilité des techniques de caching proactif, nous abordons le problème sous deux angles différents, à savoir théorique et pratique.Dans la première partie de cette thèse, nous utiliserons des outils de géométrie stochastique pour modéliser et analyser les gains théoriques résultant du stockage dans les stations de base. Nous nous focalisons en particulier sur 1-) les réseaux ``niveau-simple" dans lesquels de petites stations de base ayant une capacité de stockage limitée, 2-) Réseaux ``niveau-multiples" avec un backbone à capacité limitée et 3-) Les réseaux ``niveau-multiples groupés" à deux topologies différentes: déploiements en fonction de la couverture et en fonction de la capacité. Nous y caractérisons les gains de stockage en termes de débit moyen fourni et de délai moyen, puis nous montrons différents compromis en fonction du nombre de stations de base, de la taille de stockage, du facteur de popularité des contenus et du débit des contenus ciblés. Dans la seconde partie de la thèse, nous nous focalisons à une approche pratique du caching proactif et nous focalisons sur l'estimation du facteur de popularité des contenus et les aspects algorithmiques. En particulier, 1-) nous établissons dans un premier lieu les gains du caching proactif à la fois au niveau des stations de base qu'au niveau des terminaux utilisateurs, en utilisant des outils récents d'apprentissage automatique exploitant le transfert des communications appareil-à-appareil (AàA); 2-) nous proposons une approche d'apprentissage sur la base de la richesse des informations transmises entre terminaux (que nous désignons par domaine source) dans le but d'avoir une meilleure estimation de la popularité des différents contenus et des contenus à stocker de manière stratégique dans les stations de base (que nous désignons par domaine cible); 3-) Enfin, pour l'estimation de la popularité des contenus en pratique, nous collectons des données de trafic d'usagers mobiles d'un opérateur de télécommunications sur plusieurs de ses stations de base pendant un certain nombre d'observations. Cette grande quantité de données entre dans le cadre du traitement ``Big Data" et nécessite l'utilisation de nouveaux mécanismes d'apprentissage automatique adaptés à ces grandes masses de données. A ce titre, nous proposons une architecture parallélisée dans laquelle l'estimation de la popularité des contenus et celle du stockage stratégique au niveau des stations de base sont faites simultanément. Nos résultats et analyses fournissent des visions clés pour le déploiement du stockage de contenus dans les petites stations de base, l'une des solutions les plus prometteuses des réseaux cellulaires mobiles hétérogènes 5G
This thesis explores one of the key enablers of 5G wireless networks leveraging small cell network deployments, namely proactive caching. Endowed with predictive capabilities and harnessing recent developments in storage, context-awareness and social networks, peak traffic demands can be substantially reduced by proactively serving predictable user demands, via caching at base stations and users' devices. In order to show the effectiveness of proactive caching techniques, we tackle the problem from two different perspectives, namely theoretical and practical ones.In the first part of this thesis, we use tools from stochastic geometry to model and analyse the theoretical gains of caching at base stations. In particular, we focus on 1) single-tier networks where small base stations with limited storage are deployed, 2) multi-tier networks with limited backhaul, and) multi-tier clustered networks with two different topologies, namely coverage-aided and capacity-aided deployments. Therein, we characterize the gains of caching in terms of average delivery rate and mean delay, and show several trade-offs as a function of the number of base stations, storage size, content popularity behaviour and target content bitrate. In the second part of the thesis, we take a more practical approach of proactive caching and focus on content popularity estimation and algorithmic aspects. In particular: 1) We first investigate the gains of proactive caching both at base stations and user terminals, by exploiting recent tools from machine learning and enabling social-network aware device-to-device (D2D) communications; 2) we propose a transfer learning approach by exploiting the rich contextual information extracted from D2D interactions (referred to as source domain) in order to better estimate the content popularity and cache strategic contents at the base stations (referred to as target domain); 3) finally, to estimate the content popularity in practice, we collect users' real mobile traffic data from a telecom operator from several base stations in hours of time interval. This amount of large data falls into the framework of big data and requires novel machine learning mechanisms to handle. Therein, we propose a parallelized architecture in which content popularity estimation from this data and caching at the base stations are done simultaneously.Our results and analysis provide key insights into the deployment of cache-enabled small base stations, which are seen as a promising solution for 5G heterogeneous cellular networks
APA, Harvard, Vancouver, ISO, and other styles
27

Murena, Pierre-Alexandre. "Minimum complexity principle for knowledge transfer in artificial learning." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT019/document.

Full text
Abstract:
Les méthodes classiques d'apprentissage automatique reposent souvent sur une hypothèse simple mais restrictive: les données du passé et du présent sont générées selon une même distribution. Cette hypothèse permet de développer directement des garanties théoriques sur la précision de l'apprentissage. Cependant, elle n'est pas réaliste dans un grand nombre de domaines applicatifs qui ont émergé au cours des dernières années.Dans cette thèse, nous nous intéressons à quatre problèmes différents en intelligence artificielle, unis par un point commun: tous impliquent un transfer de connaissance d'un domaine vers un autre. Le premier problème est le raisonnement par analogie et s'intéresse à des assertions de la forme "A est à B ce que C est à D". Le second est l'apprentissage par transfert et se concentre sur des problèmes de classification dans des contextes où les données d'entraînement et de test ne sont pas de même distribution (ou n'appartiennent même pas au même espace). Le troisième est l'apprentissage sur flux de données, qui prend en compte des données apparaissant continument une à une à haute fréquence, avec des changements de distribution. Le dernier est le clustering collaboratif et consiste à faire échanger de l'information entre algorithmes de clusterings pour améliorer la qualité de leurs prédictions.La principale contribution de cette thèse est un cadre général pour traiter les problèmes de transfer. Ce cadre s'appuie sur la notion de complexité de Kolmogorov, qui mesure l'information continue dans un objet. Cet outil est particulièrement adapté au problème de transfert, du fait qu'il ne repose pas sur la notion de probabilité tout en étant capable de modéliser les changements de distributions.En plus de cet effort de modélisation, nous proposons dans cette thèse diverses discussions sur d'autres aspects ou applications de ces problèmes. Ces discussions s'articulent autour de la possibilité de transfert dans différents domaines et peuvent s'appuyer sur d'autres outils que la complexité
Classical learning methods are often based on a simple but restrictive assumption: The present and future data are generated according to the same distributions. This hypothesis is particularly convenient when it comes to developing theoretical guarantees that the learning is accurate. However, it is not realistic from the point of view of applicative domains that have emerged in the last years.In this thesis, we focus on four distinct problems in artificial intelligence, that have mainly one common point: All of them imply knowledge transfer from one domain to the other. The first problem is analogical reasoning and concerns statements of the form "A is to B as C is to D". The second one is transfer learning and involves classification problem in situations where the training data and test data do not have the same distribution (nor even belong to the same space). The third one is data stream mining, ie. managing data that arrive one by one in a continuous and high-frequency stream with changes in the distributions. The last one is collaborative clustering and focuses on exchange of information between clustering algorithms to improve the quality of their predictions.The main contribution of this thesis is to present a general framework to deal with these transfer problems. This framework is based on the notion of Kolmogorov complexity, which measures the inner information of an object. This tool is particularly adapted to the problem of transfer, since it does not rely on probability distributions while being able to model the changes in the distributions.Apart from this modeling effort, we propose, in this thesis, various discussions on aspects and applications of the different problems of interest. These discussions all concern the possibility of transfer in multiple domains and are not based on complexity only
APA, Harvard, Vancouver, ISO, and other styles
28

Gomes, Alex Sandro. "Développement conceptuel consécutif à l'activité instrumentée : l'utilisation d'un système informatique de géométrie dynamique au collège." Paris 5, 1999. http://www.theses.fr/1999PA05H058.

Full text
Abstract:
Depuis plusieurs décennies, l'enseignement de la géométrie est considère comme étant problématique et de nombreuses recherches ont déjà été réalisées pour comprendre et évaluer sur les effets de l'utilisation de matériaux éducatifs pour l'enseignement de concepts géométriques. Ce domaine a été récemment bouleverse par l'introduction de systèmes informatises de géométrie dynamique (SGD). Dans ce travail, nous synthétisons les principaux résultats obtenus sur ce sujet et nous nous interrogeons sur l'apport de ces systèmes à l'apprentissage de concepts géométriques. Nous partons d'un point de vue constructiviste de l'action avec instruments pour analyser l'activité des élèves avec ces systèmes et pour identifier les développements conceptuels qui en découlent. Nos analyses montrent que l'apprentissage au maniement de ces systèmes d'instruments n'est pas toujours accompagne d'un développement conceptuel et que celui-ci a lieu par approximations successives au cours des diverses activités menées avec le système. En accord avec les résultats les plus significatifs obtenus par les travaux sur l'apport des SGD pour l'apprentissage, nous établissons que c'est bien le passage d'une démarche de construction approximative vers des démarches de construction géométriques correctes qui conduit à un développement conceptuel effectif. Les SGD, par leurs capacités d'invalidation des constructions géométriques, jouent ainsi un rôle très important dans l'apprentissage et le développement des concepts géométriques au collège.
APA, Harvard, Vancouver, ISO, and other styles
29

Pompidor, Pierre. "Apprentissage symbolique par exemples et contre-exemples géométrisables en prise de décisions : le système FONGUS : application au jeu de Go." Montpellier 2, 1992. http://www.theses.fr/1992MON20165.

Full text
Abstract:
Le sujet de cette these est de modeliser et de realiser un prototype d'un systeme d'apprentissage apprenant les regles et les meta-regles necessaires a l'expertise de certaines problematiques dont les exemples et les contre-exemples sont representables sur un espace euclidien a n dimensions. L'apprentissage se reitere sur quatre phases. Dans une premiere phase, les sequences d'actions des exemples sont partitionnees en sous-sequences coherentes (tactiques). Dans une seconde phase, les tactiques sont comparees par le biais de fonctions geometriques identifiant une relation geometrique causale, traduite par une regle conceptuelle. Ces regles sont generalisees pour recouvrir des classes de situations tactiques. Dans une troisieme phase de planification strategique, les exemples sont reecrits en chronologies de regles dont la comparaison et la generalisation generent des meta-regles ordonnancant l'application des regles. Lors d'une derniere phase de revision des connaissances, les regles et les meta-regles sont utilisees dans un systeme expert testant ses connaissances apprises, et reintroduisant comme contre-exemples, des sequences qu'il juge defavorables dans sa base de connaissances. Ce systeme est actuellement applique sur le jeu de go
APA, Harvard, Vancouver, ISO, and other styles
30

Coelho, Rodrigues Pedro Luiz. "Exploration des invariances de séries temporelles multivariées via la géométrie Riemannienne : validation sur des données EEG." Electronic Thesis or Diss., Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT095.

Full text
Abstract:
L’utilisation de séries temporelles multi-variées est une procédure standard pour décrire et analyser des mesures enregistrées par plusieurs capteurs au cours d’une expérience. Dans ce travail, nous discutons certains aspects de ces représentations temporelles, invariants aux transformations qui peuvent se produire en situations pratiques. Nos recherches s’inspirent en grande partie d’expériences neurophysiologiques reposant sur l’enregistrement de l’activité cérébrale au moyen de l'électroencéphalographie (EEG), mais les idées que nous présentons ne sont pas restreintes à ce cas particulier et peuvent s’étendre à d'autres types de séries temporelles.La première invariance sur laquelle nous portons notre attention est celle de la dimensionalité des séries temporelles multi-variées. Bien souvent, les signaux enregistrés par des capteurs voisins présentent une forte dépendance statistique entre eux. Nous introduisons donc l’utilisation de techniques permettant d’éliminer la redondance des signaux corrélés et d’obtenir de nouvelles représentations du même phénomène en dimension réduite.La deuxième invariance que nous traitons est liée à des séries temporelles qui décrivent le même phénomène mais sont enregistrées dans des conditions expérimentales différentes. Par exemple, des signaux enregistrés avec le même appareil expérimental, mais à différents jours de la semaine ou sur différents sujets, etc. Dans de tels cas, malgré une variabilité sous-jacente, les séries temporelles multi-variées partagent certains points communs qui peuvent être exploités par une analyse conjointe. En outre, la réutilisation des informations déjà disponibles à partir d'autres jeux de données est une idée très séduisante et permet l’utilisation de méthodes d'apprentissage automatiques dites «data-efficient». Nous présentons une procédure originale d’apprentissage par transfert qui transforme les séries temporelles de telle sorte que leurs distributions statistiques soient alignées et puissent être regroupées pour une analyse statistique plus poussée.Enfin, nous étendons le cas précédent au contexte où les séries temporelles sont obtenues à partir de différentes conditions expérimentales et de différentes configurations d’enregistrement de données. Nous présentons une méthode originale qui transforme ces séries temporelles multi-variées afin qu'elles deviennent compatibles en termes de dimensionalité et de distributions statistiques.Nous illustrons les techniques citées ci-dessus en les appliquant à des signaux EEG enregistrés dans le cadre d’expériences d’interface cerveau-ordinateur (BCI). Nous montrons sur plusieurs exemples, avec des simulations et des données réelles, que la réduction de dimension - judicieusement choisie - de la série temporelle multi-variée n’affecte pas les performances de classifieurs statistiques utilisés pour déterminer la classe des signaux, et que notre méthode de transfert d'apprentissage et de compatibilité de dimensionalité apporte des améliorations remarquables en matière de classification inter-sessions et inter-sujets.Pour explorer les invariances présentées ci-dessus, nous nous appuyons sur l’utilisation de matrices Hermitiennes définies positives (HPD) afin de décrire les statistiques des séries temporelles multi-variées. Nous manipulons ces matrices en considérant qu’elles reposent dans une variété Riemannienne pour laquelle une métrique adéquate est choisie. Nous utilisons des concepts issus de la géométrie Riemannienne pour définir des notions telles que la distance géodésique, le centre de masse ou encore les classifieurs statistiques de séries temporelles. Cette approche repose sur les résultats fondamentaux de la géométrie différentielle pour les matrices Hermitiennes définies positives et est liée à d'autres domaines bien établis en mathématiques appliquées, tels que la géométrie de l'information et le traitement du signal
Multivariate time series are the standard tool for describing and analysing measurements from multiple sensors during an experiment. In this work, we discuss different aspects of such representations that are invariant to transformations occurring in practical situations. The main source of inspiration for our investigations are experiments with neural signals from electroencephalography (EEG), but the ideas that we present are amenable to other kinds of time series.The first invariance that we consider concerns the dimensionality of the multivariate time series. Very often, signals recorded from neighbouring sensors present strong statistical dependency between them. We present techniques for disposing of the redundancy of these correlated signals and obtaining new multivariate time series that represent the same phenomenon but in a smaller dimension.The second invariance that we treat is related to time series describing the same phenomena but recorded under different experimental conditions. For instance, signals recorded with the same experimental apparatus but on different days of the week, different test subjects, etc. In such cases, despite an underlying variability, the multivariate time series share certain commonalities that can be exploited for joint analysis. Moreover, reusing information already available from other datasets is a very appealing idea and allows for “data-efficient” machine learning methods. We present an original transfer learning procedure that transforms these time series so that their statistical distributions become aligned and can be pooled together for further statistical analysis.Finally, we extend the previous case to when the time series are obtained from different experimental conditions and also different experimental setups. A practical example is having EEG recordings from subjects executing the same cognitive task but with the electrodes positioned differently. We present an original method that transforms these multivariate time series so that they become compatible in terms of dimensionality and also in terms of statistical distributions.We illustrate the techniques described above on EEG epochs recorded during brain-computer interface (BCI) experiments. We show examples where the reduction of the multivariate time series does not affect the performance of statistical classifiers used to distinguish their classes, as well as instances where our transfer learning and dimension-matching proposals provide remarkable results on classification in cross-session and cross-subject settings.For exploring the invariances presented above, we rely on a framework that parametrizes the statistics of the multivariate time series via Hermitian positive definite (HPD) matrices. We manipulate these matrices by considering them in a Riemannian manifold in which an adequate metric is chosen. We use concepts from Riemannian geometry to define notions such as geodesic distance, center of mass, and statistical classifiers for time series. This approach is rooted on fundamental results of differential geometry for Hermitian positive definite matrices and has links with other well established areas in applied mathematics, such as information geometry and signal processing
APA, Harvard, Vancouver, ISO, and other styles
31

Khalife, Sammy. "Graphes, géométrie et représentations pour le langage et les réseaux d'entités." Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX055.

Full text
Abstract:
Le traitement informatique des objets qui nous entourent, naturels ou créés par l'homme, demande toujours de passer par une phase de traduction en entités traitables par des programmes. Le choix de ces représentations abstraites est toujours crucial pour l'efficacité des traitements et est le terrain d'améliorations constantes. Mais il est un autre aspect émergeant : le lien entre l'objet à représenter et "sa" représentation n'est pas forcément bijectif ! Ainsi la nature ambiguë de certaines structures discrètes pose problème pour la modélisation ainsi que le traitement et l'analyse à l'aide d'un programme informatique. Le langage dit ``naturel'', et sous sa forme en particulier de représentation textuelle, en est un exemple. Le sujet de cette thèse consiste à explorer cette question, que nous étudions à l'aide de méthodes combinatoires et géométriques. Ces méthodes nous permettent de formaliser le problème d'extraction d'information dans des grands réseaux d'entités ainsi que de construire des représentations géométriques utiles pour le traitement du langage naturel. Dans un premier temps, nous commençons par démontrer des propriétés combinatoires des graphes de séquences intervenant de manière implicite dans les modèles séquentiels. Ces propriétés concernent essentiellement le problème inverse de trouver une séquence représentant un graphe donné. Les algorithmes qui en découlent nous permettent d'effectuer une comparaison expérimentale de différents modèles séquentiels utilisés en modélisation du langage. Dans un second temps, nous considérons une application pour le problème d'identification d'entités nommées. A la suite d'une revue de solutions récentes, nous proposons une méthode compétitive basée sur la comparaison de structures de graphes de connaissances et moins coûteuse en annotations d'exemples dédiés au problème. Nous établissons également une analyse expérimentale d'influence d'entités à partir de relations capitalistiques. Cette analyse suggère l'élargissement du cadre d'application de l'identification d'entités à des bases de connaissances de natures différentes. Ces solutions sont aujourd'hui utilisées au sein d'une librairie logicielle dans le secteur bancaire. Ensuite, nous développons une étude géométrique de représentations de mots récemment proposées, au cours de laquelle nous discutons une conjecture géométrique théoriquement et expérimentalement. Cette étude suggère que les analogies du langage sont difficilement transposables en propriétés géométriques, et nous amène a considérer le paradigme de la géométrie des distances afin de construire de nouvelles représentations. Enfin, nous proposons une méthodologie basée sur le paradigme de la géométrie des distances afin de construire de nouvelles représentations de mots ou d'entités. Nous proposons des algorithmes de résolution de ce problème à grande échelle, qui nous permettent de construire des représentations interprétables et compétitives en performance pour des tâches extrinsèques. Plus généralement, nous proposons à travers ce paradigme un nouveau cadre et piste d'explorations pour la construction de représentations en apprentissage machine
The automated treatment of familiar objects, either natural or artifacts, always relies on a translation into entities manageable by computer programs. The choice of these abstract representations is always crucial for the efficiency of the treatments and receives the utmost attention from computer scientists and developers. However, another problem rises: the correspondence between the object to be treated and "its" representation is not necessarily one-to-one! Therefore, the ambiguous nature of certain discrete structures is problematic for their modeling as well as their processing and analysis with a program. Natural language, and in particular its textual representation, is an example. The subject of this thesis is to explore this question, which we approach using combinatorial and geometric methods. These methods allow us to address the problem of extracting information from large networks of entities and to construct representations useful for natural language processing.Firstly, we start by showing combinatorial properties of a family of graphs implicitly involved in sequential models. These properties essentially concern the inverse problem of finding a sequence representing a given graph. The resulting algorithms allow us to carry out an experimental comparison of different sequential models used in language modeling.Secondly, we consider an application for the problem of identifying named entities. Following a review of recent solutions, we propose a competitive method based on the comparison of knowledge graph structures which is less costly in annotating examples dedicated to the problem. We also establish an experimental analysis of the influence of entities from capital relations. This analysis suggests to broaden the framework for applying the identification of entities to knowledge bases of different natures. These solutions are used today in a software library in the banking sector.Then, we perform a geometric study of recently proposed representations of words, during which we discuss a geometric conjecture theoretically and experimentally. This study suggests that language analogies are difficult to transpose into geometric properties, and leads us to consider the paradigm of distance geometry in order to construct new representations.Finally, we propose a methodology based on the paradigm of distance geometry in order to build new representations of words or entities. We propose algorithms for solving this problem on some large scale instances, which allow us to build interpretable and competitive representations in performance for extrinsic tasks. More generally, we propose through this paradigm a new framework and research leadsfor the construction of representations in machine learning
APA, Harvard, Vancouver, ISO, and other styles
32

Argaud, Henri-Claude. "Problèmes et milieux a-didactiques, pour un processus d'apprentissage en géométrie plane à l'école élémentaire, dans les environnements papier-crayon et Cabri-géomètre." Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10129.

Full text
Abstract:
La thèse porte sur l'enseignement et l'apprentissage de la géométrie plane à l'école élémentaire. Elle se compose de deux parties principales. La première partie est consacrée à une analyse du domaine conceptuel autour des relations de parallélisme, de perpendicularité, d'égalité de longueurs. Elle aboutit à une classification de ces problèmes, en fonction de ce qui est attendu dans la réponse à la question de chaque problème. Ensuite est conduite une analyse des problèmes suivant le caractère outil des relations dans les preuves, en montrant les liens qui sont établis sur le plan théorique entre ces relations, et le caractère outil plus ou moins «fort» de ces relations. Des ruptures sont mises à jour, révélant l'inégale difficulté des problèmes du fait des types de connaissances nécessaires à leur résolution. Dans la seconde partie, un processus d'apprentissage autour de ces relations est présenté. Il a pour but d'amener les élèves de Cours moyen de l'école élémentaire, qui disposent surtout de connaissances spatiales sur les relations considérées, à mobiliser des connaissances ayant un caractère théorique plus marqué, comme celles reposant sur les relations outils et les premiers «théorèmes» de géométrie. Pour ce processus est élaborée une ingénierie didactique. Elle se compose de situations devant avoir le caractère adidactique, et qui sont élaborées dans les deux environnements papier-crayon et Cabri-géomètre. L'analyse des phases de recherche (actions des élèves sur les milieux constitués, rétroactions de ces milieux et leurs effets, connaissances utilisées soit pour agir sur les milieux, soit pour en analyser les informations), et l'analyse des phases de validation permettent d'identifier des conditions attestant le fonctionnement adidactique effectif des situations
APA, Harvard, Vancouver, ISO, and other styles
33

Favrat, Jean-François. "Une expérience sur l'enseignement des surfaces a l'école élémentaire." Paris 7, 1986. http://www.theses.fr/1986PA077072.

Full text
Abstract:
La géométrie à l'école élémentaire est surtout consacrée à la maitrise de la latéralisation, au repérage plan, a la reconnaissance des formes planes et leur trace, puis a l'étude des développements de quelques solides. Quels pourraient être des contenus et des démarches pédagogiques pour des apprentissages les concernant. La première aborde les définitions des surfaces. La seconde est un tour d'horizon des outils mis à la disposition des maitres pour construire un enseignement sur les surfaces. Le troisième rend compte d'activités conduites avec les enfants de cours élémentaire deuxième année (8-9 ans)
APA, Harvard, Vancouver, ISO, and other styles
34

Mehr, Éloi. "Unsupervised Learning of 3D Shape Spaces for 3D Modeling." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS566.

Full text
Abstract:
Bien que les données 3D soient de plus en plus populaires, en particulier avec la démocratisation des expériences de réalité virtuelle et augmentée, il reste très difficile de manipuler une forme 3D, même pour des designers ou des experts. Partant d’une base de données d’instances 3D d’une ou plusieurs catégories d’objets, nous voulons apprendre la variété des formes plausibles en vue de développer de nouveaux outils intelligents de modélisation et d’édition 3D. Cependant, cette variété est souvent bien plus complexe comparée au domaine 2D. En effet, les surfaces 3D peuvent être représentées en utilisant plusieurs plongements distincts, et peuvent aussi exhiber des alignements ou des topologies différentes. Dans cette thèse, nous étudions la variété des formes plausibles à la lumière des défis évoqués précédemment, en approfondissant trois points de vue différents. Tout d'abord, nous considérons la variété comme un espace quotient, dans le but d’apprendre la géométrie intrinsèque des formes à partir d’une base de données où les modèles 3D ne sont pas co-alignés. Ensuite, nous supposons que la variété est non connexe, ce qui aboutit à un nouveau modèle d’apprentissage profond capable d’automatiquement partitionner et apprendre les formes selon leur typologie. Enfin, nous étudions la conversion d’une entrée 3D non structurée vers une géométrie exacte, représentée comme un arbre structuré de primitives solides continues
Even though 3D data is becoming increasingly more popular, especially with the democratization of virtual and augmented experiences, it remains very difficult to manipulate a 3D shape, even for designers or experts. Given a database containing 3D instances of one or several categories of objects, we want to learn the manifold of plausible shapes in order to develop new intelligent 3D modeling and editing tools. However, this manifold is often much more complex compared to the 2D domain. Indeed, 3D surfaces can be represented using various embeddings, and may also exhibit different alignments and topologies. In this thesis we study the manifold of plausible shapes in the light of the aforementioned challenges, by deepening three different points of view. First of all, we consider the manifold as a quotient space, in order to learn the shapes’ intrinsic geometry from a dataset where the 3D models are not co-aligned. Then, we assume that the manifold is disconnected, which leads to a new deep learning model that is able to automatically cluster and learn the shapes according to their typology. Finally, we study the conversion of an unstructured 3D input to an exact geometry, represented as a structured tree of continuous solid primitives
APA, Harvard, Vancouver, ISO, and other styles
35

Le, Van Luong. "Identification de systèmes dynamiques hybrides : géométrie, parcimonie et non-linéarités." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00874283.

Full text
Abstract:
En automatique, l'obtention d'un modèle du système est la pierre angulaire des procédures comme la synthèse d'une commande, la détection des défaillances, la prédiction... Cette thèse traite de l'identification d'une classe de systèmes complexes, les systèmes dynamiques hybrides. Ces systèmes impliquent l'interaction de comportements continus et discrets. Le but est de construire un modèle à partir de mesures expérimentales d'entrée et de sortie. Une nouvelle approche pour l'identification de systèmes hybrides linéaires basée sur les propriétés géométriques des systèmes hybrides dans l'espace des paramètres est proposée. Un nouvel algorithme est ensuite proposé pour le calcul de la solution la plus parcimonieuse (ou creuse) de systèmes d'équations linéaires sous-déterminés. Celui-ci permet d'améliorer une approche d'identification basée sur l'optimisation de la parcimonie du vecteur d'erreur. De plus, de nouvelles approches, basées sur des modèles à noyaux, sont proposées pour l'identification de systèmes hybrides non linéaires et de systèmes lisses par morceaux.
APA, Harvard, Vancouver, ISO, and other styles
36

Madra, Anna. "Analyse et visualisation de la géométrie des matériaux composites à partir de données d’imagerie 3D." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2387/document.

Full text
Abstract:
Le sujet du projet de thèse réalisée en cotutelle entre Laboratoire Roberval à l'Université de Technologie de Compiègne et le Centre de Composites à Haute Performance d'École Polytechnique de Montréal porté sur une proposition de l'architecture du deep learning avec sémantique pour la création automatisée des modèles de la microstructure de matériaux composites à partir d'imagerie de la micrographie aux rayons X. La thèse consiste de trois parties principales : d'abord les méthodes du prétraitement de données microtomographiques sont relevées, avec l'accent sur la segmentation de phases à partir d'images 2D. Ensuite, les propriétés géométriques des éléments de phases sont extraites et utilisées pour classifier et identifier de nouvelles morphologies. Cela est démontré pour le cas de composites chargés par les fibres courtes naturelles. L'approche de classification à l'aide des algorithmes d'apprentissage est reprise pour étudier les défauts dans un composite, mais en ajoutant les aspects spatiaux. En plus, un descripteur de haut niveau "génome de défauts" est introduit, qui permet de comparer l'état de défauts dans les différents échantillons. La deuxième partie introduit la segmentation structurelle sur l'exemple du renfort tissé du composite. La méthode repose sur un modèle du krigeage dual, calibré par l'erreur de segmentation provenant d'algorithme d'apprentissage. Finalement, le modèle krigé est repris pour construire une formulation stochastique du renfort à travers de processus gaussien et la distribution des propriétés physiques de la microstructure est extraite et prête pour la simulation numérique de la fabrication ou du comportement mécanique
The subject of the thesis project between Laboratoire Roberval at Université de Technologie Compiègne and Center for High-Performance Composites at Ecole Polytechnique de Montréal considered the design of a deep learning architecture with semantics for automatic generation of models of composite materials microstructure based on X-ray microtomographic imagery. The thesis consists of three major parts. Firstly, the methods of microtomographic image processing are presented, with an emphasis on phase segmentation. Then, the geometric features of phase elements are extracted and used to classify and identify new morphologies. The method is presented for composites filled with short natural fibers. The classification approach is also demonstrated for the study of defects in composites, but with spatial features added to the process. A high-level descriptor "defect genome" is proposed, that permits comparison of the state o defects between specimens. The second part of the thesis introduces structural segmentation on the example of woven reinforcement in a composite. The method relies on dual kriging, calibrated by the segmentation error from learning algorithms. In the final part, a stochastic formulation of the kriging model is presented based on Gaussian Processes, and distribution of physical properties of a composite microstructure is retrieved, ready for numerical simulation of the manufacturing process or of mechanical behavior
APA, Harvard, Vancouver, ISO, and other styles
37

Poulenard, Adrien. "Structures for deep learning and topology optimization of functions on 3D shapes." Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX007.

Full text
Abstract:
Le domaine du traitement de la géométrie suit un cheminement similaire à celui de l'analyse d'images avec l'explosion des publications consacrées à l'apprentissage profond ces dernières années. Un important effort de recherche est en cours pour reproduire les succès de l'apprentissage profond dans le domaine de la vision par ordinateur dans le contexte de l'analyse de formes 3D. Contrairement aux images, les formes 3D peuvent peuvent être représentées de différentes manières comme des maillages ou des nuages de points souvent dépourvus d'une structure canonique. Les algorithmes d'apprentissage profond traditionnels tels que les réseaux neuronaux convolutifs (CNN) ne sont donc pas faciles à appliquer aux formes 3D. Dans cette thèse, nous proposons trois contributions principales : premièrement, nous introduisons une méthode permettant de comparer des fonctions sur des domaines différents sans correspondances et de les déformer afin de rendre la topologie de leur ensemble de niveaux similaires. Nous appliquons notre méthode au problème classique de la correspondance de formes dans le contexte des applications fonctionnelles (functional maps) afin de produire des correspondances plus lisses et plus précises. Par ailleurs notre méthode reposant sur l'optimisation continue d'une énergie différentiable par rapport aux fonctions comparées elle est applicable à l'apprentissage profond. Nous apportons deux contributions directes à l'apprentissage profond des données 3D. Nous introduisons un nouvel opérateur de convolution sur des maillages triangulaires basés sur des coordonnées polaires locales et l'appliquons à l'apprentissage profond sur les maillages. Contrairement aux travaux précédents, notre opérateur prend en compte tous les choix de coordonnées polaires sans perte d'information directionnelle. Enfin, nous introduisons un nouveau module de convolution invariant par rotation sur les nuages de points et montrons que les CNN basés sur ce dernier peuvent surpasser l'état de l'art pour des tâches standard sur des ensembles de données non alignés même avec augmentation des données
The field of geometry processing is following a similar path as image analysis with the explosion of publications dedicated to deep learning in recent years. An important research effort is being made to reproduce the successes of deep learning 2D computer vision in the context of 3D shape analysis. Unlike images shapes comes in various representations like meshes or point clouds which often lack canonical structure. This makes traditional deep learning algorithms like Convolutional Neural Networks (CNN) non straightforward to apply to 3D data. In this thesis we propose three main contributions:First, we introduce a method to compare functions on different domains without correspondences and to deform them to make the topology of their set of levels more alike. We apply our method to the classical problem of shape matching in the context of functional maps to produce smoother and more accurate correspondences. Furthermore, our method is based on the continuous optimization of a differentiable energy with respect to the compared functions and is applicable to deep learning. We make two direct contributions to deep learning on 3D data. We introduce a new convolution operator over triangles meshes based on local polar coordinates and apply it to deep learning on meshes. Unlike previous works our operator takes all choices of polar coordinates into account without loss of directional information. Lastly we introduce a new rotation invariant convolution layer over point clouds and show that CNNs based on this layer can outperform state of the art methods in standard tasks on un-alligned datasets even with data augmentation
APA, Harvard, Vancouver, ISO, and other styles
38

Bako, Maria. "Utilisation de l'ordinateur pour le développemnt de la vision spatiale." Toulouse 3, 2006. http://www.theses.fr/2006TOU30041.

Full text
Abstract:
L'objectif principal de notre travail était de déterminer si l'ordinateur peut effectivement aider au développement de la vision spatiale en géométrie, et, si oui, comment il peut le faire. D'abord nous avons analysé si l'ordinateur peut remplacer l'utilisation des maquettes dans l'enseignement. Le but de la première expérience était de comparer la maquette et l'ordinateur, en cherchant les sections planes du cube. L'expérience a montré que ce n'est pas suffisant d'énuméré les solutions. Pour que les résultats soit durables, les élèves doivent travailler sur le problème. En se basent sur ces résultats, nous avons écrit des logiciels qui utilisent des rétroactions perceptives, pour développer la capacité de visualisation, rotation mentale, relations spatiales et orientation (composantes de la vision spatiale). Les logiciels génèrent des exercices au format HTML dynamique. Dans le cas de la rotation mentale nous avons effectué une expérience qui a montré que les résultats des élèves se sont amélioré au fur et à mesure
The aim of this thesis is to decide that the computer programs can help in improvement of spatial intelligence. At first we examined that the computer programs could replace the models in the education, or not. The aim of the first experiment was to compare the result of tests based on programs and models about plane sections. The result indicates that it is not enough to rattle off the solutions, but students need to work up the computer-generated answers to burn into their mind. To improve the student's spatial abilities we prepared several programs to generate different kinds of spatial problems, and correct their answers. The programs generating the tests were written in Javascript and were embedded in the source of the HTML pages, as well the routines of checking. Our experiments show by using these programs the students' results are getting better and better, so we can improve their spatial intelligence, moreover the students like to use computer programs to study spatial geometry
APA, Harvard, Vancouver, ISO, and other styles
39

Boubehziz, Toufik. "Simulation en quasi temps réel d’une capsule sous écoulement grâce à des Modèles d’Ordre Réduit." Thesis, Compiègne, 2022. http://www.theses.fr/2022COMP2678.

Full text
Abstract:
La déformation d’une capsule en écoulement dans un canal micro-fluidique est un problème compliqué à simuler numériquement. Nous proposons deux modèles innovants de pilotage de données d’ordre réduit pour simuler le problème spatio-temporel à partir d’une base de données collectée des simulations réalisées avec un modèle d’ordre élevé. L’objectif est de remplacer le modèle numérique haute-fidélité existant par un modèle d’ordre réduit capable de simuler l’évolution de déformation des capsules en écoulement à faible cout en temps et en calcul. Le premier modèle consiste à construire à partir d’un cube de données espace-temps-paramètre un modèle réduit pour simuler la déformation de la microcapsule pour n’importe quelle configuration admissible de paramètres. La prédiction de l’évolution temporelle de la capsule pour une configuration donnée de paramètres et un pas de discrétisation temporelle choisi se fait à l’aide d’un apprentissage sur des variétés du modèle réduit. Le deuxième modèle se base sur l’idée de réécrire le problème sous forme d’un système dynamique d’ordre réduit dans lequel les coefficients spectraux des déplacements et les champs des vitesses sont relies à travers d’un opérateur dynamique à identifier. Pour déterminer ce dernier, nous suggérons l’utilisation d’une approche de décomposition en modes dynamiques. Des validations numériques confirment la fiabilité et stabilité des deux nouveaux modèles par rapport au modèle d’ordre élevé. Une application informatique est également mise au point afin d’explorer l’évolution de déformation des capsules pour toute configuration de paramètres admissibles
The motion of a liquid-filled microcapsule flowing in a microchannel is a complex problem tosimulate. Two innovative reduced-order data-driven models are proposed to replace the Fluid Structure Interaction (FSI) model using a collected database from high-fidelity simulations. The objective is to replace the existing Full Order Model (FOM) with a fast-simulation model that can simulate the capsule deformation in flow at a low cost in terms of time and calculation. The first model consists in building from a space-time-parameter datacube a reduced model to simulate the deformation of the microcapsule for any admissible configuration of parameters. Time evolution of the capsule deformation is treated by identifying the nonlinear low-order manifold of the reduced variables. Then, manifold learning is applied using the Diffuse Approximation (DA) method to predict capsule deformation for a query configuration of parameters and a chosen time discretization. The second model is based on rewriting the FSI model under the form of a reduced-order dynamic system. In this latter, the spectral displacement and velocity coefficients are related through a dynamic operator to be identified. To determine this operator, we suggest the use of a dynamic mode decomposition approach. Numerical validations prove the reliability and stability of the two new models compared to the high order model. A software application has been developed to explore the capsule deformation evolution for any couple of admissible parameters
APA, Harvard, Vancouver, ISO, and other styles
40

Krichen, Omar. "Conception d'un système tutoriel intelligent orienté stylet pour l'apprentissage de la géométrie basé sur une interprétation à la volée de la production manuscrite de figures." Thesis, Rennes, INSA, 2020. http://www.theses.fr/2020ISAR0006.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre du projet national « e-Fran » dénommé ACTIF et porte sur la conception du système tutoriel intelligent IntuiGeo pour l’apprentissage de la géométrie au collège sur tablette orientée stylet.Les contributions de cette thèse s'inscrivent dans deux axes.Le premier porte sur la conception d’un moteur de reconnaissance permettant l’interprétation à la volée de figures géométriques. Il est basé sur un formalisme grammatical générique, GMC-PC (Grammaire Multi-ensembles à Contraintes Pilotée par le Contexte). Le deuxième axe adresse l’aspect tutoriel du système. Nous définissons un mode auteur qui permet au tuteur de générer des exercices de construction à partir d'une solution dessinée par l'enseignant. La connaissance spécifique au problème est représentée par un graphe de connaissance. Cette modélisation permet au tuteur de s’affranchir de la procédure suivie par l’enseignant et d’évaluer la production de l'élève, en temps-réel, quel que soit la stratégie suivie. Nous définissons de plus un module expert, basé sur un environnement de planification, capable de synthétiser des stratégies de résolution des problèmes. Le système tutoriel est capable de générer des feedbacks de correction et de guidage adaptés à l'état de l'avancement de l'élève. Les résultats des expérimentations en classe démontrent l’impact pédagogique positif du système sur la performance des élèves, notamment en termes de transfert d’apprentissage entre support numérique et papier
This PhD is in the context of the « e-Fran » national project called ACTIF and deals with the design of the pen-based intelligent tutoring system IntuiGeo, for geometry learning in middle school. The contribution of this work are grouped into two axes.The first axis focused on the design of a recognition engine capable of on the fly interpretation of Han-drawn geometrical figures. It is based on a generic grammatical formalism, CD-CMG (Context Driven Constraints Multiset Grammar). The challenge being to manage the complexity of the real-time analysis process, the first contribution of this work consisted in extending the formalism, without losing its generic aspect. The second axis of this work addresses the tutorial aspect of our system.We define au author mode where the tutor is able to generate construction exercises from a solution example drawn by the teacher.The problem specific knowledge is represented by a knowledge graph. This representation enables the tutor to consider all possible resolution strategies, and to evaluate the pupil’s production in real-time. Furthermore, we define an expert module, based on a dynamic planning environment, capable of synthesizing resolution strategies. The tutoring system is able to generate guidance and corrective feedbacks that are adapted to the pupil’s resolution state. The results of our experiment conducted in class demonstrate the positive pedagogical impact of the system on the pupils performance, especially in terms of learning transferability between the digital and traditional support
APA, Harvard, Vancouver, ISO, and other styles
41

Carriere, Mathieu. "On Metric and Statistical Properties of Topological Descriptors for geometric Data." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS433/document.

Full text
Abstract:
Dans le cadre de l'apprentissage automatique, l'utilisation de représentations alternatives, ou descripteurs, pour les données est un problème fondamental permettant d'améliorer sensiblement les résultats des algorithmes. Parmi eux, les descripteurs topologiques calculent et encodent l'information de nature topologique contenue dans les données géométriques. Ils ont pour avantage de bénéficier de nombreuses bonnes propriétés issues de la topologie, et désirables en pratique, comme par exemple leur invariance aux déformations continues des données. En revanche, la structure et les opérations nécessaires à de nombreuses méthodes d'apprentissage, comme les moyennes ou les produits scalaires, sont souvent absents de l'espace de ces descripteurs. Dans cette thèse, nous étudions en détail les propriétés métriques et statistiques des descripteurs topologiques les plus fréquents, à savoir les diagrammes de persistance et Mapper. En particulier, nous montrons que le Mapper, qui est empiriquement un descripteur instable, peut être stabilisé avec une métrique appropriée, que l'on utilise ensuite pour calculer des régions de confiance et pour régler automatiquement ses paramètres. En ce qui concerne les diagrammes de persistance, nous montrons que des produits scalaires peuvent être utilisés via des méthodes à noyaux, en définissant deux noyaux, ou plongements, dans des espaces de Hilbert en dimension finie et infinie
In the context of supervised Machine Learning, finding alternate representations, or descriptors, for data is of primary interest since it can greatly enhance the performance of algorithms. Among them, topological descriptors focus on and encode the topological information contained in geometric data. One advantage of using these descriptors is that they enjoy many good and desireable properties, due to their topological nature. For instance, they are invariant to continuous deformations of data. However, the main drawback of these descriptors is that they often lack the structure and operations required by most Machine Learning algorithms, such as a means or scalar products. In this thesis, we study the metric and statistical properties of the most common topological descriptors, the persistence diagrams and the Mappers. In particular, we show that the Mapper, which is empirically instable, can be stabilized with an appropriate metric, that we use later on to conpute confidence regions and automatic tuning of its parameters. Concerning persistence diagrams, we show that scalar products can be defined with kernel methods by defining two kernels, or embeddings, into finite and infinite dimensional Hilbert spaces
APA, Harvard, Vancouver, ISO, and other styles
42

Hosni, Nadia. "De l’analyse en composantes principales fonctionnelle à l’autoencodeur convolutif profond sur les trajectoires de formes de Kendall pour l’analyse et la reconnaissance de la démarche en 3D." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I066.

Full text
Abstract:
Récemment, le développement de solutions automatiques et intelligentes pour la compréhension du contenu des vidéos et plus particulièrement pour l’analyse spatio-temporelle des mouvements Humains est au cœur de plusieurs domaines de recherche tels que les vidéos surveillances, les interactions Homme-Machine et la rééducation. Dans ce projet de thèse, nous proposons de procéder à l’analyse et la reconnaissance de la démarche en 3D qui est aussi un domaine de recherche actif en biométrie comportementale grâce au caractère non-invasif (aucune coopération de l’utilisateur), convivial (user-friendly) et bon marché de la démarche. Cette dernière a suscité plus d’intérêt avec la démocratisation de caméras de profondeurs bon marché (e.g., la Kinect), capables d’estimer en temps réel et de manière relativement précise les squelettes 3D et leurs mouvements, quand la personne est dans le champ de vue du capteur. Mais ces données squelettiques souffrent de la variabilité temporelle et spatiale. Pour faire face à ces verrous, nous proposons des nouvelles approches à partir de données squelettiques 3D où une séquence est d’abord représentée sur l’espace de formes de Kendall S par une trajectoire paramétrée par le temps. Les variabilités liées à l’échelle, la translation et la rotation sont ainsi filtrées. Cependant, vu la structure sphérique (non-linéaire) de la variété S, il n’est pas possible d’appliquer des techniques d’apprentissage automatique conventionnelle directement. C’est pourquoi nous avons eu recours à quelques outils de la géométrie riemannienne pour gérer le problème de non-linéarité. Notre première contribution présente une adaptation de l’Analyse en Composantes Principales Fonctionnelle (ACP fonctionnelle), qui tient compte de la nonlinéarité de l’espace de Kendall S. A l’issue de l’étape d’apprentissage, une nouvelle base de trajectoires principales, i.e., fonctions principales, est constituée. Étant donné une nouvelle trajectoire, elle est projetée sur cette nouvelle base avant d’être classée par une Machine à Vecteurs de Support (SVM). Les résultats expérimentaux sur différentes bases de données sont très compétitifs comparés à la littérature avec en plus une signature plus compacte et plus robuste. De plus, motivés par la puissance des réseaux de neurones et de l’apprentissage profond (Deep Learning), nous proposons, en deuxième méthode, un autoencodeur convolutif profond à caractère géométrique puisqu’il analyse les trajectoires de formes précédemment citées tout en tenant compte de la structure géométrique de notre espace de représentation. En fait, des étapes géométriques assurent que ces trajectoires peuvent être transmises à l’autoencodeur convolutif pour aboutir à une représentation compacte et discriminante permettant une bonne identification des personnes, et ce sans avoir recours à aucune technique d’alignement (e.g., DTW) ni de modélisation temporelle (e.g., HMM, RNN). Les résultats obtenus sur plusieurs bases publiques sont prometteurs par application à la reconnaissance de la démarche en 3D
In the field of Computer Vision and Pattern Recognition, human behavior understanding has attracted the attention of several research groups and specialized companies. Successful intelligent solutions will be playing an important role in applications which involve humanrobot or human-computer interaction, biometrics recognition (security), and physical performance assessment (healthcare and well-being) since it will help the human beings were their cognitive and limited capabilities cannot perform well. In my thesis project, we investigate the problem of 3D gait recognition and analysis as gait is user-friendly and a well-accepted technology especially with the availability of RGB-D sensors and algorithms for detecting and tracking of human landmarks in video streams. Unlike other biometrics such as fingerprints, face or iris, it can be acquired at a large distance and do not require any collaboration of the end user. This point makes gait recognition suitable in intelligent video surveillance problems used, for example, in the security field as one of the behavioral biometrics or in healthcare as good physical patterns. However, using 3D human body tracked landmarks to provide such motions’ analysis faces many challenges like spatial and temporal variations and high dimension. Hence, in this thesis, we propose novel frameworks to infer 3D skeletal sequences for the purpose of 3D gait analysis and recognition. They are based on viewing the above-cited sequences as time-parameterized trajectories on the Kendall shape space S, results of modding out shape-preserving transformations, i.e., scaling, translation and rotation. Considering the non-linear structure of the manifold on which these shape trajectories are lying, the use of the conventional machine learning tools and the standard computational tools cannot be straightforward. Hence, we make use of geometric steps related to the Riemannian geometry in order to handle the problem of nonlinearity. Our first contribution is a geometric-functional framework for 3D gait analysis with a direct application to behavioral biometric recognition and physical performance assessment. We opt for an extension of the functional Principal Component Analysis to the underlying space. This functional analysis of trajectories, grounding on the geometry of the space of representation, allows to extract compact and efficient biometric signatures. In addition, we also propose a geometric deep convolutional auto-encoder (DCAE) for the purpose of gait recognition from time-varying 3D skeletal data. To accommodate the Neural Network architectures to obtained manifold-valued trajectories on the underlying non-linear space S, these trajectories are mapped to a certain vector space by means of someRiemannien geometry tools, prior to the encoding-decoding scheme. Without applying any prior temporal alignment step (e.g., Dynamic Time Warping) or modeling (e.g., HMM, RNN), they are then fed to a convolutional auto-encoder to build an identity-relevant latent space that showed discriminating capacities for identifying persons when no Temporal Alignment is applied to the time-parametrized gait trajectories: Efficient gait patterns are extracted. Both approaches were tested on several publicly available datasets and shows promising results
APA, Harvard, Vancouver, ISO, and other styles
43

Ben, Tanfous Amor. "Représentations parcimonieuses dans les variétés de formes pour la classification et la génération de trajectoires humaines." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I111.

Full text
Abstract:
Concevoir des systèmes intelligents pour comprendre le contenu des vidéos est devenu un axe de recherche très important car il permet de compenser les capacités humaines limitées de l'analyse efficace des vidéos. En particulier, la compréhension du comportement humain à partir de vidéos suscite un intérêt considérable en raison de ses nombreuses applications potentielles. Au même temps, la détection et le suivi de marqueurs humains dans les flux vidéo sont devenus de plus en plus fiables, et c'est en partie grâce à la disponibilité de capteurs abordables. Cela permet de déduire des données géométriques qui varient dans le temps et qui jouent un rôle important dans l'analyse automatique du mouvement humain. Cependant, une telle analyse reste difficile en raison des énormes variations de vue, de la détection inexacte des marqueurs, des variations importantes des classes ainsi que de l’insuffisance des données annotées. Dans cette thèse, nous proposons de nouvelles méthodes permettant de classifier et de générer des séquences 2D/3D de marqueurs humains. Tout d'abord, nous représentons ces séquences comme étant des trajectoires dans des variétés de formes permettant ainsi une analyse invariante à la vue. Toutefois, ces variétés sont non linéaires et, par conséquent, les algorithmes classiques telles que les techniques d'apprentissage automatique standards ne pourraient pas être appliqués d'une manière directe vu qu'ils sont conçus pour des données de nature linéaire. En guise de solution, nous exploitons des notions de la géométrie Riemannienne pour coder ces trajectoires en appliquant une technique de codage parcimonieux et d'apprentissage de dictionnaires. Cela permet non seulement de résoudre le problème de non-linéarité des variétés de formes mais aussi de représenter les trajectoires comme étant des représentations parcimonieuses qui sont définies dans des espaces vectoriels, qui sont plus discriminantes et moins bruitées que les données originales. Nous étudions des paradigmes intrinsèques et extrinsèques de codage parcimonieux et d’apprentissage de dictionnaire dans les variétés de formes et nous présentons une étude comparative de leur utilisation en fonction de la nature des données (i.e., visage ou corps en 2D ou 3D). D'autre part, en se basant sur ces représentations parcimonieuses, nous proposons deux approches de reconnaissance d'actions humaines en 3D et de reconnaissance d'expressions faciales en 2D, et nous montrons que les résultats obtenus sont compétitifs avec les méthodes récentes de l'état de l'art. Enfin, nous présentons un modèle génératif permettant de synthétiser des actions humaines dont l'idée principale est de concevoir un réseau antagoniste génératif afin de générer de nouvelles représentations parcimonieuses qui sont ensuite transformées en des séquences de poses. Nous appliquons cette méthode pour l’augmentation des données ce qui permet d’améliorer les performances de la classification d'actions. De plus, les séquences de pose générées sont utilisées pour guider un second modèle générateur dans le but de générer des vidéos humaines par transfert de chaque pose d'une séquence en une image texture. Nous montrons que les vidéos obtenues sont réalistes et présentent une meilleure cohérence en termes d'apparence et de mouvement qu'une méthode récente de l'état de l'art
Designing intelligent systems to understand video content has been a hot research topic in the past few decades since it helps compensate the limited human capabilities of analyzing videos in an efficient way. In particular, human behavior understanding in videos is receiving a huge interest due to its many potential applications. At the same time, the detection and tracking of human landmarks in video streams has gained in reliability partly due to the availability of affordable RGB-D sensors. This infer time-varying geometric data which play an important role in the automatic human motion analysis. However, such analysis remains challenging due to enormous view variations, inaccurate detection of landmarks, large intra- and inter- class variations, and insufficiency of annotated data. In this thesis, we propose novel frameworks to classify and generate 2D/3D sequences of human landmarks. We first represent them as trajectories in the shape manifold which allows for a view-invariant analysis. However, this manifold is nonlinear and thereby standard computational tools and machine learning techniques could not be applied in a straightforward manner. As a solution, we exploit notions of Riemannian geometry to encode these trajectories based on sparse coding and dictionary learning. This not only overcomes the problem of nonlinearity of the manifold but also yields sparse representations that lie in vector space, that are more discriminative and less noisy than the original data. We study intrinsic and extrinsic paradigms of sparse coding and dictionary learning in the shape manifold and provide a comprehensive evaluation on their use according to the nature of the data (i.e., face or body in 2D or 3D). Based on these sparse representations, we present two frameworks for 3D human action recognition and 2D micro- and macro- facial expression recognition and show that they achieve competitive performance in comparison to the state-of-the-art. Finally, we design a generative model allowing to synthesize human actions. The main idea is to train a generative adversarial network to generate new sparse representations that are then transformed to pose sequences. This framework is applied to the task of data augmentation allowing to improve the classification performance. In addition, the generated pose sequences are used to guide a second framework to generate human videos by means of pose transfer of each pose to a texture image. We show that the obtained videos are realistic and have better appearance and motion consistency than a recent state-of-the-art baseline
APA, Harvard, Vancouver, ISO, and other styles
44

Cont, Arshia. "Modélisation de l'anticipation musicale : du temps de la musique vers la musique du temps." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00417565.

Full text
Abstract:
Cette thèse étudie l'anticipation musicale, à la fois comme un processus cognitif et comme un principe de conception pour des applications d'informatique musicale et d'extraction de données musicales. Dans cette étude, nous reformulons le problème de modélisation d'anticipation abordé dans la littérature de la cognition musicale, à celui de modélisation anticipative, un principe de conception cognitive pour modéliser des systèmes artificiels. Nous proposons des modèles anticipatifs concernant trois préoccupations principales de l'attente musicale : quoi attendre?, comment attendre?, et quand attendre?.
Dans le traitement de la première question, nous introduisons un cadre mathématique nommé géométrie d'informations musicales combinant la théorie de l'information, la géométrie différentielle, et l'apprentissage statistique pour représenter les contenus pertinents de l'informations musicales. La deuxième question est abordée comme un problème d'apprentissage automatique des stratégies décisionnelles dans un environnement, en employant les méthodes d'apprentissage interactif. Nous proposons pour la troisième question, une nouvelle conception du problème de synchronisation temps réel entre une partition symbolique et un musicien. Ceci nous ramène à Antescofo, un outils préliminaire d'écriture du temps et de l'interaction dans l'informatique musicale. Malgré la variété des sujets abordés dans cette thèse, la conception anticipative est la facture commune entre toutes les propositions avec les prémices de réduire la complexité structurelle et computationnelle de modélisation, et d'aider à aborder des problèmes complexes dans l'informatique musicale.
APA, Harvard, Vancouver, ISO, and other styles
45

Maalej, Ahmed. "3D Facial Expressions Recognition Using Shape Analysis and Machine Learning." Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10025/document.

Full text
Abstract:
La reconnaissance des expressions faciales est une tâche difficile, qui a reçu un intérêt croissant au sein de la communauté des chercheurs, et qui impacte les applications dans des domaines liés à l'interaction homme-machine (IHM). Dans le but de construire des systèmes IHM approchant le comportement humain et émotionnellement intelligents, les scientifiques essaient d'introduire la composante émotionnelle dans ce type de systèmes. Le développement récent des capteurs d'acquisition 3D a fait que les données 3D deviennent de plus en plus disponibles, et ce type de données vient pour remédier à des problèmes inhérents aux données 2D tels que les variations d'éclairage, de pose et d'échelle et de faible résolution. Plusieurs bases de données 3D du visage sont publiquement disponibles pour les chercheurs dans le domaine de la reconnaissance d'expression faciale leur permettant ainsi de valider et d'évaluer leurs approches. Cette thèse traite le problème la reconnaissance d'expression faciale et propose une approche basée sur l'analyse de forme pour la reconnaissance d'expression dans un cadre statique (relatif à une seule image) et dynamique (relatif à une séquence vidéo). Tout d'abord, une représentation du modèle 3D du visage basée sur les courbes est proposée pour décrire les traits du visage. Puis, une fois ces courbes sont extraites, l'information de forme qui leur est liée est quantifiée en utilisant un cadre de travail basé sur la géométrie Riemannienne. Nous obtenons, par la suite, des scores de similarité entre les différentes formes locales du visage. Nous constituons, alors, un vecteur de caractéristiques associées à chaque surface faciale. Ensuite, ces caractéristiques sont utilisées comme paramètres d'entrée à des algorithmes d'apprentissage automatique et de classification pour la reconnaissance d'expressions. Des expérimentations exhaustives sont alors entreprises pour valider notre approche et des résultats sont présentés et comparés aux résultats des travaux de l'état de l'art
Facial expression recognition is a challenging task, which has received growing interest within the research community, impacting important applications in fields related to human machine interaction (HMI). Toward building human-like emotionally intelligent HMI devices, scientists are trying to include the essence of human emotional state in such systems. The recent development of 3D acquisition sensors has made 3D data more available, and this kind of data comes to alleviate the problems inherent in 2D data such as illumination, pose and scale variations as well as low resolution. Several 3D facial databases are publicly available for the researchers in the field of face and facial expression recognition to validate and evaluate their approaches. This thesis deals with facial expression recognition (FER) problem and proposes an approach based on shape analysis to handle both static and dynamic FER tasks. Our approach includes the following steps: first, a curve-based representation of the 3D face model is proposed to describe facial features. Then, once these curves are extracted, their shape information is quantified using a Riemannain framework. We end up with similarity scores between different facial local shapes constituting feature vectors associated with each facial surface. Afterwards, these features are used as entry parameters to some machine learning and classification algorithms to recognize expressions. Exhaustive experiments are derived to validate our approach and results are presented and compared to the related work achievements
APA, Harvard, Vancouver, ISO, and other styles
46

Aubert, Florence. "Acquisition du concept d'angle à l'école élémentaire : approche didactico-psychologique." Montpellier 3, 2008. http://www.theses.fr/2008MON30071.

Full text
Abstract:
Les travaux de Piaget et Inhelder (1947) et de Piaget, Inhelder et Szeminska (1948) montrent que la construction du concept d’angle est très progressive et Munier, Devichi et Merle (2008) soulignent que l’obstacle majeur rencontré par les élèves réside dans la tendance à considérer la longueur des côtés et non l’écart angulaire qui les sépare. En psychologie l’angle est un bon exemple de conflit entre aspects opératifs et figuratifs de la pensée. L’objectif de ce travail est de mettre en évidence la complémentarité de ces deux aspects dans le cadre de l’apprentissage des concepts géométriques. Nous comparons deux séquences didactiques centrées sur le phénomène physique de l’angle de vision. Une se déroule dans l’espace physique, l’autre dans l’espace graphique de la feuille de papier. Les progrès, concernent pour les deux séquences les tâches d’explicitation des propriétés de l’angle, de dessin et de comparaison d’angles mais pas la tâche de variation de l’écartement. Dans la dernière série d’expérience et dans la lignée des travaux de Bovet et Voelin (2003) nous proposons des situations d’apprentissage assistées par ordinateur qui s’appuient sur les propriétés figuratives de l’angle. Les résultats montrent que mettre l’accent sur les aspects figuratifs de l’angle permet aux enfants de mieux réussir la tâche de variation. Ces résultats suggèrent dans la lignée des travaux de Lautrey et Chartier (1987) que les aspects figuratifs des connaissances ne doivent pas être négligés dans le cadre de l’apprentissage des concepts géométriques mais doivent venir compléter les aspects opératifs. La discussion de ces résultats débouche sur quelques propositions pédagogiques
Piaget and Inhelder (1947) and Piaget, Inhelder and Szeminska’s work (1948) show that angle concept acquisition is very gradual and Munier, Devichi and Merle (2008) underline major obstacle (the length of the arms is irrelevant). In psychology angle concept is a good example of conflict between logical aspects and representational aspects of the thought. The objective of this work is to bring to light the complementarity of these two aspects within the framework of learnings of the geometrical concepts. We compare two didactical sequences centred on the physical phenomenon of the angle of vision. A sequence takes place in the physical space, the other one in the graphic space of the paper. This progress concern for the both sequences the tasks of explicitation, of drawing and comparison but not in the task of variation. In the last series of experiment and in the lineage of Bovet and Voelin’s work (2003) we propose computer-aided situations of learning which present the angle on a representational hillside. The results show that to emphasize the representational aspects of angle concept allows the children to make a success better in the task of variation. These results suggest in the lineage of Lautrey and Chartier’s work (1987) that the representational aspects of the knowledge must not be neglected but have to come to complete logical aspects of the knowledge. The discussion of these results leads to some educational propositions
APA, Harvard, Vancouver, ISO, and other styles
47

Mrabet, Slim. "Le théorème de Thalès dans l'enseignement tunisien." Paris 7, 2010. http://www.theses.fr/2010PA070063.

Full text
Abstract:
L'objectif principal de ce travail est d'étudier la manière dont les textes du savoir à enseigner à l'intérieur des institutions scolaires tunisiennes sont découpés et organisés autour du thème que nous avons choisi, le théorème de thalès, ainsi que les apprentissages effectifs des élèves qu'ils induisent. Un regard sur l'histoire des mathématiques et de son enseignement nous a permis de mieux comprendre l'organisation du savoir mathématique ainsi que la cohérence de l'enseignement de la géométrie à différentes époques. Nous avons ainsi dégagé des modèles de cohérences possibles autour du théorème de thalès qui ont servi de référence pour analyser l'enseignement tunisien actuel. Nous nous sommes intéressé à une double transition : celle de l'école de base à la 1ère année du secondaire qui coïncide avec un changement de langue dans l'enseignement des mathématiques et celle de la première à la seconde année du secondaire qui est marquée par le passage à la géométrie vectorielle. L'enseignement français est pris comme point de comparaison. Les études historique et analytique de ce travail sont complétées par des tests proposés à des élèves tunisiens et français, par des entretiens auprès de quelques enseignants tunisiens et français et par des observations de tout l'enseignement du théorème de thalès dans deux classes tunisiennes, qui temoignent d'un déroulement assez différent. Les résultats portent notamment sur l'effet des variables de figure pour la 9ème b, les difficultés liées à la démonstration pour la 1ère S et les difficultés de reconnaissance d'une situation de thalès sous une forme vectorielle en 2ème S
The main object of this work is to study how the texts of the knowledge to be taught inside tunisian school institutions are organized concerning the theme we chose, thales theorem, as well as the effective learning of the students they induce. A look at the history of mathematics and of its teaching allowed us to understand better the organization of the mathematical knowledge around thales theorem as well as the coherence of geometry teaching along various periods. Then, we derived models of possible coherences around thales theorem which served as reference to analyze the current tunisian teaching. We were interested in a double transition: the one from the basic school (grade 8-9) to the 1st year of secondary school (grade 9-10) which coïncides with a change of language in mathematics teaching and the second from the 1st year to the 2nd year of secondary teaching which is marked by the turn to vector geometry. The teaching of thales theorem in france is taken as a point of comparison. Historic and analytic studies are completed by tests proposed to tunisian and french students, by interviews with some tunisian and french teachers and by observations of all the lessons about thales theorem in two tunisian classes, showing a rather different teaching. Main results concern the effect of figures' variables for the 9th b class (grade 8-9), the difficultes of demonstration for the 1st s class (grade 9-10) and the difficultes to recognize the pertinence of thales theorem to solve problems enounced with vectors in the 2nd s class (grade 10-11)
APA, Harvard, Vancouver, ISO, and other styles
48

Louche, Ugo. "From confusion noise to active learning : playing on label availability in linear classification problems." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4025/document.

Full text
Abstract:
Les travaux présentés dans cette thèse relèvent de l'étude des méthodes de classification linéaires, c'est à dire l'étude de méthodes ayant pour but la catégorisation de données en différents groupes à partir d'un jeu d'exemples, préalablement étiquetés, disponible en amont et appelés ensemble d'apprentissage. En pratique, l'acquisition d'un tel ensemble d'apprentissage peut être difficile et/ou couteux, la catégorisation d'un exemple étant de fait plus ardu que l'obtention de dudit exemple. Cette disparité entre la disponibilité des données et notre capacité à constituer un ensemble d'apprentissage étiqueté a été un des problèmes centraux de l'apprentissage automatique et ce manuscrit s’intéresse à deux solutions usuellement considérées pour contourner ce problème : l'apprentissage en présence de données bruitées et l'apprentissage actif
The works presented in this thesis fall within the general framework of linear classification, that is the problem of categorizing data into two or more classes based on on a training set of labelled data. In practice though acquiring labeled examples might prove challenging and/or costly as data are inherently easier to obtain than to label. Dealing with label scarceness have been a motivational goal in the machine learning literature and this work discuss two settings related to this problem: learning in the presence of noise and active learning
APA, Harvard, Vancouver, ISO, and other styles
49

Waminya, Richard. "De la conceptualisation implicite du nombre et des figures géométriques dans la culture drehu à leur conceptualisation explicite dans les mathématiques à l'école : étude exploratoire des interactions suscitées par les deux conceptualisations et de leurs effets à partir d'approches pédagogique, didactique et ethnomathématique." Thesis, Lyon 2, 2011. http://www.theses.fr/2011LYO20097/document.

Full text
Abstract:
Dans le champ disciplinaire des mathématiques, l'élève drehu éprouve des difficultés à maîtriser les savoirs enseignés. Pourtant dans sa vie de tous les jours, il est entouré de pratiques et de productions culturelles qui présentent des concepts mathématiques qui sont étudiés en classe. On constate que les faibles performances qu'il obtient dans les activités mathématiques sont dues le plus souvent aux difficultés d'adaptation aux méthodes pédagogiques des enseignants ou à l'assimilation des concepts mathématiques. Comment donc aider ces jeunes drehu, provenant d'un milieu culturel où les concepts sont perçus implicitement, à s'intégrer dans un milieu scolaire où ils sont explicités? La prise en compte de la conceptualisation du nombre et des figures géométriques dans la culture drehu permet aux enseignants de connaître la manière d'enseigner implicitement les concepts mathématiques dans le milieu socioculturel de l'enfant et surtout les méthodes d'apprentissage développés par ce dernier. Ces apports socioculturels aident le pédagogue à s'approprier des stratégies d'enseignement qui favorisent un meilleur apprentissage des concepts mathématiques par les élèves drehu à l'école. Ces savoirs culturels servent de béquille didactique dans l'apprentissage des savoirs scolaires
In the disciplinary field of mathematics, the student Drehu has difficulty to master the knowledge taught. But in his daily life, he is surrounded by practices and cultural productions that present mathematical concepts that are studied in class. It notes that the low performance in mathematical activities are most often due to difficulties in adapting teaching methods of teachers or the assimilation of mathematical concepts. How, therefore, help these young drehu, from a cultural environment where the concepts are perceived implicitly, to integrate in a school environment where they are referred to? Taking account of the conceptualization of number and geometrical figures into the culture Drehu allows teachers to know how to teach math concepts implicit in the sociocultural environment of the child and especially the teaching methods developed by him. These socio-cultural contributions help the teacher to appropriate teaching strategies that promote better learning of mathematical concepts by students at school Drehu. These cultural knowledge serve as didactic crutch in the learning of school knowledge
APA, Harvard, Vancouver, ISO, and other styles
50

Navarro, Douglas. "Sur l'utilisation des outils informatiques dans l'enseignement des mathématiques." Toulouse 3, 2006. http://www.theses.fr/2006TOU30096.

Full text
Abstract:
Cette thèse est consacrée à une étude sur l’incorporation des outils informatiques dans l’enseignement des mathématiques dans le cas où le sujet considéré est traité usuellement par des méthodes de tâtonnements ; plus précisément l’enseignement de la recherche de la somme de certaines séries entières. On a développé une approche mathématique pour faire la recherche de la somme de certaines séries entières automatiquement ainsi que quelques logiciels conçus pour la réalisation d’ingénieries. On a étudié trois alternatives pour l’incorporation d’un tel outil : la substitution de la méthode usuelle par une boîte noire ; l’enseignement de la méthodologie usuelle appuyée par l’utilisation de la boîte noire, en tant, qu’outil de vérification ; et l’enseignement de l’approche mathématique utilisée par l’ordinateur. A partir d’expérimentations réalisées, une analyse comparative de ces méthodes est proposée
In this thesis we develop a study about the incorporation of informatics tools in a teaching context, when the mathematic content is usually treated by methods based in trials, precisely the teaching of the seeking of sums the power series. We developed a mathematical focus to do automatically (that means using a computer) the seeking of sums some types of power series, as well as the software required for the experimentations. Three possibilities were studied for the incorporation of this tool: the substitution of the usual method by a black box; the teaching of the usual method supported by the black box, as a verification tool, and finally, the teaching of the mathematical focus used by the computer. From the experimentations carried out in this research, we propose un comparative analyse of these methods
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography