To see the other types of publications on this topic, follow the link: Apprentissage basé sur les défis.

Dissertations / Theses on the topic 'Apprentissage basé sur les défis'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 40 dissertations / theses for your research on the topic 'Apprentissage basé sur les défis.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Zigani, Housougna Rabiyatou. "Use of ICT in Teaching English : challenges and Perspectives for the University Joseph KI-ZERBO in an International Collaborative Context." Electronic Thesis or Diss., Rennes 2, 2023. http://www.theses.fr/2023REN20024.

Full text
Abstract:
Cette thèse propose une approche novatrice pour améliorer la maîtrise de l'anglais chez les étudiants du département d'anglais de l'Université Joseph KI-Zerbo (UJKZ) au Burkina Faso, en se concentrant sur l'enseignement de la compréhension orale (CO). Basée sur une méthodologie de collecte de données sur une période de deux ans à l’UJKZ, l’objectif de la thèse est d'explorer les avantages potentiels de l'introduction de dispositifs s’appuyant sur les TIC pour renforcer les compétences en CO des étudiants. Les expériences menées dans le cadre de cette thèse reposent sur un constat récent : les technologies éducatives sont devenues indispensables dans l'enseignement des langues, notamment depuis la crise de la COVID-19. Alors que de nombreuses universités européennes ont mis en place des dispositifs d'enseignement à distance pour assurer la continuité de l'apprentissage, l’UJKZ a été confrontée à des défis majeurs lors de cette transition, comme de nombreuses universités en Afrique, en Asie et en Amérique du Sud. Dans le cadre de cette recherche, plusieurs dispositifs innovants ont été mis en place. L'étude exploite les possibilités offertes par le projet collaboratif international VEC, qui propose un environnement d'apprentissage collaboratif à distance utilisant des REL. En participant à ce projet, les étudiants ont pu développer leurs compétences linguistiques en travaillant en équipe avec des étudiants d'autres pays pour relever des défis liés à l'environnement. L'utilisation des outils TIC a permis aux étudiants de participer activement à des exercices d'écoute basés sur des enregistrements audio et des textes à compléter. L'étude s'est appuyée sur des concepts théoriques tels que l'apprentissage collaboratif, le tutorat par les pairs, l'apprentissage basé sur les défis et l'apprentissage à distance. Les données ont été analysées à l'aide d'approches statistiques descriptives et multivariées. Cette étude a permis de mettre en évidence les modalités d'intégration des TICE et les dynamiques de travail pour améliorer la CO, ce qui a conduit à des progrès significatifs dans l'apprentissage des langues, notamment en ce qui concerne la CO. Les résultats de l'étude démontrent l'efficacité de l'enseignement de la compréhension orale et son impact positif sur les compétences linguistiques des étudiants de l'UJKZ. De plus, la thèse met en évidence l'intégration pédagogique des TIC dans l'enseignement supérieur en montrant le potentiel des expériences d'apprentissage collaboratif et des plateformes virtuelles pour favoriser un apprentissage efficace et développer des compétences essentielles
This thesis proposes an innovative approach to improving English language proficiency among students in the University Joseph KI-Zerbo (UJKZ) English department in Burkina Faso, focusing on teaching listening comprehension (LC). Based on a data collection methodology over two years at the UJKZ, we aim to explore the potential benefits of introducing new ICT to enhance students' LC skills. The experiments conducted in this thesis are based on a recent observation: educational technologies have become necessary in language teaching, particularly since the COVID-19 crisis. While many European universities have set up distance learning systems to ensure continuity of learning, the University JKZ has faced challenges during this transition, like many universities in Africa, Asia, and South America. Several innovative systems have been put in place in this research. Firstly, the study exploits the possibilities offered by an international collaborative project called the VEC, which provides a collaborative distance learning environment using OER. By participating in this project, students developed their language skills by working in teams with students from other countries to tackle environmental challenges and exchange best practices and ideas. Secondly, using ICT tools enabled students to actively participate in listening exercises based on audio recordings and gap-filling texts. The study draws on theoretical concepts such as collaborative learning, peer tutoring, challenge-based learning, and distance learning. The data is analysed using descriptive and Multivariate statistical approaches. This study enables us to highlight how ICTE can be integrated and the dynamics of work to improve LC, which leads to significant progress in language learning, particularly concerning LC. The results of the study demonstrate the effectiveness of LC teaching and its positive impact on the language skills of UJKZ students. In addition, it highlights the pedagogical integration of ICT in higher education, showing the potential of collaborative learning experiences and virtual platforms to foster effective learning and develop essential skills
APA, Harvard, Vancouver, ISO, and other styles
2

Delgrange, Clément. "Apprentissage basé sur l’usage en interaction humaine avec un assistant adaptatif." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1290/document.

Full text
Abstract:
Aujourd'hui, un utilisateur peut interagir avec des assistants virtuels, comme Alexa, Siri ou Cortana, pour accomplir des tâches dans un environnement numérique. Dans ces systèmes, les liens entre des ordres exprimés en langage naturel et leurs réalisations concrètes sont précisées lors de la phase de conception. Une approche plus adaptative consisterait à laisser l'utilisateur donner des instructions en langage naturel ou des démonstrations lorsqu'une tâche est inconnue de l'assistant. Une solution adaptative devrait ainsi permettre à l'assistant d'agir sur un environnement numérique plus vaste composé de multiples domaines d'application et de mieux répondre aux besoins des utilisateurs. Des systèmes robotiques, inspirés par des études portant sur le développement du langage chez l'humain, ont déjà été développés pour fournir de telles capacités d'adaptation. Ici, nous étendons cette approche à l'interaction humaine avec un assistant virtuel qui peut, premièrement, apprendre le lien entre des commandes verbales et la réalisation d'actions basiques d'un domaine applicatif spécifique. Ensuite, il peut apprendre des liens plus complexes en combinant ses connaissances procédurales précédemment acquises en interaction avec l'utilisateur. La flexibilité du système est démontrée par sa forte adaptabilité au langage naturel, sa capacité à apprendre des actions dans de nouveaux domaines (Email, Wikipedia,...), et à former des connaissances procédurales hybrides en utilisant plusieurs services numériques, par exemple, en combinant une recherche Wikipédia avec un service de courrier électronique
Today users can interact with popular virtual assistants such as Siri to accomplish their tasks on a digital environment. In these systems, links between natural language requests and their concrete realizations are specified at the conception phase. A more adaptive approach would be to allow the user to provide natural language instructions or demonstrations when a task is unknown by the assistant. An adaptive solution should allow the virtual assistant to operate a much larger digital environment composed of multiple application domains and providers and better match user needs. We have previously developed robotic systems, inspired by human language developmental studies, that provide such a usage-based adaptive capacity. Here we extend this approach to human interaction with a virtual assistant that can first learn the mapping between verbal commands and basic action semantics of a specific domain. Then, it can learn higher level mapping by combining previously learned procedural knowledge in interaction with the user. The flexibility of the system is demonstrated as the virtual assistant can learn actions in a new domains (Email, Wikipedia,...), and can then learn how email and Wikipedia basic procedures can be combined to form hybrid procedural knowledge
APA, Harvard, Vancouver, ISO, and other styles
3

Chali, Yllias. "L'expansion de texte. Une approche basée sur l'explication par questions/réponses pour la génération de versions de textes." Toulouse 3, 1997. http://www.theses.fr/1997TOU30078.

Full text
Abstract:
L'expansion de texte consiste a etendre une version d'un texte a partir d'une version noyau qui est la version la plus reduite du texte. La selection et l'ordre dans lequel les details sont introduits et organises constituent la generation de versions multiples d'un meme texte. Le but de l'expansion de texte est d'engendrer des explications en termes de reponses a des questions telles que pourquoi ?, comment ?, quand ? et ou ? sucsitees par les enonces du texte. Ces explications permettent de mener l'allocutaire a augmenter ses connaissances a propos des evenements et des etats narres dans le texte. Nous presentons une modelisation de cette operation basee sur la representation des connaissances des structures syntaxiques et semantiques des phrases selon l'approche de harris dans structures mathematiques du langage, et la representation des liens semantiques entre phrases a l'aide de la structure questions/reponses. Le processus d'expansion de texte consiste en une operation de selection du contenu a introduire dans la version courante et en une operation de capture de relation rhetorique en vue d'assurer la coherence du texte etendu. Guide par une analyse de la production humaine d'explication, nous avons implemente le systeme d'expansion de texte (texpan) basee sur une formalisation d'operateurs-plans qui integrent une theorie d'actes communicatifs (incluant des relations de structure rhetorique, les actes illocutoires et actes locutoires), et leur effets attendus sur les connaissances, les croyances et les buts de l'utilisateur. Le systeme utilise un planificateur de texte hierarchique et procede par decomposition des actes communicatifs. Durant la planification, l'expansion est basee sur la construction d'un treillis de relations questions/reponses entre phrases elementaires. Le paradigme de planification instaure au sein de texpan integre a la fois la planification au niveau texte et la planification au niveau phrase. La planification de l'expansion de texte est declenchee quand un but d'expansion est soumis au systeme ; a ce point, le planificateur de texte hierarchique effectue une recherche d'operateurs-plans qui accomplissent le but soumis. Ces actes sont decomposes en d'autres actes et eventuellement en actes illocutoires qui se decomposent en actes locutoires. Le processus de decomposition est guide par le but d'expansion, l'operation d'expansion et un modele utilisateur. Le resultat de la planification de texte est un plan communicatif hierarchique qui inclue une decomposition de plans communicatifs et une decomposition d'effets qui capture les effets des segments de texte sur les connaissances, les croyances et les buts de l'utilisateur.
APA, Harvard, Vancouver, ISO, and other styles
4

Pierrefeu, Amicie de. "Apprentissage automatique avec parcimonie structurée : application au phénotypage basé sur la neuroimagerie pour la schizophrénie." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS329/document.

Full text
Abstract:
La schizophrénie est un trouble mental, chronique et invalidant caractérisé par divers symptômes tels que des hallucinations, des épisodes délirants ainsi que des déficiences dans les fonctions cognitives. Au fil des ans, l'Imagerie par Résonance Magnétique (IRM) a été de plus en plus utilisée pour mieux comprendre les anomalies structurelles et fonctionnelles inhérentes à ce trouble. Les progrès récents en apprentissage automatique et l'apparition de larges bases de données ouvrent maintenant la voie vers la découverte de biomarqueurs pour le diagnostic/ pronostic assisté par ordinateur. Compte tenu des limitations des algorithmes actuels à produire des signatures prédictives stables et interprétables, nous avons prolongé les approches classiques de régularisation avec des contraintes structurelles provenant de la structure spatiale du cerveau afin de: forcer la solution à adhérer aux hypothèses biologiques, produisant des solutions interprétables et plausibles. De telles contraintes structurelles ont été utilisées pour d'abord identifier une signature neuroanatomique de la schizophrénie et ensuite une signature fonctionnelle des hallucinations chez les patients atteints de schizophrénie
Schizophrenia is a disabling chronic mental disorder characterized by various symptoms such as hallucinations, delusions as well as impairments in high-order cognitive functions. Over the years, Magnetic Resonance Imaging (MRI) has been increasingly used to gain insights on the structural and functional abnormalities inherent to the disorder. Recent progress in machine learning together with the availability of large datasets now pave the way to capture complex relationships to make inferences at an individual level in the perspective of computer-aided diagnosis/prognosis or biomarkers discovery. Given the limitations of state-of-the-art sparse algorithms to produce stable and interpretable predictive signatures, we have pushed forward the regularization approaches extending classical algorithms with structural constraints issued from the known biological structure (spatial structure of the brain) in order to force the solution to adhere to biological priors, producing more plausible interpretable solutions. Such structured sparsity constraints have been leveraged to identify first, a neuroanatomical signature of schizophrenia and second a neuroimaging functional signature of hallucinations in patients with schizophrenia. Additionally, we also extended the popular PCA (Principal Component Analysis) with spatial regularization to identify interpretable patterns of the neuroimaging variability in either functional or anatomical meshes of the cortical surface
APA, Harvard, Vancouver, ISO, and other styles
5

Brezellec, Pierre. "Techniques d'apprentissage par explication et détections de similarités." Paris 13, 1992. http://www.theses.fr/1992PA132033.

Full text
Abstract:
En premier lieu, nous présentons naïade et oréade deux algorithmes d'apprentissage par détection de similarités dont nous évaluons les performances sur trois problèmes biologiques. Dans un second temps, nous décrivons yaces. Ce dernier est un algorithme combinant apprentissage par détection de similarités et apprentissage par explications; une évaluation de son comportement vis-à-vis de bases d'apprentissage générées artificiellement est proposée. Nous montrons enfin comment les concepts de changement de biais, de changement de la perception et de décision par gestion d'hypothèses atténuent la dépendance de l'apprentissage par rapport 1) au contenu initial de la théorie utilisée pour la saturation, 2) aux descriptions initiales des objets et 3) au bruit.
APA, Harvard, Vancouver, ISO, and other styles
6

Sokol, Marina. "Méthodes d'apprentissage semi-supervisé basé sur les graphes et détection rapide des nœuds centraux." Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00998394.

Full text
Abstract:
Les méthodes d'apprentissage semi-supervisé constituent une catégorie de méthodes d'apprentissage automatique qui combinent points étiquetés et données non labellisées pour construire le classifieur. Dans la première partie de la thèse, nous proposons un formalisme d'optimisation général, commun à l'ensemble des méthodes d'apprentissage semi-supervisé et en particulier aux Laplacien Standard, Laplacien Normalisé et PageRank. En utilisant la théorie des marches aléatoires, nous caractérisons les différences majeures entre méthodes d'apprentissage semi-supervisé et nous définissons des critères opérationnels pour guider le choix des paramètres du noyau ainsi que des points étiquetés. Nous illustrons la portée des résultats théoriques obtenus sur des données synthétiques et réelles, comme par exemple la classification par le contenu et par utilisateurs des systèmes pair-à-pair. Cette application montre de façon édifiante que la famille de méthodes proposée passe parfaitement à l'échelle. Les algorithmes développés dans la deuxième partie de la thèse peuvent être appliquées pour la sélection des données étiquetées, mais également aux autres applications dans la recherche d'information. Plus précisément, nous proposons des algorithmes randomisés pour la détection rapide des nœuds de grands degrés et des nœuds avec de grandes valeurs de PageRank personnalisé. A la fin de la thèse, nous proposons une nouvelle mesure de centralité, qui généralise à la fois la centralité d'intermédiarité et PageRank. Cette nouvelle mesure est particulièrement bien adaptée pour la détection de la vulnérabilité de réseau.
APA, Harvard, Vancouver, ISO, and other styles
7

Sokol, Marina. "Méthodes d’apprentissage semi-supervisé basé sur les graphes et détection rapide des nœuds centraux." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4018/document.

Full text
Abstract:
Les méthodes d'apprentissage semi-supervisé constituent une catégorie de méthodes d'apprentissage automatique qui combinent points étiquetés et données non labellisées pour construire le classifieur. Dans la première partie de la thèse, nous proposons un formalisme d'optimisation général, commun à l'ensemble des méthodes d'apprentissage semi-supervisé et en particulier aux Laplacien Standard, Laplacien Normalisé et PageRank. En utilisant la théorie des marches aléatoires, nous caractérisons les différences majeures entre méthodes d'apprentissage semi-supervisé et nous définissons des critères opérationnels pour guider le choix des paramètres du noyau ainsi que des points étiquetés. Nous illustrons la portée des résultats théoriques obtenus sur des données synthétiques et réelles, comme par exemple la classification par le contenu et par utilisateurs des systèmes pair-à-pair. Cette application montre de façon édifiante que la famille de méthodes proposée passe parfaitement à l’échelle. Les algorithmes développés dans la deuxième partie de la thèse peuvent être appliquées pour la sélection des données étiquetées, mais également aux autres applications dans la recherche d'information. Plus précisément, nous proposons des algorithmes randomisés pour la détection rapide des nœuds de grands degrés et des nœuds avec de grandes valeurs de PageRank personnalisé. A la fin de la thèse, nous proposons une nouvelle mesure de centralité, qui généralise à la fois la centralité d'intermédiarité et PageRank. Cette nouvelle mesure est particulièrement bien adaptée pour la détection de la vulnérabilité de réseau
Semi-supervised learning methods constitute a category of machine learning methods which use labelled points together with unlabeled data to tune the classifier. The main idea of the semi-supervised methods is based on an assumption that the classification function should change smoothly over a similarity graph. In the first part of the thesis, we propose a generalized optimization approach for the graph-based semi-supervised learning which implies as particular cases the Standard Laplacian, Normalized Laplacian and PageRank based methods. Using random walk theory, we provide insights about the differences among the graph-based semi-supervised learning methods and give recommendations for the choice of the kernel parameters and labelled points. We have illustrated all theoretical results with the help of synthetic and real data. As one example of real data we consider classification of content and users in P2P systems. This application demonstrates that the proposed family of methods scales very well with the volume of data. The second part of the thesis is devoted to quick detection of network central nodes. The algorithms developed in the second part of the thesis can be applied for the selections of quality labelled data but also have other applications in information retrieval. Specifically, we propose random walk based algorithms for quick detection of large degree nodes and nodes with large values of Personalized PageRank. Finally, in the end of the thesis we suggest new centrality measure, which generalizes both the current flow betweenness centrality and PageRank. This new measure is particularly well suited for detection of network vulnerability
APA, Harvard, Vancouver, ISO, and other styles
8

Meng, Anbo. "Contribution à la modélisation et l'implémentation d'un système d'e-Education basé sur les multi-agents." Metz, 2006. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2006/Meng.Anbo.SMZ0636.pdf.

Full text
Abstract:
Le but de cette thèse est de développer un environnement d'e-Education intelligent, flexible, personnalisé et ouvert afin de fournir un mécanisme efficace pour personnaliser l'apprentissage de l'étudiant et le processus pédagogique du professeur, pour diversifier les paradigmes d'étude et pour faciliter le développement des matériaux d'enseignement et d'étude. Cette thèse aborde donc une série de méthodologies, de théories, d'algorithmes. Et de technologies innovateurs et multi disciplines tel que les systèmes MultiAgents, les objets d'enseignement, les théories cognitives, les algorithmes génétiques, XML, J2EE etc. En particulier, cette dissertation se concentre sur l'approche des SMA comme conteneur et environnement de support à la fois pour intégrer et encapsuler les méthodologies et technologies mentionnées ci-dessus, que pour modeler et mettre en oeuvre plusieurs applications typiques d'e-Éducation à différents niveaux et dans différents contextes en termes de réalisation de contenu, d'étude individuelle et collective, d'aide appariée, et de génération et livraison de controle dans l'environnement d'étude distribué. Après avoir pris en compte i'avantage évident des SMA en termes d'autonomie, de capacité sociale et de réactivité, et avoir vérifier et valider la faisabilité et l'efficacité des modèles proposés dans cette thèse, une partie des ceux-ci ont été mis en application et simulés dans le cadre JADE. Les résultats finaux de simulation démontrent la rationalité et la praticabilité d'appliquer la technologie des systèmes de multi-agents pour modeler et mettre en application un systéme complexe et à grande échelle d'e-Education dans un environnement distribué
The goal of this PhD thesis is develop an intelligent, flexible, personalized and open e-Education environment so as to provide an efficient mechanism to personalize the learner's learning process and the teacher's pedagogic process, diversify the learning paradigms and facilitate the development of the teaching and learning materials. To achieve such goal, this thesis explored and adopted a series of innovative methodologies, théories, algorithmes, and technologies derived from multidiscipline such as Multi-Agent, system, learning Object, cognitive theorue, genetic algorithm, eXentensible Markup Langaguage, J2EE and so on. In particular, this dissertation concentrates on the approch of MAS as a container and supporting environment to integrating and encapsulating the above mentioned technologies and methodologies, as well as to modeling and implementating several typical e-Education applications different levels and different contexts in terms of content authoring, individual and collective learning, expertise peer help finding, and test generation, delivery, assessment in distributed learning environment after deliberately taking into consideration the obvious advantage of MAS in terms of autonomy, procativeness, social ability and reactivity, To verify and validate the feasibility and efficiency of the models proposed in thisthesis, part of the models have been implementted and simulated with the JADE framework. The final simulation results demonstrate the rationality and feasibility of applying multi-agent system technology to modeling and implementing large-scale and complex e-Education system in distributed environment
APA, Harvard, Vancouver, ISO, and other styles
9

Cao, Hongliu. "Forêt aléatoire pour l'apprentissage multi-vues basé sur la dissimilarité : Application à la Radiomique." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR073/document.

Full text
Abstract:
Les travaux de cette thèse ont été initiés par des problèmes d’apprentissage de données radiomiques. La Radiomique est une discipline médicale qui vise l’analyse à grande échelle de données issues d’imageries médicales traditionnelles, pour aider au diagnostic et au traitement des cancers. L’hypothèse principale de cette discipline est qu’en extrayant une grande quantité d’informations des images, on peut caractériser de bien meilleure façon que l’œil humain les spécificités de cette pathologie. Pour y parvenir, les données radiomiques sont généralement constituées de plusieurs types d’images et/ou de plusieurs types de caractéristiques (images, cliniques, génomiques). Cette thèse aborde ce problème sous l’angle de l’apprentissage automatique et a pour objectif de proposer une solution générique, adaptée à tous problèmes d’apprentissage du même type. Nous identifions ainsi en Radiomique deux problématiques d’apprentissage: (i) l’apprentissage de données en grande dimension et avec peu d’instances (high dimension, low sample size, a.k.a.HDLSS) et (ii) l’apprentissage multi-vues. Les solutions proposées dans ce manuscrit exploitent des représentations de dissimilarités obtenues à l’aide des Forêts Aléatoires. L’utilisation d’une représentation par dissimilarité permet de contourner les difficultés inhérentes à l’apprentissage en grande dimension et facilite l’analyse conjointe des descriptions multiples (les vues). Les contributions de cette thèse portent sur l’utilisation de la mesure de dissimilarité embarquée dans les méthodes de Forêts Aléatoires pour l’apprentissage multi-vue de données HDLSS. En particulier, nous présentons trois résultats: (i) la démonstration et l’analyse de l’efficacité de cette mesure pour l’apprentissage multi-vue de données HDLSS; (ii) une nouvelle méthode pour mesurer les dissimilarités à partir de Forêts Aléatoires, plus adaptée à ce type de problème d’apprentissage; et (iii) une nouvelle façon d’exploiter l’hétérogénèité des vues, à l’aide d’un mécanisme de combinaison dynamique. Ces résultats ont été obtenus sur des données radiomiques mais aussi sur des problèmes multi-vue classiques
The work of this thesis was initiated by a Radiomic learning problem. Radiomics is a medical discipline that aims at the large-scale analysis of data from traditional medical imaging to assist in the diagnosis and treatment of cancer. The main hypothesis of this discipline is that by extracting a large amount of information from the images, we can characterize the specificities of this pathology in a much better way than the human eye. To achieve this, Radiomics data are generally based on several types of images and/or several types of features (from images, clinical, genomic). This thesis approaches this problem from the perspective of Machine Learning (ML) and aims to propose a generic solution, adapted to any similar learning problem. To do this, we identify two types of ML problems behind Radiomics: (i) learning from high dimension, low sample size (HDLSS) and (ii) multiview learning. The solutions proposed in this manuscript exploit dissimilarity representations obtained using the Random Forest method. The use of dissimilarity representations makes it possible to overcome the well-known difficulties of learning high dimensional data, and to facilitate the joint analysis of the multiple descriptions, i.e. the views.The contributions of this thesis focus on the use of the dissimilarity easurement embedded in the Random Forest method for HDLSS multi-view learning. In particular, we present three main results: (i) the demonstration and analysis of the effectiveness of this measure for HDLSS multi-view learning; (ii) a new method for measuring dissimilarities from Random Forests, better adapted to this type of learning problem; and (iii) a new way to exploit the heterogeneity of views, using a dynamic combination mechanism. These results have been obtained on radiomic data but also on classical multi-view learning problems
APA, Harvard, Vancouver, ISO, and other styles
10

Kalunga, Emmanuel. "Vers des interfaces cérébrales adaptées aux utilisateurs : interaction robuste et apprentissage statistique basé sur la géométrie riemannienne." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV041/document.

Full text
Abstract:
Au cours des deux dernières décennies, l'intérêt porté aux interfaces cérébrales ou Brain Computer Interfaces (BCI) s’est considérablement accru, avec un nombre croissant de laboratoires de recherche travaillant sur le sujet. Depuis le projet Brain Computer Interface, où la BCI a été présentée à des fins de réadaptation et d'assistance, l'utilisation de la BCI a été étendue à d'autres applications telles que le neurofeedback et l’industrie du jeux vidéo. Ce progrès a été réalisé grâce à une meilleure compréhension de l'électroencéphalographie (EEG), une amélioration des systèmes d’enregistrement du EEG, et une augmentation de puissance de calcul.Malgré son potentiel, la technologie de la BCI n’est pas encore mature et ne peut être utilisé en dehors des laboratoires. Il y a un tas de défis qui doivent être surmontés avant que les systèmes BCI puissent être utilisés à leur plein potentiel. Ce travail porte sur des aspects importants de ces défis, à savoir la spécificité des systèmes BCI aux capacités physiques des utilisateurs, la robustesse de la représentation et de l'apprentissage du EEG, ainsi que la suffisance des données d’entrainement. L'objectif est de fournir un système BCI qui peut s’adapter aux utilisateurs en fonction de leurs capacités physiques et des variabilités dans les signaux du cerveau enregistrés.À ces fins, deux voies principales sont explorées : la première, qui peut être considérée comme un ajustement de haut niveau, est un changement de paradigmes BCI. Elle porte sur la création de nouveaux paradigmes qui peuvent augmenter les performances de la BCI, alléger l'inconfort de l'utilisation de ces systèmes, et s’adapter aux besoins des utilisateurs. La deuxième voie, considérée comme une solution de bas niveau, porte sur l’amélioration des techniques de traitement du signal et d’apprentissage statistique pour améliorer la qualité du signal EEG, la reconnaissance des formes, ainsi que la tache de classification.D'une part, une nouvelle méthodologie dans le contexte de la robotique d'assistance est définie : il s’agit d’une approche hybride où une interface physique est complémentée par une interface cérébrale pour une interaction homme-machine plus fluide. Ce système hybride utilise les capacités motrices résiduelles des utilisateurs et offre la BCI comme un choix optionnel : l'utilisateur choisit quand utiliser la BCI et peut alterner entre les interfaces cérébrales et musculaire selon le besoin.D'autre part, pour l’amélioration des techniques de traitement du signal et d'apprentissage statistique, ce travail utilise un cadre Riemannien. Un frein majeur dans le domaine de la BCI est la faible résolution spatiale du EEG. Ce problème est dû à l'effet de conductance des os du crâne qui agissent comme un filtre passe-bas non linéaire, en mélangeant les signaux de différentes sources du cerveau et réduisant ainsi le rapport signal-à-bruit. Par conséquent, les méthodes de filtrage spatial ont été développées ou adaptées. La plupart d'entre elles – à savoir la Common Spatial Pattern (CSP), la xDAWN et la Canonical Correlation Analysis (CCA) – sont basées sur des estimations de matrice de covariance. Les matrices de covariance sont essentielles dans la représentation d’information contenue dans le signal EEG et constituent un élément important dans leur classification. Dans la plupart des algorithmes d'apprentissage statistique existants, les matrices de covariance sont traitées comme des éléments de l'espace euclidien. Cependant, étant symétrique et défini positive (SDP), les matrices de covariance sont situées dans un espace courbe qui est identifié comme une variété riemannienne. Utiliser les matrices de covariance comme caractéristique pour la classification des signaux EEG, et les manipuler avec les outils fournis par la géométrie de Riemann, fournit un cadre solide pour la représentation et l'apprentissage du EEG
In the last two decades, interest in Brain-Computer Interfaces (BCI) has tremendously grown, with a number of research laboratories working on the topic. Since the Brain-Computer Interface Project of Vidal in 1973, where BCI was introduced for rehabilitative and assistive purposes, the use of BCI has been extended to more applications such as neurofeedback and entertainment. The credit of this progress should be granted to an improved understanding of electroencephalography (EEG), an improvement in its measurement techniques, and increased computational power.Despite the opportunities and potential of Brain-Computer Interface, the technology has yet to reach maturity and be used out of laboratories. There are several challenges that need to be addresses before BCI systems can be used to their full potential. This work examines in depth some of these challenges, namely the specificity of BCI systems to users physical abilities, the robustness of EEG representation and machine learning, and the adequacy of training data. The aim is to provide a BCI system that can adapt to individual users in terms of their physical abilities/disabilities, and variability in recorded brain signals.To this end, two main avenues are explored: the first, which can be regarded as a high-level adjustment, is a change in BCI paradigms. It is about creating new paradigms that increase their performance, ease the discomfort of using BCI systems, and adapt to the user’s needs. The second avenue, regarded as a low-level solution, is the refinement of signal processing and machine learning techniques to enhance the EEG signal quality, pattern recognition and classification.On the one hand, a new methodology in the context of assistive robotics is defined: it is a hybrid approach where a physical interface is complemented by a Brain-Computer Interface (BCI) for human machine interaction. This hybrid system makes use of users residual motor abilities and offers BCI as an optional choice: the user can choose when to rely on BCI and could alternate between the muscular- and brain-mediated interface at the appropriate time.On the other hand, for the refinement of signal processing and machine learning techniques, this work uses a Riemannian framework. A major limitation in this filed is the EEG poor spatial resolution. This limitation is due to the volume conductance effect, as the skull bones act as a non-linear low pass filter, mixing the brain source signals and thus reducing the signal-to-noise ratio. Consequently, spatial filtering methods have been developed or adapted. Most of them (i.e. Common Spatial Pattern, xDAWN, and Canonical Correlation Analysis) are based on covariance matrix estimations. The covariance matrices are key in the representation of information contained in the EEG signal and constitute an important feature in their classification. In most of the existing machine learning algorithms, covariance matrices are treated as elements of the Euclidean space. However, being Symmetric and Positive-Definite (SPD), covariance matrices lie on a curved space that is identified as a Riemannian manifold. Using covariance matrices as features for classification of EEG signals and handling them with the tools provided by Riemannian geometry provide a robust framework for EEG representation and learning
APA, Harvard, Vancouver, ISO, and other styles
11

Dion-Routhier, Justine. "L'apprentissage par problème basé sur des questions socialement vives au primaire." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/32269.

Full text
Abstract:
Au 21e siècle, la société fait face à des transformations importantes, notamment liées aux exigences de l’ère numérique (Ministère de l’Éducation de l’Ontario, 2016) et à l’accessibilité à l’information (Bollington, 2015). Ceux-ci représentent un défi de taille pour les systèmes d’éducation partout à travers le monde (Hoechsmann et DeWaard, 2015) et imposent des changements prépondérants du point de vue de l’éducation (Mayes & al., 2014). L’école doit occuper un rôle central et s’ajuster aux changements qui s’opèrent dans le monde actuel afin que les élèves développent des compétences qui leur permettront d’être des citoyens actifs et impliqués (Albe, 2009). Dewey (1910/2004) insiste sur les bénéfices de l’apprentissage par problème où les élèves doivent être engagés (Veletsianos & Doering, 2010) et se familiariser avec les enjeux sociétaux auxquels ils seront confrontés. À cet égard, cette étude vise à documenter une démarche d’apprentissage par problème (APP) où une question socialement vive (QSV) est exploitée avec des élèves du primaire afin de comprendre leur processus d’enquête, la construction de leur compréhension d’un problème complexe et les apprentissages sous-jacents. Dans une approche d’étude de cas, les discussions de groupes d’une classe de 4e année du primaire impliquée dans une telle démarche ont été analysées afin de reconstruire la chronologie de leur expérience et d’identifier les phases de la pensée réflexive (Dewey, 1910/2004). À la lumière de leurs discours collectifs, il est possible de constater qu’à partir d’un questionnement initial, les élèves problématisent et, lors d’allers-retours entre les différentes phases de l’enquête, leur pensée réflexive se complexifie. Le questionnement lui-même tend à évoluer au fil de l’enquête et de nouveaux segments peuvent émerger. En somme, les itérations entre les phases et les enquêtes permettent une problématisation qui tend à l’affiliation de leur compréhension, à la construction de leurs connaissances, et donc, à l’apprentissage.
APA, Harvard, Vancouver, ISO, and other styles
12

Li, Huihua. "Généralisation de l'ordre et des paramètres de macro-actions par apprentissage basé sur l'explication. Extension de l'apprentissage par explications sur l'ordre partiel." Paris 6, 1992. http://www.theses.fr/1992PA066233.

Full text
Abstract:
Les methodes traditionnelles d'apprentissage comme l'apprentissage par macro-actions de fikes et l'apprentissage par explications (ebl) traitent les plans totalement ordonnes. Elles generalisent seulement les actions et les conditions sous lesquelles le plan peut etre applique, mais jamais elles ne transforment l'ordre des actions en un ordre partiel moins strict dans lequel le plan peut aussi etre correctement execute. Une methode est proposee pour construire, a partir d'une sequence d'actions du type strips realisant une conjonction de buts, des macro-actions partiellement ordonnees dont chacune exige l'ensemble des conditions les plus faibles pour sa reutilisation. Elle est aussi valable pour generaliser les plans partiellement ordonnes. Les actions sont generalisees dans la table triangulaire de fikes. On introduit des axiomes du domaine pour generer les contraintes sur les parametres des actions. Ces contraintes, avec celles issues des destructions des actions, assurent la consistance des etats generalises. L'ensemble de contraintes est transforme en une disjonction ou chaque element definit un ensemble de substitutions admissibles d'une particularisation de la macro-action. En completant la table par des informations sur les destructions, on obtient l'explication globale sur l'ordre partiel des actions. Puis, on represente toutes les relations d'ordre necessaires par un (multi)graphe. L'exploitation de ce graphe permet d'expliciter la dependance entre les ordres partiels generalises et les contraintes sur les parametres et d'obtenir l'ensemble des solutions
APA, Harvard, Vancouver, ISO, and other styles
13

Pace, Alessio. "Quelques défis posés par l'utilisation de protocoles de Gossip dans l'Internet." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00636386.

Full text
Abstract:
Les systèmes pair-à-pair (P2P) sont aujourd'hui très populaires. Leur utilisation va de la messagerie instantanée au partage de fichiers, en passant par la sauvegarde et le stockage distribué ou encore le streaming video. Parmi les protocoles P2P, les protocoles basés sur le "gossip" sont une famille de protocoles qui a fait l'objet de nombreux travaux de recherche durant la dernière décennie. Les raisons de l'engouement pour les protocoles basés sur le "gossip" sont qu'ils sont considérés robustes, faciles à mettre en oeuvre et qu'ils ont des propriétés de passage à l'échelle intéressantes. Ce sont donc des candidats intéressants dès lors qu'il s'agit de réaliser des systèmes distribués dynamiques à large échelle. Cette thèse considère deux problématiques rencontrées lorsque l'on déploie des protocoles basé sur le "gossip" dans un environnement réel comme l'Internet. La première problématique est la prise en compte des pare-feux (NAT) dans le cadre des protocoles d'échantillonnage basés sur le "gossip". Ces protocoles font l'hypothèse que, a tout moment, chaque noeud est capable de communiquer avec n'importe quel noeud du réseau. Cette hypothèse est fausse dès lors que certains noeuds utilisent des NAT. Nous présentons Nylon, un protocole d'échantillonnage qui fonctionne malgré la présence de NAT. Nylon introduit un faible surcoût pour gérer les NAT et partage équitablement ce surcoût entre les noeuds possédant un NAT et les autres noeuds. La deuxième problématique que nous étudions est la possibilité de limiter la dissémination de messages de type "spam" dans les protocoles de dissémination basés sur le "gossip". Ces protocoles sont en effet des vecteurs idéaux pour diffuser les messages de type "spam" du fait qu'il n'y a pas d'autorité de contrôle permettant de filtrer les messages basés sur leur contenu. Nous proposons FireSpam, un protocole de dissémination basé sur le "gossip" qui permet de limiter la diffusion des messages de type "spam". FireSpam fonctionne par filtrage décentralisé (chaque noeud participe au filtrage). Par ailleurs, il fonctionne malgré la présence d'une fraction de noeuds malicieux (aussi appelés "Byzantins") et malgré la présence de noeuds dits "rationnels" (aussi appelés "égoïstes"). Ces derniers sont prêts à dévier du protocole s'ils ont un intérêt à le faire.
APA, Harvard, Vancouver, ISO, and other styles
14

Motta, Jesus Antonio. "VENCE : un modèle performant d'extraction de résumés basé sur une approche d'apprentissage automatique renforcée par de la connaissance ontologique." Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/26076.

Full text
Abstract:
De nombreuses méthodes et techniques d’intelligence artificielle pour l’extraction d'information, la reconnaissance des formes et l’exploration de données sont utilisées pour extraire des résumés automatiquement. En particulier, de nouveaux modèles d'apprentissage automatique semi supervisé avec ajout de connaissance ontologique permettent de choisir des phrases d’un corpus en fonction de leur contenu d'information. Le corpus est considéré comme un ensemble de phrases sur lequel des méthodes d'optimisation sont appliquées pour identifier les attributs les plus importants. Ceux-ci formeront l’ensemble d’entrainement, à partir duquel un algorithme d’apprentissage pourra abduire une fonction de classification capable de discriminer les phrases de nouveaux corpus en fonction de leur contenu d’information. Actuellement, même si les résultats sont intéressants, l’efficacité des modèles basés sur cette approche est encore faible notamment en ce qui concerne le pouvoir discriminant des fonctions de classification. Dans cette thèse, un nouveau modèle basé sur l’apprentissage automatique est proposé et dont l’efficacité est améliorée par un ajout de connaissance ontologique à l’ensemble d’entrainement. L’originalité de ce modèle est décrite à travers trois articles de revues. Le premier article a pour but de montrer comment des techniques linéaires peuvent être appliquées de manière originale pour optimiser un espace de travail dans le contexte du résumé extractif. Le deuxième article explique comment insérer de la connaissance ontologique pour améliorer considérablement la performance des fonctions de classification. Cette insertion se fait par l’ajout, à l'ensemble d’entraînement, de chaines lexicales extraites de bases de connaissances ontologiques. Le troisième article décrit VENCE , le nouveau modèle d’apprentissage automatique permettant d’extraire les phrases les plus porteuses d’information en vue de produire des résumés. Une évaluation des performances de VENCE a été réalisée en comparant les résultats obtenus avec ceux produits par des logiciels actuels commerciaux et publics, ainsi que ceux publiés dans des articles scientifiques très récents. L’utilisation des métriques habituelles de rappel, précision et F_measure ainsi que l’outil ROUGE a permis de constater la supériorité de VENCE. Ce modèle pourrait être profitable pour d’autres contextes d’extraction d’information comme pour définir des modèles d’analyse de sentiments.
Several methods and techniques of artificial intelligence for information extraction, pattern recognition and data mining are used for extraction of summaries. More particularly, new machine learning models with the introduction of ontological knowledge allow the extraction of the sentences containing the greatest amount of information from a corpus. This corpus is considered as a set of sentences on which different optimization methods are applied to identify the most important attributes. They will provide a training set from which a machine learning algorithm will can abduce a classification function able to discriminate the sentences of new corpus according their information content. Currently, even though the results are interesting, the effectiveness of models based on this approach is still low, especially in the discriminating power of classification functions. In this thesis, a new model based on this approach is proposed and its effectiveness is improved by inserting ontological knowledge to the training set. The originality of this model is described through three papers. The first paper aims to show how linear techniques could be applied in an original way to optimize workspace in the context of extractive summary. The second article explains how to insert ontological knowledge to significantly improve the performance of classification functions. This introduction is performed by inserting lexical chains of ontological knowledge based in the training set. The third article describes VENCE , the new machine learning model to extract sentences with the most information content in order to produce summaries. An assessment of the VENCE performance is achieved comparing the results with those produced by current commercial and public software as well as those published in very recent scientific articles. The use of usual metrics recall, precision and F_measure and the ROUGE toolkit showed the superiority of VENCE. This model could benefit other contexts of information extraction as for instance to define models for sentiment analysis.
APA, Harvard, Vancouver, ISO, and other styles
15

Mouelhi-Chibani, Wiem. "Apprentissage autonome de réseaux de neurones pour le pilotage en temps réel des systèmes de production basé sur l'optimisation via simulation." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00725259.

Full text
Abstract:
Le pilotage en temps réel des systèmes de production nécessite de prendre des décisions complexes sur l'affectation des ressources ou le choix des tâches à réaliser. Compte tenu de l'importance de la pertinence des décisions pour la performance d'un atelier, le pilotage fait l'objet de travaux de recherche dont l'objectif est d'aider les preneurs de décision. En particulier, on ne sait pas évaluer les conséquences sur la performance d'une décision en temps réel car les bonnes performances résultent d'une séquence de décisions et non d'une seule. De ce fait, il est difficile d'établir quelle est la meilleure décision à prendre à un instant donné. Plusieurs auteurs ont utilisé la simulation pour apprendre des bonnes pratiques à l'aide d'approches d'apprentissage automatique, mais se sont heurtés à la difficulté d'obtenir des exemples ou des observations sur des décisions en temps réel, où la prise en compte des changements d'états est indispensable pour choisir des stratégies de production. Nous avons réussi à aborder ce problème en proposant une approche d'apprentissage à l'aide de réseaux de neurones, qui ne nécessite pas d'exemples, d'observations ni de connaissances d'experts préalables. Ce type d'apprentissage s'effectue par optimisation via simulation des paramètres du réseau de neurones par rapport à un objectif de performance du système. Il vise à extraire de façon autonome des connaissances sur la meilleure façon de décider d'un modèle de simulation. Nous montrons la faisablité et l'apport de notre approche sur deux exemples inspirés de la littérature
APA, Harvard, Vancouver, ISO, and other styles
16

Belmeskine, Rachid. "NICOLAT : un système iNformatIque COmmunautaire et AdapTatif support d'une Communauté de Pratique pour un apprentissage basé sur la résolution de problèmes." Thesis, Amiens, 2015. http://www.theses.fr/2015AMIE0030/document.

Full text
Abstract:
Dans ce travail de recherche, nous nous sommes intéressés à la conception et au développement d'un système iNformatIque COmmunautaire mobiLe et AdapTatif, appelé NICOLAT. Ce dernier vise à supporter une CoP dans laquelle l'apprentissage s'effectue via la résolution communautaire de problèmes en offrant des solutions qui permettent de limiter les facteurs qui peuvent aboutir à la démotivation des membres de la CoP.Pour expérimenter et valider les solutions que nous proposons à travers ce système, nous ciblons la CoP des enseignants usagers de la méthode pédagogique MAETIC, qui peuvent rencontrer, en classe, des problèmes dans l'usage de celle-ci.Ainsi, nos principales contributions se résument dans les points suivants : 1) La mise en place du noyau communautaire du système NICOLAT. Ce dernier est sous forme d'un réseau social supportant la résolution communautaire de problèmes, 2) La mise en place d'une couche de résolution de problèmes ayant pour objectif d'aider le membre à résoudre son problème par exploitation de l'historique des problèmes résolus dans le passé. Ceci pour minimiser le nombre de demandes d'aide répétitives. Le cycle du raisonnement RàPC (Raisonnement à Partir de Cas) a été utilisé pour guider ce processus, 3) La mise en place de deux couches d'adaptation permettant de supporter les interactions des membres dans les outils d'interaction qu'ils préfèrent ou avec lesquels ils sont familiarisés le plus. L'objectif visé par cette adaptation est, d'une part, de dépasser les problèmes de prise en main de nouveaux outils d'interaction. D'autre part, de permettre l'accès au système en cas de mobilité et minimiser ainsi le temps de réponse, 4) La mise en place d'une approche de sélection des membres qui peuvent contribuer positivement à résoudre un problème à qui faire aboutir la demande d'aide. L'objectif est de permettre à un membre cherchant à résoudre son problème de recevoir une réponse pertinente
In this research work, we focused on design and development of an adaptive and mobile community system, called NICOLAT (iNformatIque COmmunautaire mobiLe et AdapTatif). The latter aims to support a Community of Practice (CoP) in which learning is done through community problem solving by providing solutions that limit the factors that can lead to the demotivation of the CoP members.To experiment and validate the solutions we provide through this system, we target the CoP of teachers users of the MAETIC pedagogical method, who can meet, in classroom, problems in the use of it.Thus, our main contributions are summarized in the following points: 1) Establishment of community kernel of the NICOLAT system. The latter is as a social network supporting the community solving of problems, 2) Implementation of problems resolution layer that aims to help the member solve his problem through the exploitation of the history of problems solved in the past. This is to minimize the number of repetitive help requests. The cycle of the CBR (Case-Based Reasoning) was used to guide this process, 3) Establishment of an interactions adaptation layer to support the members' interactions in the interaction tools they prefer or with which they are most familiar. The purpose of this adaptation is, firstly, to exceed the problems of interaction tools manipulation. On the other hand, to enable access to the system in case of mobility and thereby minimize response time, 4) Establishment of a dynamic approach of selection of members who can contribute positively to solve a problem, to whom bring the help requests. The objective is to enable a member seeking to solve his problem to receive a relevant answer
APA, Harvard, Vancouver, ISO, and other styles
17

Génevé, Lionel. "Système de déploiement d'un robot mobile autonome basé sur des balises." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD024/document.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre d’un projet visant à développer un robot mobile autonome capable de réaliser des tâches spécifiques dans une zone préalablement définie par l’utilisateur. Afin de faciliter la mise en œuvre du système, des balises radiofréquences fournissant des mesures de distance par rapport au robot sont disposées au préalable autour du terrain. Le déploiement du robot s’effectue en deux phases, une première d’apprentissage du terrain, puis une seconde, où le robot effectue ses tâches de façon autonome. Ces deux étapes nécessitent de résoudre les problèmes de localisation et de localisation et cartographie simultanées pour lesquels différentes solutions sont proposées et testées en simulation et sur des jeux de données réelles. De plus, afin de faciliter l’installation et d’améliorer les performances du système, un algorithme de placement des balises est présenté puis testé en simulation afin de valider notamment l’amélioration des performances de localisation
This thesis is part of a project which aims at developing an autonomous mobile robot able to perform specific tasks in a preset area. To ease the setup of the system, radio-frequency beacons providing range measurements with respect to the robot are set up beforehand on the borders of the robot’s workspace. The system deployment consists in two steps, one for learning the environment, then a second, where the robot executes its tasks autonomously. These two steps require to solve the localization and simultaneous localization and mapping problems for which several solutions are proposed and tested in simulation and on real datasets. Moreover, to ease the setup and improve the system performances, a beacon placement algorithm is presented and tested in simulation in order to validate in particular the improvement of the localization performances
APA, Harvard, Vancouver, ISO, and other styles
18

Jiao, Yunlong. "Pronostic moléculaire basé sur l'ordre des gènes et découverte de biomarqueurs guidé par des réseaux pour le cancer du sein." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM027/document.

Full text
Abstract:
Le cancer du sein est le deuxième cancer le plus répandu dans le monde et la principale cause de décès due à un cancer chez les femmes. L'amélioration du pronostic du cancer a été l'une des principales préoccupations afin de permettre une meilleure gestion et un meilleur traitement clinique des patients. Avec l'avancement rapide des technologies de profilage génomique durant ces dernières décennies, la disponibilité aisée d'une grande quantité de données génomiques pour la recherche médicale a motivé la tendance actuelle qui consiste à utiliser des outils informatiques tels que l'apprentissage statistique dans le domaine de la science des données afin de découvrir les biomarqueurs moléculaires en lien avec l'amélioration du pronostic. Cette thèse est conçue suivant deux directions d'approches destinées à répondre à deux défis majeurs dans l'analyse de données génomiques pour le pronostic du cancer du sein d'un point de vue méthodologique de l'apprentissage statistique : les approches basées sur le classement pour améliorer le pronostic moléculaire et les approches guidées par un réseau donné pour améliorer la découverte de biomarqueurs. D'autre part, les méthodologies développées et étudiées dans cette thèse, qui concernent respectivement l'apprentissage à partir de données de classements et l'apprentissage sur un graphe, apportent une contribution significative à plusieurs branches de l'apprentissage statistique, concernant au moins les applications à la biologie du cancer et la théorie du choix social
Breast cancer is the second most common cancer worldwide and the leading cause of women's death from cancer. Improving cancer prognosis has been one of the problems of primary interest towards better clinical management and treatment decision making for cancer patients. With the rapid advancement of genomic profiling technologies in the past decades, easy availability of a substantial amount of genomic data for medical research has been motivating the currently popular trend of using computational tools, especially machine learning in the era of data science, to discover molecular biomarkers regarding prognosis improvement. This thesis is conceived following two lines of approaches intended to address two major challenges arising in genomic data analysis for breast cancer prognosis from a methodological standpoint of machine learning: rank-based approaches for improved molecular prognosis and network-guided approaches for enhanced biomarker discovery. Furthermore, the methodologies developed and investigated in this thesis, pertaining respectively to learning with rank data and learning on graphs, have a significant contribution to several branches of machine learning, concerning applications across but not limited to cancer biology and social choice theory
APA, Harvard, Vancouver, ISO, and other styles
19

Tena-Chollet, Florian. "Elaboration d'un environnement semi-virtuel de formation à la gestion stratégique de crise, basé sur la simulation multi-agents." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00741941.

Full text
Abstract:
Les crises projettent la plupart du temps le décideur sur une durée plus ou moins longue dans l'urgence de la décision, avec l'obligation de minimiser les conséquences possibles sur les enjeux. Une équipe de gestion de crise est organisée en cellule et a pour objectif de construire des stratégies de réponse concertées et appropriées. Or, il s'avère que certaines des compétences nécessaires ne peuvent être acquises que par expérience. Ce travail s'attache ainsi à améliorer les processus de formation des décisionnaires en définissant, suivant quatre étapes, un environnement semi-virtuel de formation à la gestion stratégique de crise. Une phase de conception sert tout d'abord de point de départ au cahier des charges d'une implantation physique, d'une ingénierie système et d'une ingénierie pédagogique dédiées. Puis, une étape de modélisation d'un exercice de gestion de crise structure une méthodologie visant à définir les objectifs pédagogiques retenus, et propose une méthode appliquée de génération semi-automatique d'un scénario didactique. Une attention particulière est notamment portée sur l'élaboration d'une typologie d'évènements et d'éléments logiciels permettant la simulation multi-agents de crises virtualisées. Enfin, une méthodologie d'évaluation des participants est proposée dans le but d'enrichir la phase classique de débriefing. Seize indicateurs sont définis et permettent en particulier de construire des arbres de compétences. Une phase de validation porte sur trois de ces quatre axes méthodologiques, et il est montré que les premiers résultats obtenus tendent à valider les spécifications retenues pour l'environnement semi-virtuel de formation développé.
APA, Harvard, Vancouver, ISO, and other styles
20

Brassard, Caroline. "Conception d'un enseignement basé sur le Web en accord avec le modèle en dix dimensions de Reeves et analyse de la dimension apprentissage collaboratif." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape8/PQDD_0004/MQ43285.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Farhat, Hadi. "Dispositif de détection et localisation basé sur un système RFID UHF intelligent : application au domaine de la grande distribution." Thesis, Lille, 2019. http://www.theses.fr/2019LIL1I025.

Full text
Abstract:
La technologie RFID UHF, également appelée RAIN RFID, est une technologie passive permettant l’identification automatique des objets. Elle comble ainsi le fossé entre les mondes physique et numérique en permettant à un objet de devenir « vivant » sur l'internet des objets grâce à des étiquettes RFID (tags) peu coûteuses et sans batterie. La technologie RFID UHF passive témoigne d’un développement significatif en raison de la croissance accélérée de dispositifs technologiques sophistiqués. Ce développement est en grande partie poussé par la chaîne d'approvisionnement et la grande distribution. Dans ces domaines, la RFID UHF passive de deuxième génération (Gen2), parmi d'autres solutions de traçage et d'identification possibles, constitue un choix logique compte tenu du faible coût des tags lorsqu’ils sont produits en gros volumes, de leur facilité d'impression et de l’absence de batterie.La principale préoccupation des revendeurs détaillants est la disponibilité du produit. Celle-ci peut être affectée par l’existence d’erreurs liées à la visibilité (écarts de stockage, vol, perte) et d’erreurs humaines. Il est donc nécessaire d'améliorer la visibilité et d'automatiser le processus. Malgré ses avantages, le déploiement de la technologie RFID dans la grande distribution est toujours confronté à de nombreux obstacles et défis. Dans cette thèse, nous nous sommes attachés à répertorier toutes les technologies de composants et de lecteurs proposées sur le marché ou encore à l’état de prototype, puis, après avoir identifié et analysé les différents défis liés à ce domaine particulier d’application, à élaborer et à tester de nouvelles solutions.En premier lieu, les distances maximales de lecture des tags passifs sont évaluées dans différents environnement afin d’identifier les facteurs les impactant. A l’issue de cette étude, une méthode de caractérisation alternative est proposée pour contrôler les performances des tags et identifier les objets tagués ayant de faibles performances. Deuxièmement, nous nous appuyant sur cette méthode pour proposer une nouvelle solution d’amélioration de la détection. Les algorithmes conçus et réalisés pour traduire cette solution permettent aux lecteurs de négocier leurs configurations avec l’environnement et entre eux. Enfin, un nouvel algorithme de localisation est proposé afin d’améliorer la précision. Son élaboration et son implémentation sont basées sur l’exploitation de la réponse des tags identifiés comme les plus fiables du milieu. Les solutions proposées sont particulièrement avantageuses car universelles, compatibles avec les lecteurs du marché et n’ajoutant aucun coût au matériel utilisé pour la détection
UHF RFID technology, also known as RAIN RFID, is a passive technology that enables the automatic identification of items. Thus, it bridges the gap between the physical and digital worlds by allowing an item to become alive on the Internet of things thanks to inexpensive and battery-free RFID tags. Passive UHF RFID technology has witnessed a significant development due to the accelerated growth of sophisticated technological devices. This development is largely driven by the supply chain and the retail industries. Passive UHF RFID Gen2, among other tracing and identification solutions, is the logical choice given the low costs of large-volume tags, ease of printing and being battery-free, the need for maintenance is completely eliminated.The main concern of resellers, the withdrawal of the product, is mainly affected by errors related to visibility (stock gap, theft, loss) and human errors. It is, therefore, necessary to improve visibility and automate the process. Despite its advantages, RFID deployment in supermarkets is still facing many obstacles and challenges. In this thesis, we focus on technological availability by defining and analyzing the different challenges and possibly proposing the appropriate solutions.First, the maximum reading distances of passive tags are evaluated in different environments in order to identify the factors impacting them. At the end of this study, an alternative characterization method is proposed to control tag performance and identify tagged objects with poor performance. Secondly, we will use this method to propose a new solution to improve detection. The algorithms behind this solution allow readers to negotiate their configurations with the environment and with each other. Finally, a new location algorithm is proposed to improve accuracy. This algorithm is based on the exploitation of the answers of the reliable tags of the medium. The proposed solutions are universal, compatible with market readers and add no cost to the hardware used for detection
APA, Harvard, Vancouver, ISO, and other styles
22

Bourget, Annick. "De la formation préclinique à la formation clinique : explicitation du développement du raisonnement clinique chez des étudiantes et des étudiants en médecine ayant suivi un programme basé sur l'apprentissage par problèmes." Thèse, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6383.

Full text
Abstract:
Le but de l'étude est d'explorer le développement du raisonnement clinique selon une perspective multidimensionnelle et longitudinale en considérant le modèle multidimensionnel du raisonnement clinique et le concept de compétence. Les questions de recherche sont : (1) quelles dimensions du raisonnement clinique se manifestent chez l'étudiant? (2) quelles étapes de développement est-il possible de repérer? Il s'agit d'une étude de cas multiples explorant le développement de cinq dimensions : "Représentation", "Processus", "Métacognition", "Connaissances" et "Structures". Quatre étudiants furent rencontrés à quatre moments entre la fin de leur formation préclinique et le début de leur formation clinique (12 mois). Chaque étudiant réalisait (1) une entrevue médicale avec un patient standardisé; (2) un entretien d'explicitation à partir d'une vidéo; (3) une carte cognitive et (4) une entrevue semi-dirigée. Des analyses intracas puis intercas furent réalisées suivant les étapes de condensation, de présentation et d'élaboration. L'analyse permet de conclure que les cinq dimensions sont présentes chez les étudiants dès la fin de leur formation préclinique et qu'il existe une interdépendance entre ces dimensions. De plus, cinq transformations témoignent du développement du raisonnement clinique chez l'étudiant : (1) automatisation et adaptation des connaissances procédurales de la collecte d'informations; (2) déplacement de la cible de la régulation; (3) passage d'une recherche de cohérence entre les signes et les symptômes à l'évaluation des hypothèses; (4) passage du recours aux connaissances biomédicales à l'utilisation marquée des connaissances cliniques et (5) émergence de scripts. Ces transformations témoignent de deux grandes étapes de développement : (1) intégration de la démarche de la collecte d'informations et (2) passage d'une démarche de compréhension à une démarche de catégorisation. S'inscrivant dans l'interrelation recherche-formation-pratique, les conclusions et la méthodologie de l'étude invitent à poursuivre l'exploration du développement du raisonnement clinique chez l'étudiant en médecine ainsi que dans d'autres domaines de la santé.
APA, Harvard, Vancouver, ISO, and other styles
23

SAYED, MOUCHAWEH Moamar. "Conception d'un système de diagnostic adaptatif et prédictif basé sur la méthode Fuzzy Pattern Matching pour la surveillance en ligne des systèmes évolutifs." Phd thesis, Université de Reims - Champagne Ardenne, 2002. http://tel.archives-ouvertes.fr/tel-00002637.

Full text
Abstract:
La supervision automatique des processus industriels permet d'accroître la productivité et de diminuer le coût d'entretien. Le diagnostic est une composante principale d'un module de supervision. Il existe plusieurs approches pour réaliser le diagnostic. Les performances de chaque approche dépendent du problème posé. Nous cherchons une méthode de diagnostic capable de résoudre les problèmes suivants :
- dans une base de connaissance incomplète, tous les modes de fonctionnement ne sont pas représentés. En conséquence, un module de diagnostic doit être adaptatif afin d'inclure à sa base de connaissance les nouveaux modes dés qu'ils apparaissent,
- lorsque le système évolue vers un mode anormal ou non désiré, il est nécessaire d'anticiper cette évolution plutôt que d'attendre d'arriver à ce mode afin d'éviter ses conséquences surtout s'il est dangereux. Le module de diagnostic doit donc être prédictif,
- dans le cas d'un système évolutif, la base de connaissance doit être enrichie grâce à l'information apportée par les nouvelles observations. Cet enrichissement doit être réalisé en temps réel,
- les données sont à la fois incertaines et imprécises.
L'objectif principal de ma thèse consistait à mettre au point un module de diagnostic en temps réel adaptatif et prédictif pour des systèmes évolutifs, en utilisant les techniques de Reconnaissance des Formes, la théorie des ensembles flous et la théorie des possibilités. Ce module a été appliqué sur plusieurs applications industrielles.
APA, Harvard, Vancouver, ISO, and other styles
24

Loeffel, Pierre-Xavier. "Algorithmes de machine learning adaptatifs pour flux de données sujets à des changements de concept." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066496/document.

Full text
Abstract:
Dans cette thèse, nous considérons le problème de la classification supervisée sur un flux de données sujets à des changements de concepts. Afin de pouvoir apprendre dans cet environnement, nous pensons qu’un algorithme d’apprentissage doit combiner plusieurs caractéristiques. Il doit apprendre en ligne, ne pas faire d’hypothèses sur le concept ou sur la nature des changements de concepts et doit être autorisé à s’abstenir de prédire lorsque c’est nécessaire. Les algorithmes en ligne sont un choix évident pour traiter les flux de données. De par leur structure, ils sont capables de continuellement affiner le modèle appris à l’aide des dernières observations reçues. La structure instance based a des propriétés qui la rende particulièrement adaptée pour traiter le problème des flux de données sujet à des changements de concept. En effet, ces algorithmes font très peu d’hypothèses sur la nature du concept qu’ils essaient d’apprendre ce qui leur donne une flexibilité qui les rend capable d’apprendre un vaste éventail de concepts. Une autre force est que stocker certaines des observations passées dans la mémoire peux amener de précieuses meta-informations qui pourront être utilisées par la suite par l’algorithme. Enfin, nous mettons en valeur l’importance de permettre à un algorithme d’apprentissage de s’abstenir de prédire lorsque c’est nécessaire. En effet, les changements de concepts peuvent être la source de beaucoup d’incertitudes et, parfois, l’algorithme peux ne pas avoir suffisamment d’informations pour donner une prédiction fiable
In this thesis, we investigate the problem of supervised classification on a data stream subject to concept drifts. In order to learn in this environment, we claim that a successful learning algorithm must combine several characteristics. It must be able to learn and adapt continuously, it shouldn’t make any assumption on the nature of the concept or the expected type of drifts and it should be allowed to abstain from prediction when necessary. On-line learning algorithms are the obvious choice to handle data streams. Indeed, their update mechanism allows them to continuously update their learned model by always making use of the latest data. The instance based (IB) structure also has some properties which make it extremely well suited to handle the issue of data streams with drifting concepts. Indeed, IB algorithms make very little assumptions about the nature of the concept they are trying to learn. This grants them a great flexibility which make them likely to be able to learn from a wide range of concepts. Another strength is that storing some of the past observations into memory can bring valuable meta-informations which can be used by an algorithm. Furthermore, the IB structure allows the adaptation process to rely on hard evidences of obsolescence and, by doing so, adaptation to concept changes can happen without the need to explicitly detect the drifts. Finally, in this thesis we stress the importance of allowing the learning algorithm to abstain from prediction in this framework. This is because the drifts can generate a lot of uncertainties and at times, an algorithm might lack the necessary information to accurately predict
APA, Harvard, Vancouver, ISO, and other styles
25

Ghassemi, Elham. "Modèle computationnel du contrôle auto-adaptatif cérébelleux basé sur la Logique Floue appliqué aux mouvements binoculaires : déficit de la coordination binoculaire de la saccade horizontale chez l’enfant dyslexique." Thesis, Paris 5, 2013. http://www.theses.fr/2013PA05L001.

Full text
Abstract:
Ce travail de thèse porte essentiellement sur le cervelet. Nous y suivons deux axes majeurs : en termes de fonctions cérébelleuses, nous nous intéressons à l’apprentissage et l’adaptation du contrôle moteur ; en termes de dysfonctions cérébelleuses, nous nous intéressons à la dyslexie développementale.Nous nous orientons vers l’apprentissage du contrôle moteur afin d’en proposer un modèle computationnel fonctionnel appliqué aux mouvements oculaires volontaires. Pour ce faire, la Logique Floue est un de nos outils précieux. Nous avons proposé deux modèles. Le premier, AFCMAC (Auto-adaptive Fuzzy Cerebellar Model Articulation Controller), le résultat de l’intégration de la Logique Floue dans l’architecture de CMAC (Cerebellar Model Articulation Controller), est pourvu d’améliorer la vitesse/durée d’apprentissage et le besoin en termes de mémoire par rapport à CMAC. Le second modèle est CMORG (fuzzy logiC based Modeling for Oculomotor contRol LearninG), dont sa structure est également basée sur la Logique Floue, et dans lequel, le réseau de neurones est utilisé comme la mémoire pour gérer les règles Floues. Les résultats des évaluations des modèles proposés (AFCMAC et CMORG) et étudiés (CMAC et FCMAC – Fuzzy Cerebellar Model Articulation Controller), via les données oculomotrices des groupes d’enfants dyslexiques et contrôles lors de la lecture, montrent que CMORG est le plus performant à la fois, en termes de vitesse/durée d’apprentissage et également, de consommation de mémoire. Un autre avantage principal de CMORG par rapport aux autres modèles, est son interprétabilité par les experts.Concernant la dyslexie développementale, nous avons mené une étude expérimentale sur les déficits du contrôle moteur binoculaire lors des saccades des six enfants dyslexiques pendant les deux tâches différentes (la lecture d’un texte et la visualisation des chaînes de caractères) et dans les deux distances de vision (40 cm et 100 cm). Nous corroborons et adhérons à l’idée que la (mauvaise) qualité de la coordination binoculaire des saccades chez les enfants dyslexiques est indépendante des difficultés en lecture, associée peut-être aux hypothèses du déficit du magnosystème et du dysfonctionnement cérébelleux
This thesis focuses on the cerebellum. We follow two main lines: in terms of cerebellar functions, we are interested in learning and adaptation motor control ; in terms of cerebellar dysfunctions, we are interested in developmental dyslexia.We focus on learning motor control in order to provide a functional computational model applied to voluntary eye movements. To this end, Fuzzy Logic is one of our valuable tools. We proposed two models. The former is AFCMAC (Auto-adaptive Fuzzy Cerebellar Model Articulation Controller), the result of the integration of Fuzzy Logic in CMAC (Cerebellar Model Articulation Controller) architecture, in order to improve learning speed/time and memory requirements compared to the CMAC. The latter is CMORG (fuzzy logiC based Modeling for Oculomotor contRol LearninG), whose structure is also based on Fuzzy Logic, and in which, the neural network is used as the memory to handle Fuzzy rules. The evaluation results of the proposed (AFCMAC and CMORG) and studied (CMAC and FCMAC – Fuzzy Cerebellar Model Articulation Controller) models via oculomotor data of dyslexic and control groups while reading show that CMORG is the most efficient both in terms of learning speed/time and also memory consumption. Another main advantage of CMORG over the other models is its interpretability by experts. Regarding the developmental dyslexia, we conducted an experimental study on binocular motor control deficits during saccades in six dyslexic children while two different tasks (text reading and character string scanning) and in two viewing distances (40 cm and 100 cm). We corroborate and adhere to the idea that the (bad) quality of binocular coordination of saccades in dyslexic children is independent of reading difficulties, maybe associated with magnosystem and cerebellar deficit hypothesis
APA, Harvard, Vancouver, ISO, and other styles
26

Lejeune, Marc. "Etude de la fonction d'explication dans les systèmes à bases de connaissances : application à la conduite de procédés." Nancy 1, 1999. http://docnum.univ-lorraine.fr/public/SCD_T_1999_0203_LEJEUNE.pdf.

Full text
Abstract:
Le but de cette thèse est de proposer un guide de réalisation d'un fonction d'explication dans le contexte de la conduite de procédés complexes. Le contexte applicatif peut être un haut-fourneau, un four électrique, une centrale thermique ou un réseau d'irrigation. Dans cette thèse, nous avons dégagé les principales étapes de la réalisation du système explicatif. Nous avons faits des propositions génériques concernant le cadre possible du système explicatif, l'acquisition des connaissances explicatives, le développement du système explicatif s'appuyant sur les principales fonctions du Système à Bases de Connaissances d'aide à la conduite, l'architecture logicielle modulaire ou basée sur des agents autonomes et la participation du système explicatif au but de capitalisation des connaissances de l'entreprise. Nous avons également décrit un exemple concret réalisé dans le cadre du projet SACHEM de SOLLAC au sein du groupe USINOR
The aim of this thesis is to propose an help manual for developping an explanation function in the context of monitoring systems. The application may be a blast furnace, an electric hoven, power station or a drainage network. In this document, we identified main steps for the development of a explanation system. VVe made generic practical propositions concerning the domain of the explanation system, the acquisition of explanation knowledge, the realisation of the explanation system structured on the main functions of the knowledge based monitoring system, the software architecture modular or based on autonomous agents and the participation of the explanation system for the knowledge management in the compagny. We described a real example realised in the SACHEM project made by SOLLAC in the USINOR group
APA, Harvard, Vancouver, ISO, and other styles
27

Krichen, Omar. "Conception d'un système tutoriel intelligent orienté stylet pour l'apprentissage de la géométrie basé sur une interprétation à la volée de la production manuscrite de figures." Thesis, Rennes, INSA, 2020. http://www.theses.fr/2020ISAR0006.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre du projet national « e-Fran » dénommé ACTIF et porte sur la conception du système tutoriel intelligent IntuiGeo pour l’apprentissage de la géométrie au collège sur tablette orientée stylet.Les contributions de cette thèse s'inscrivent dans deux axes.Le premier porte sur la conception d’un moteur de reconnaissance permettant l’interprétation à la volée de figures géométriques. Il est basé sur un formalisme grammatical générique, GMC-PC (Grammaire Multi-ensembles à Contraintes Pilotée par le Contexte). Le deuxième axe adresse l’aspect tutoriel du système. Nous définissons un mode auteur qui permet au tuteur de générer des exercices de construction à partir d'une solution dessinée par l'enseignant. La connaissance spécifique au problème est représentée par un graphe de connaissance. Cette modélisation permet au tuteur de s’affranchir de la procédure suivie par l’enseignant et d’évaluer la production de l'élève, en temps-réel, quel que soit la stratégie suivie. Nous définissons de plus un module expert, basé sur un environnement de planification, capable de synthétiser des stratégies de résolution des problèmes. Le système tutoriel est capable de générer des feedbacks de correction et de guidage adaptés à l'état de l'avancement de l'élève. Les résultats des expérimentations en classe démontrent l’impact pédagogique positif du système sur la performance des élèves, notamment en termes de transfert d’apprentissage entre support numérique et papier
This PhD is in the context of the « e-Fran » national project called ACTIF and deals with the design of the pen-based intelligent tutoring system IntuiGeo, for geometry learning in middle school. The contribution of this work are grouped into two axes.The first axis focused on the design of a recognition engine capable of on the fly interpretation of Han-drawn geometrical figures. It is based on a generic grammatical formalism, CD-CMG (Context Driven Constraints Multiset Grammar). The challenge being to manage the complexity of the real-time analysis process, the first contribution of this work consisted in extending the formalism, without losing its generic aspect. The second axis of this work addresses the tutorial aspect of our system.We define au author mode where the tutor is able to generate construction exercises from a solution example drawn by the teacher.The problem specific knowledge is represented by a knowledge graph. This representation enables the tutor to consider all possible resolution strategies, and to evaluate the pupil’s production in real-time. Furthermore, we define an expert module, based on a dynamic planning environment, capable of synthesizing resolution strategies. The tutoring system is able to generate guidance and corrective feedbacks that are adapted to the pupil’s resolution state. The results of our experiment conducted in class demonstrate the positive pedagogical impact of the system on the pupils performance, especially in terms of learning transferability between the digital and traditional support
APA, Harvard, Vancouver, ISO, and other styles
28

Sayed-Mouchaweh, Moamar. "Conception d'un système de diagnostic adaptatif et prédictif basé sur la méthode Fuzzy Pattern Matching pour la surveillance en ligne des sytèmes évolutifs : Application à la supervision et au diagnostic d'une ligne de peinture au trempé." Reims, 2002. http://www.theses.fr/2002REIMS018.

Full text
Abstract:
Le diagnostic est une composante principale d'un module de supervision. Il consiste à déterminer à chaque instant le mode de fonctionnement, normal ou anormal du système. Il existe plusieurs approches pour réaliser le diagnostic, le choix d'une approche est lié au mode de représentation de la connaissance. Lorsque cette connaissance est de type numérique, issue de capteurs, et lorsqu'on ne peut pas construire un modèle analytique du système, l'approche par Reconnaissance des Formes (RdF) est particulièrement adaptée. L'application de la RdF au diagnostic se heurte souvent au problèmes d'une base de connaissance incomplète où tous les modes de fonctionnement ne sont pas représentés. En conséquence, un module de diagnostic doit être adaptatif afin d'inclure à sa base de connaissance les nouveaux modes dés qu'ils apparaissent. De plus lorsque le système évolue vers un mode anormal, il est intéressant d'anticiper cette évolution plutôt que d'attendre d'arriver à ce mode. En conséquence le module de diagnostic doit être prédictif. Enfin dans le cas d'un système évolutif, la base de connaissance doit être enrichie grâce à l'information apportée par les nouvelles observations. Cet enrichissement doit être réalisé en temps réel. . .
APA, Harvard, Vancouver, ISO, and other styles
29

Greboval, Marie-Hélène. "La production d'explications, vue comme une tâche de conception : contribution au projet AIDE." Compiègne, 1994. http://www.theses.fr/1994COMPD752.

Full text
Abstract:
Ce travail de thèse porte sur la modélisation du raisonnement explicatif dans le cadre des systèmes experts. La thèse défendue est qu'un système expert explicatif doit pouvoir raisonner sur les explications qu'il produit. La représentation conceptuelle retenue pour l'explication revient à distinguer deux parties complémentaires : une structure informationnelle (ce qui est dit) et une structure intentionnelle (pourquoi cela est dit). Disposer d'une telle représentation de l'explication offre de nombreux avantages. D'une part, elle peut être mise en langue par un module de génération en langue naturelle. On sépare ainsi les décisions sur le fond des décisions sur la forme. D'autre part, cela revient à considérer la production d'une explication comme une tâche de conception, ce qui permet de construire une première ébauche d'explication puis de l'affiner. Enfin, le système est à même de comprendre les explications qu'il produit. Il peut ainsi, lors d'un dialogue explicatif, tenir compte des explications qu'il a précédemment proposées. Ce travail à été réalisé dans le cadre du projet aide. L'objectif à long terme de ce projet est de doter les résolveurs de problèmes développés avec le générateur aide de capacités d'explication leur permettant de dialoguer en langue naturelle avec l'utilisateur. Pratiquement, nous avons fait le choix de réutiliser ce générateur pour modéliser le raisonnement explicatif. Les mêmes principes de modélisation et de représentation du raisonnement de résolution de problème ont donc été utilisés pour formaliser le raisonnement explicatif. Afin de permettre au résolveur explicatif de raisonner sur un modèle de la tâche de résolution de problème réalisée, l'architecture du générateur AIDE a été étendue en une architecture réflexive. Ce travail a été validé sur l'application de diagnostic médical SATIN, engendre par le générateur AIDE.
APA, Harvard, Vancouver, ISO, and other styles
30

Benhabiles, Halim. "3D-mesh segmentation : automatic evaluation and a new learning-based method." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00834344.

Full text
Abstract:
Dans cette thèse, nous abordons deux problèmes principaux, à savoir l'évaluation quantitative des algorithmes de segmentation de maillages ainsi que la segmentation de maillages par apprentissage en exploitant le facteur humain. Nous proposons les contributions suivantes : - Un benchmark dédié à l'évaluation des algorithmes de segmentation de maillages 3D. Le benchmark inclut un corpus de segmentations vérités-terrains réalisées par des volontaires ainsi qu'une nouvelle métrique de similarité pertinente qui quantifie la cohérence entre ces segmentations vérités-terrains et celles produites automatique- ment par un algorithme donné sur les mêmes modèles. De plus, nous menons un ensemble d'expérimentations, y compris une expérimentation subjective, pour respectivement démontrer et valider la pertinence de notre benchmark. - Un algorithme de segmentation par apprentissage. Pour cela, l'apprentissage d'une fonction d'arête frontière est effectué, en utilisant plusieurs critères géométriques, à partir d'un ensemble de segmentations vérités-terrains. Cette fonction est ensuite utilisée, à travers une chaîne de traitement, pour segmenter un nouveau maillage 3D. Nous montrons, à travers une série d'expérimentations s'appuyant sur différents benchmarks, les excellentes performances de notre algorithme par rapport à ceux de l'état de l'art. Nous présentons également une application de notre algorithme de segmentation pour l'extraction de squelettes cinématiques pour les maillages 3D dynamiques.
APA, Harvard, Vancouver, ISO, and other styles
31

Zhao, Zilong. "Extracting knowledge from macroeconomic data, images and unreliable data." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT074.

Full text
Abstract:
L'identification de système et l'apprentissage automatique sont deux concepts similaires utilisés indépendamment dans la communauté automatique et informatique. L'identification des systèmes construit des modèles à partir de données mesurées. Les algorithmes d'apprentissage automatique construisent des modèles basés sur des données d'entraînement (propre ou non), afin de faire des prédictions sans être explicitement programmé pour le faire. Sauf la précision de prédiction, la vitesse de convergence et la stabilité sont deux autres facteurs clés pour évaluer le processus de l'apprentissage, en particulier dans le cas d'apprentissage en ligne, et ces propriétés ont déjà été bien étudiées en théorie du contrôle. Donc, cette thèse implémente des recherches suivantes : 1) Identification du système et contrôle optimal des données macroéconomiques : Nous modélisons d'abord les données macroéconomiques chinoises sur le modèle VAR (Vector Auto-Regression), puis identifions la relation de cointégration entre les variables et utilisons le Vector Error Correction Model (VECM) pour étudier le court terme fluctuations autour de l'équilibre à long terme, la causalité de Granger est également étudiée avec VECM. Ce travail révèle la tendance de la transition de la croissance économique de la Chine : de l'exportation vers la consommation ; La deuxième étude est avec des données de la France. On représente le modèle dans l'espace d'états, mettons le modèle dans un cadre de feedback-control, le contrôleur est conçu par un régulateur linéaire-quadratique (LQR). On peut également imposer des perturbations sur les sorties et des contraintes sur les entrées, ce qui simule la situation réelle de crise économique. 2) Utilisation de la théorie du contrôle pour améliorer l'apprentissage en ligne du réseau neuronal profond : Nous proposons un algorithme de taux d'apprentissage basé sur les performances : E (Exponential)/PD (Proportional Derivative) contrôle, qui considère le Convolutional Neural Network (CNN) comme une plante, taux d'apprentissage comme signal de commande et valeur de loss comme signal d'erreur. Le résultat montre que E/PD surpasse l'état de l'art en termes de précision finale, de loss finale et de vitesse de convergence, et le résultat est également plus stable. Cependant, une observation des expériences E/PD est que le taux d'apprentissage diminue tandis que la loss diminue continuellement. Mais la loss diminue, le modèle s’approche d’optimum, on ne devait pas diminuer le taux d'apprentissage. Pour éviter cela, nous proposons un event-based E/PD. Le résultat montre qu'il améliore E/PD en précision finale, loss finale et vitesse de convergence ; Une autre observation de l'expérience E/PD est que l'apprentissage en ligne fixe des époques constantes pour chaque batch. Puisque E/PD converge rapidement, l'amélioration significative ne vient que des époques initiales. Alors, nous proposons un autre event-based E/PD, qui inspecte la loss historique. Le résultat montre qu'il peut épargner jusqu'à 67% d'époques sur la donnée CIFAR-10 sans dégrader beaucoup les performances.3) Apprentissage automatique à partir de données non fiables : Nous proposons un cadre générique : Robust Anomaly Detector (RAD), la partie de sélection des données de RAD est un cadre à deux couches, où la première couche est utilisée pour filtrer les données suspectes, et la deuxième couche détecte les modèles d'anomalie à partir des données restantes. On dérive également trois variantes de RAD : voting, active learning et slim, qui utilisent des informations supplémentaires, par exempe, les opinions des classificateurs conflictuels et les requêtes d'oracles. Le résultat montre que RAD peut améliorer la performance du modèle en présence de bruit sur les étiquettes de données. Trois variations de RAD montrent qu'elles peuvent toutes améliorer le RAD original, et le RAD Active Learning fonctionne presque aussi bien que dans le cas où il n'y a pas de bruit sur les étiquettes
System identification and machine learning are two similar concepts independently used in automatic and computer science community. System identification uses statistical methods to build mathematical models of dynamical systems from measured data. Machine learning algorithms build a mathematical model based on sample data, known as "training data" (clean or not), in order to make predictions or decisions without being explicitly programmed to do so. Except prediction accuracy, converging speed and stability are another two key factors to evaluate the training process, especially in the online learning scenario, and these properties have already been well studied in control theory. Therefore, this thesis will implement the interdisciplinary researches for following topic: 1) System identification and optimal control on macroeconomic data: We first modelize the China macroeconomic data on Vector Auto-Regression (VAR) model, then identify the cointegration relation between variables and use Vector Error Correction Model (VECM) to study the short-time fluctuations around the long-term equilibrium, Granger Causality is also studied with VECM. This work reveals the trend of China's economic growth transition: from export-oriented to consumption-oriented; Due to limitation of China economic data, we turn to use France macroeconomic data in the second study. We represent the model in state-space, put the model into a feedback control framework, the controller is designed by Linear-Quadratic Regulator (LQR). The system can apply the control law to bring the system to a desired state. We can also impose perturbations on outputs and constraints on inputs, which emulates the real-world situation of economic crisis. Economists can observe the recovery trajectory of economy, which gives meaningful implications for policy-making. 2) Using control theory to improve the online learning of deep neural network: We propose a performance-based learning rate algorithm: E (Exponential)/PD (Proportional Derivative) feedback control, which consider the Convolutional Neural Network (CNN) as plant, learning rate as control signal and loss value as error signal. Results show that E/PD outperforms the state-of-the-art in final accuracy, final loss and converging speed, and the result are also more stable. However, one observation from E/PD experiments is that learning rate decreases while loss continuously decreases. But loss decreases mean model approaches optimum, we should not decrease the learning rate. To prevent this, we propose an event-based E/PD. Results show that it improves E/PD in final accuracy, final loss and converging speed; Another observation from E/PD experiment is that online learning fixes a constant training epoch for each batch. Since E/PD converges fast, the significant improvement only comes from the beginning epochs. Therefore, we propose another event-based E/PD, which inspects the historical loss, when the progress of training is lower than a certain threshold, we turn to next batch. Results show that it can save up to 67% epochs on CIFAR-10 dataset without degrading much performance. 3) Machine learning out of unreliable data: We propose a generic framework: Robust Anomaly Detector (RAD), The data selection part of RAD is a two-layer framework, where the first layer is used to filter out the suspicious data, and the second layer detects the anomaly patterns from the remaining data. We also derive three variations of RAD namely, voting, active learning and slim, which use additional information, e.g., opinions of conflicting classifiers and queries of oracles. We iteratively update the historical selected data to improve accumulated data quality. Results show that RAD can continuously improve model's performance under the presence of noise on labels. Three variations of RAD show they can all improve the original setting, and the RAD Active Learning performs almost as good as the case where there is no noise on labels
APA, Harvard, Vancouver, ISO, and other styles
32

Kassab, Randa. "Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'information changeant au cours du temps." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10027/document.

Full text
Abstract:
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps. L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données. Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples
Many applications produce and receive continuous, unlimited, and high-speed data streams. This raises obvious problems of storage, treatment and analysis of data, which are only just beginning to be treated in the domain of data streams. On the one hand, it is a question of treating data streams on the fly without having to memorize all the data. On the other hand, it is also a question of analyzing, in a simultaneous and concurrent manner, the regularities inherent in the data stream as well as the novelties, exceptions, or changes occurring in this stream over time. The main contribution of this thesis concerns the development of a new machine learning approach - called ILoNDF - which is based on novelty detection principle. The learning of this model is, contrary to that of its former self, driven not only by the novelty part in the input data but also by the data itself. Thereby, ILoNDF can continuously extract new knowledge relating to the relative frequencies of the data and their variables. This makes it more robust against noise. Being operated in an on-line mode without repeated training, ILoNDF can further address the primary challenges for managing data streams. Firstly, we focus on the study of ILoNDF's behavior for one-class classification when dealing with high-dimensional noisy data. This study enabled us to highlight the pure learning capacities of ILoNDF with respect to the key classification methods suggested until now. Next, we are particularly involved in the adaptation of ILoNDF to the specific context of information filtering. Our goal is to set up user-oriented filtering strategies rather than system-oriented in following two types of directions. The first direction concerns user modeling relying on the model ILoNDF. This provides a new way of looking at user's need in terms of specificity, exhaustivity and contradictory profile-contributing criteria. These criteria go on to estimate the relative importance the user might attach to precision and recall. The filtering threshold can then be adjusted taking into account this knowledge about user's need. The second direction, complementary to the first one, concerns the refinement of ILoNDF's functionality in order to confer it the capacity of tracking drifting user's need over time. Finally, we consider the generalization of our previous work to the case where streaming data can be divided into multiple classes
APA, Harvard, Vancouver, ISO, and other styles
33

Kassab, Randa. "Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'informations changeant au cours du temps." Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00402644.

Full text
Abstract:
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps.

L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données.

Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples.
APA, Harvard, Vancouver, ISO, and other styles
34

Krol, Pawel. "La signification de l'apprentissage du caring pour des étudiantes dans un baccalauréat en sciences infirmières basé sur la formation par compétences." Thèse, 2007. http://hdl.handle.net/1866/17945.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Ziri, Oussama. "Classification de courriels au moyen de diverses méthodes d'apprentissage et conception d'un outil de préparation des données textuelles basé sur la programmation modulaire : PDTPM." Mémoire, 2013. http://www.archipel.uqam.ca/5679/1/M12851.pdf.

Full text
Abstract:
Les technologies numériques de l'information et de la communication sont de plus en plus utilisées. Certes, ces technologies offrent des moyens de communication pratiques, mais elles soulèvent des préoccupations concernant la protection de la vie privée et le respect en ligne. Les utilisations malveillantes des courriels ne cessent de croître et la quantité de spams a rendu pratiquement impossible d'analyser les courriels manuellement. Vu ces problématiques, le besoin de techniques automatisées, capables d'analyser des données est devenu primordial. Plusieurs applications se basant sur l'apprentissage automatique se sont établies pour analyser des données textuelles de grand volume. Les techniques du « Text Mining » analysent des données textuelles en utilisant des méthodes d'apprentissage automatique afin d'extraire les principales tendances. Cependant, les techniques de « Text Mining » ne sont capables d'être utilisées que si les données sont déjà préparées et bien structurées. Cette recherche a deux objectifs : 1) Concevoir un outil original de préparation de données qui offre et regroupe des fonctionnalités primordiales dans l'étape de préparation de données textuelles. Nous n'avons pas trouvé ces fonctionnalités dans d'autres outils de préparation de données (Sato, Alceste, WordStat, NLTK) ce qui a créé un besoin de concevoir notre logiciel. Nous l'avons appelé outil de Préparation de Données Textuelles basé sur la Programmation Modulaire, PDTPM. 2) Application des méthodes d'apprentissage automatiques dédiées au « Text Mining » pour classifier un ensemble de courriels et détecter les spams. Pour le premier objectif, après avoir étudié le processus de préparation de données, l'étude propose un outil de Préparation de Données Textuelles. Cette plateforme permet de considérer en entrée un ensemble de données textuelles brutes et de générer en sortie ces données sous une forme bien structurée qui consiste en une matrice de données documents-mots. En ce qui concerne le deuxième objectif de notre recherche, nous explorons des courriels d'une base de données publique, Lingspam, pour les classifier au moyen de méthodes d'apprentissage automatique en spams et courriels légitimes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : text mining, apprentissage automatique, préparation des données textuelles, détection de spams, filtrage de courriels.
APA, Harvard, Vancouver, ISO, and other styles
36

Ribeiro, Vinícius Tolentino. "Analyzing the potential of composite challenges in movement interaction to support children with attention-deficit, hyperactivity disorder (ADHD) : a case study in Morelia, Mexico." Master's thesis, 2014. http://hdl.handle.net/10400.5/14001.

Full text
Abstract:
This study has explored the potential of challenges comprising cognitive and physical aspects, by comparing versions of a serious game prototype with different degrees of those aspects, to foster states of enhanced attention to support educational programs for children with attentiondeficit/hyperactivity disorder (ADHD). The study comprised the adaptation of the prototype as well as an empirical investigation that evaluated the potential of cognitive-physical challenges. The prototype adaptation was a software development task that consisted of performing an incremental development over an existing Kinect-based system. The empirical investigation was carried out as a case study in two elementary schools in Morelia, Mexico, and involved a sampling of 25 school-age children, from 6 to 11 years and with ADHD symptoms. The empirical investigation comprised two phases: a Pilot Testing, to refine the prototype and validate the research instruments, and a User Experience Evaluation, to compare the cognitive-physical challenges in terms of their degree of balance. The results of the study suggest that the level of knowledge and skills in video games influence the way children perceive their own abilities and frustrations. The flow experience was determined by individual differences in the preference for situations; most of the children had problems with laterality as well as motor coordination, which had a negative influence on the cognitive challenges of the game. Additionally, balanced activities seemed more likely to promote flow. However, the notion of balance is not absolute but depends on the characteristics and abilities of each person: someone could perceive an activity as balanced while someone else could perceive the same activity as unbalanced.
Este estudo explorou o potencial de desafios que contem aspectos cognitivos e físicos, através da comparação de versões de um de um protótipo de um jogo sério, com diferentes níveis desses aspectos, para promover estados de fluxo para apoiar programas educacionais para crianças com transtorno do déficit de atenção com hiperatividade (TDAH). O estudo compreendeu a adaptação do protótipo, assim como uma investigação empírica que avaliou o potencial dos desafios cognitivo-físicos. A adaptação do protótipo foi uma atividade de desenvolvimento de software que consistiu na realização de um desenvolvimento incremental sobre um existente sistema baseado no Kinect. A investigação empírica foi realizada como um estudo de caso em duas escolas do ensino fundamental em Morelia, México, e envolveu uma amostra de 25 crianças em idade escolar, de 6 a 11 anos e com sintomas de TDAH. A investigação empírica envolveu duas fases: um Teste Piloto, para refinar o protótipo e validar os instrumentos de investigação, e uma Avaliação da Experiência do Usuário, para comparar os desafios cognitivo-físicos em função do seu grau de equilíbrio. Os resultados do estudo sugerem que o nível de conhecimento e habilidades em videogames influem na forma como as crianças percebem suas próprias habilidades e frustrações. A experiência de fluxo foi determinada por diferenças individuais na preferência por situações; a maioria das crianças teve problemas com lateralidade, assim como de coordenação motora, o que influenciou negativamente sobre os desafios cognitivos do jogo. Além disso, as atividades equilibradas pareceram ser mais propensas a promover fluxo. No entanto, a noção de equilíbrio não é absoluta, mas depende das características e capacidades de cada pessoa: alguém poderia perceber uma atividade como equilibrada enquanto que outra pessoa poderia perceber a mesma atividade como desequilibrada.
Este estudio ha explorado el potencial de retos que contienen aspectos cognitivos y físicos, mediante la comparación de versiones de un prototipo de juego serio con diferentes proporciones de estos aspectos, para promover estados de flujo para apoyar programas educativos para niños con trastorno por déficit de atención por hiperactividad (TDAH). El estudio comprendió la adaptación del prototipo, así como una investigación empírica que evalúo el potencial de los retos cognitivo-físicos. La adaptación del prototipo fue una tarea de desarrollo de software que consistió en la realización de un desarrollo incremental sobre un existente sistema basado en el Kinect. La investigación empírica se realizó como un estudio de caso en dos escuelas primarias en Morelia, México, e involucró a una muestra de 25 niños en edad escolar, de 6 a 11 años y con síntomas de TDAH. La investigación empírica constó de dos fases: una Prueba Piloto, para refinar el prototipo y validar los instrumentos de investigación, y una Evaluación de la Experiencia de Usuario, para comparar los retos cognitivo-físicos en función de su grado de equilibrio. Los resultados del estudio sugieren que el nivel de conocimientos y habilidades en los videos juegos influyen en la forma en que los niños perciben sus propias capacidades y frustraciones. La experiencia de flujo fue determinada por las diferencias individuales en la preferencia por situaciones; la mayoría de los niños tenían problemas de lateralidad, así como de coordinación motora, los cuales tuvieran una influencia negativa sobre los retos cognitivos del juego. Además, las actividades equilibradas parecieran más propensas a promover el flujo. Sin embargo, la noción de equilibrio no es absoluta, sino que depende de las características y capacidades de cada persona: alguien podría percibir una actividad como equilibrada mientras que alguien más podría percibir la misma actividad como desequilibrada.
Cette étude a exploré le potentiel de défis comprenant les aspects cognitifs et physiques, en comparant les versions d'un prototype de jeu sérieux avec différents degrés de ces aspects, afin de favoriser les états de l'attention renforcée pour soutenir les programmes éducatifs destinés aux enfants atteints d'un trouble du déficit de l’attention avec hyperactivité (TDAH). L'étude a compris l'adaptation du prototype ainsi que d'une recherche empirique qui a évalué le potentiel de difficultés cognitives et physiques. L'adaptation du prototype a été une tâche de développement de logiciels pour effectuer un développement incrémental sur un système existante basé sur Kinect. La recherche empirique a été réalisée comme une étude de cas, ayant eu lieu dans deux écoles primaires à Morelia, au Mexique, et a été faite auprès d’un échantillon de 25 enfants d'âge scolaire, de 6 à 11 ans et présentant des symptômes de TDAH. La recherche empirique comprenait deux phases : en premier temps un Essai Pilote, pour affiner le prototype et pour valider les instruments de recherche, en deuxième temps une Évaluation de l’Expérience de l’Utilisateur, pour comparer les défis cognitives et physiques en fonction de leur degré d'équilibre. Les résultats de cette étude suggèrent que le niveau de connaissances et de compétences dans les jeux vidéo influencent la façon dont les enfants percevaient leurs propres capacités et leurs frustrations. L’expérience de flux a été déterminée par les différences individuelles dans la préférence pour les situations. La plupart des enfants ont eu des problèmes avec la latéralité, ainsi qu’une coordination motrice ayant une influence négative sur les défis cognitifs du jeu. De plus, les activités équilibrées semblaient être plus susceptibles de favoriser le flux. Cependant, la notion d'équilibre n'est pas absolue, car elle dépend des caractéristiques et des capacités des individus : certains pourraient percevoir une activité équilibrée, alors que d'autres pourraient percevoir la même activité comme déséquilibrée.
APA, Harvard, Vancouver, ISO, and other styles
37

Tessier, Virginie. "Étude exploratoire sur le travail en équipe d’étudiants dans l’atelier de design : vers un modèle d’évaluation pour l’apprentissage basé sur la théorie de l’activité et l’apprentissage expansif." Thesis, 2021. http://hdl.handle.net/1866/25512.

Full text
Abstract:
La présente thèse propose une étude exploratoire sur le travail en équipe d’étudiants en situation d’apprentissage par projet (design de produits et services, design intérieur, urbanisme, etc.). Cette étude vise le développement d’un modèle d’évaluation pour l’apprentissage du travail en équipe. Depuis quelques décennies, des projets en équipe ont été intégrés dans les formations en design afin de placer l’étudiant dans des situations authentiques. Toutefois, des défis récurrents entraînent des questions sur les formules pédagogiques, notamment quant au niveau de collaboration au sein des équipes. La compréhension de cette activité, qui vise la coconstruction de connaissances et qui a un rôle crucial sur les expériences des étudiants, reste à éclaircir. Appuyé sur une revue des différentes dynamiques d’équipe, notre étude est structurée en deux volets soit d’abord, mieux comprendre les expériences des projets de conception en équipe et, ensuite, identifier des pistes pour valoriser l’évaluation pour l’apprentissage du travail en équipe. Ces objectifs sont traduits dans nos questions générales qui guident la recherche : Comment l’expérience d’apprentissage en contexte de projet de design en équipe est-elle vécue par les étudiants? Et, comment accompagner le développement de la compétence à travailler en équipe? Le courant de l’évaluation pour l’apprentissage nous guidera dans une vision qui considère cette activité comme un pivot pour l’engagement de l’apprenant dans le jugement de sa performance. Inscrit dans le paradigme socioculturaliste, ce courant valorise l’externalisation sociale pour l’internalisation dans les zones de développement. Ce positionnement justifie le choix d’un cadre théorique fondé sur la théorie de l’activité et la théorie de l’apprentissage expansif. Ce cadre offre une structure basée sur le collectif, la médiation et l’orientation vers un objet aux visées innovantes. L’apprentissage expansif voit l’apprentissage comme progressant d’une compréhension abstraite vers des actions concrètes, pour raffiner l’état initial. Sur la base de l’approche interventionniste proposée par le cadre théorique, le rôle du chercheur est redéfini afin d’inciter les participants à l’action. La méthodologie déployée vise à suivre les expériences de 22 étudiants en situation de projet d’équipe à la Faculté de l’aménagement de l’Université de Montréal. Les données de cet échantillon à cas multiples ont été recensées grâce à des questionnaires hebdomadaires et des entretiens. Par ces sources qualitatives, les étudiants ont pu raconter leurs expériences de projet et leurs cheminements. Une approche multiphases a permis une alternance et un enrichissement entre la collecte et l’analyse des données. La première partie de l’analyse fait ressortir les caractéristiques de l’expérience vécue par les participants. Au total, 33 caractéristiques et leurs facteurs sont catégorisés dans les 5 zones du « modèle des zones proximales de développement des compétences pour le travail en équipe » et organisés selon les niveaux de formation. La deuxième partie de l’analyse sert de validation théorique grâce à l’approfondissement du modèle sur la base du processus de projet par les composantes à encadrer et à évaluer (qualifiées par le stade de l’objet, les savoirs, les qualités, les capacités et les types de régulation). Finalement, ces bases sont testées en regard des stades de l’apprentissage expansif et des défis vécus par les participants traduisant la profondeur de leurs parcours cognitifs. Les contributions de cette étude s’expriment par la proposition d’un cadre pédagogique en cohérence avec le niveau de formation, le contexte de projet et les bases de la discipline. Le modèle est basé sur la pédagogie par projet, constructive et dynamique, apportant de nouvelles connaissances à l’étudiant, qui est encadré par une structure expansive vers le design collaboratif. Le cadre proposé se bâtit sur le regard réflexif des étudiants sur eux-mêmes et sur les autres et est sollicité pour une plus grande autonomie. Les contributions de la recherche sont pertinentes pour les étudiants, les professionnels et les enseignants du design. Elles visent une cohérence marquée au sein de la discipline d’attache grâce à une perspective active et, en outre, une meilleure préparation des étudiants au monde professionnel.
This thesis proposes an exploratory study on teamwork practices of design students in the context of project-based learning (in the domains of product and service design, interior design, urbanism, etc.). This study aims to develop a model of assessment for learning teamwork. For the past few decades, teamwork has been integrated within most design curricula. These social learning experiences place students in authentic situations, but recurring challenges keep emerging regarding their educational integration. We aim to enhance our understanding of assessment, which has a crucial influence on learning experiences. Based on a literature review on teamwork dynamics, the research is structured in two stages. Firstly, the research focuses on better understanding team learning experiences. Secondly, we seek to identify guidelines to enhance assessment for learning teamwork during design projects. Our research objectives are developed into the following questions: How do students experience their learning process when they work as a team while designing? And how to support the development of teamwork skills? Assessment for learning will guide us in considering assessment as a key aspect to engage learners in judging their performance. Assessment for learning values social externalization over internalization through the zones of development. This position guides toward a theoretical framework based on the activity theory and the theory of expansive learning. The combination of these frameworks offers a strong theoretical structure based on collectivity, mediation, and orientation toward an expansive object. Expansive learning sees learning as moving from an abstract understanding to concrete actions to improve the system’s initial state. The adoption of an interventionist approach, as proposed by activity theory, will redefine the researcher’s role to encourage participants to take action. The methodological strategy is organized around the team projects of 22 students from the Faculty of environmental design of University of Montreal (Canada). The data was collected from multiple case studies over few weeks of teamwork. It was gathered through weekly questionnaires and interviews. Using these complementary qualitative tools, participants shared their experiences by discussing their processes. A multiphase strategy allowed for simultaneous data collection and analysis. The first stage of analysis uncovers the characteristics of the learners’ lived teamwork experiences. In total, 33 characteristics and their respective factors were organized into the 5 categories of our model entitled: “zone of proximal development for teamwork skills”, structured according to training levels. The second part of the analysis concentrates on the theoretical validation of the model by enriching the model with the components to instruct and to assess (according to the stage of the object, types of knowledge, task qualities, learners’ capacities, and types of regulation). Finally, these guidelines are tested in regard to expansive learning by looking closely at the challenges and tensions experienced by the participants to translate each participant’s cognitive journey. This study seeks to contribute to the proposition of a coherent pedagogical framework in accordance with training levels and the basics of the discipline. Our model offers a pedagogical structure that is constructive and dynamic as it brings new knowledge to the student while being guided by an expansive structure towards collaborative design. The proposed framework is built on the reflective journey of students on themselves and others, solicited for greater autonomy. The contributions of this study are pertinent for design students, practitioners, and teachers. They seek an enhanced coherence with the discipline supported by an active perspective for better preparation of students to their future professional work environment.
APA, Harvard, Vancouver, ISO, and other styles
38

Khalil, Zinat. "Apprentissage des langues : comportements spécifiques vis-à-vis du numérique." Master's thesis, 2016. http://hdl.handle.net/10400.5/12613.

Full text
Abstract:
Cette recherche, qui adopte une méthode descriptive, s'appuie sur une étude dont les données sont obtenues à la fois via questionnaire, capture-vidéo de séances et entretiens semi-directifs auprès de 7 apprenants volontaires de niveau B1+ de FLE au Centre de Français Langue Étrangère (CFLE) à l’Université de Poitiers et de 2 enseignantes assurant les cours de la compétence de la compréhension et expression orales au public cible. Ce projet vise à étudier les comportements spécifiques des apprenants vis-à-vis du numérique. L’observation de ces comportements est basée sur l’usage fait de l’instrument numérique, sur le domaine et sur la modalité de cet usage dans le champ de la vie quotidienne d’une part, d’autre part, dans celui du processus de l’enseignement-apprentissage du FLE dans un usage institutionnel concernant à la fois le travail individuel et le travail collectif. Les résultats obtenus de type déclaratif révèlent que l’usage personnel du numérique est plus diversifié et plus fréquent que l’usage institutionnel du numérique dans le travail personnel et collaboratif dans le processus de l’enseignement-apprentissage malgré la forte potentialité numérique dont jouit l’Université de Poitiers (la mise de la disposition de la plateforme et l’accès à l’Internet). En fait, plusieurs variables et facteurs y jouent, tout d’abord, le type des apprenants (apprenant-client) et leur objectif d’apprentissage (Obtenir certification) constituent l’un des éléments qui influencent le processus d’enseignement-apprentissage d’une part, d’autre part, ce qui rend l’enseignant soit protecteur de son rôle en tant que transmetteur du savoir. Ensuite, le travail pédagogique dans ce cas est centré sur cet objectif constituant l’axe autour duquel tourne le processus de l’enseignementapprentissage. En plus, le support-papier prend encore un grand espace dans ce processus, alors que la plateforme du CFLE s’utilise encore comme un dispositif enrichi de ce qui est étudié en classe et non pas comme un dispositif investi dans le travail interactif et collaboratif de l’apprentissage actif basé sur des tâches et des scénarios pédagogiques unissant le travail en présentiel et à distance.
This research, which adopts a descriptive method is based on a study in which data is obtained both via the questionnaire, video captured semi-structured sessions and interviews with 7 voluntary learners B1+ FLE the French Language Centre Foreign (CFLE) at the University of Poitiers and 2 teachers providing the courses of oral comprehension and expression in target audience. This project aims to study the specific behavior vis-à-vis digital learning. The observation of this behavior is based on the use made of the digital tools, on the field and on the modality of this practice in the field of everyday life on the one hand, and on the other, that in the process of teaching-learning of the FLE in institutional use for both individual work and group work. The declarative results reveal, digital personal use is more diverse and more frequent than the institutional use of digital technology in personal and collaborative work in the process of teaching-learning despite strong digital potentiality which enjoys the University of Poitiers as (the setting of the provision of the platform and access to the Internet). In fact, many variables and factors are playing, first of all, the learner types (learner client) and their learning objective as learners (get certification) is one of the elements that influence the teaching-learning process, firstly, and secondly, which makes the teacher be protective of its role as transmitter of knowledge. In addition, the role of paper media still takes a large space in the process, while the CFLE the platform is still used as a device enriched with what is studied in class and not as a device invested in interactive and collaborative work active learning task-based learning scenarios and joining the working face and distance. In addition, the role of paper media still takes a large space in the process, while the CFLE the platform is still used as a device enriched with what is studied in class and not as a device invested in interactive and collaborative work active learning task-based learning scenarios and joining the working face and distance.
Esta pesquisa adotou um método descritivo e baseou-se na análise de dados obtidos por meio de questionário e entrevistas semi-estruturadas gravadas no formato de video. Participaram 7 alunos voluntários, todos com nível B1+ no grau de conhecimento da língua francesa, matriculados no Centre Français Langue Etrangère (CFLE) na Universidade de Poitiers. Participaram também 2 professores que dão aulas de francês, nas áreas de compreensão e expressão oral, para esse mesmo nível. Este projeto teve como objetivo analisar a relação dos estudantes com os recursos digitais fora e dentro do contexto acadêmico. Para isso, os estudantes foram observados e analisados a partir do uso que dão às ferramentas digitais no seu cotidiano e no contexto de ensino-aprendizagem da língua francesa, seja para realização de trabalhos individuais ou em grupo. Os resultados encontrados nas entrevistas mostraram que o uso pessoal dessas ferramentas é mais diversificado e mais frequente do que o seu uso institucional, apesar das facilidades oferecidas pela universidade (o acesso à internet e à plataforma). Diferente variáveis e fatores podem justificar esses resultados. Em primeiro lugar, os tipos de aprendizes (aluno-cliente) e seus objetivos de aprendizagem, como por exemplo, (obter a certificação), um exame qualificativo. Por outro lado, a própria postura do professor, que, ao tentar proteger seu papel de transmissor do conhecimento, tem dificuldade de usar as novas tecnologias digitais. Finalmente, se o trabalho educativo está focado apenas num objetivo específico (realização do exame), então esse será o eixo sustentador do processo de ensino e aprendizagem, não havendo ênfase no uso dessas tecnologias. Some-se a isso o fato de o ensino, no CFLE, apoia-se de forma significativa, em materiais impressos, deixando a plataforma como uma armazenadora desse material e não como um dispositivo interativo de trabalho, podendo ser ele mesmo a base de cenários pedagógicos que organizam tarefas coletivas e colaborativas, unificando o trabalho presencial e a distância.
Esta investigación, que adopta un método descriptivo se basa en un estudio en el que se obtienen los datos tanto a través de los cuestionarios, sesiones semi-estructuradas de captura de vídeo y de entrevistas con 7 estudiantes voluntarios de nivel B1+ FLE del Centro de Francés Lengua extranjera (CFLE) en la Universidad de Poitiers y de 2 profesores que ofrecen los cursos de comprensión y expresión oral en destinatarios. Este proyecto tiene como objetivo estudiar el comportamiento específico vis-à-vis los aprendizajes digitales. La observación de este comportamiento se basa en la utilización de los medios digitales, en el campo y en la modalidad de esta práctica en el campo de la vida cotidiana, por un lado, y en segundo lugar, en el proceso de enseñanza-aprendizaje del FLE en un uso institucional tanto para el trabajo individual y como para el trabajo en grupo. Los resultados de tipo declarativo revelan que el uso personal digital es más diverso y más frecuente que el uso institucional digital en el trabajo personal y en el trabajo colaborativo en el proceso de enseñanza-aprendizaje a pesar de la fuerte potencialidad digital de la que disfruta la Universidad de Poitiers (la existencia de la plataforma y el acceso a Internet). De hecho, muchas variables y factores intervienen, en primer lugar, el tipo de los alumnos (alumno-cliente) y su objetivo de aprendizaje (obtener certificación) son uno de los elementos que influyen en el proceso de enseñanza-aprendizaje, por una parte, y por otra, lo que hace que el profesor sea el protector de su papel de transmisor du saber. A continuación, la labor educativa en este caso se centra en este objetivo constituyendo el eje en torno al cual gira el proceso de enseñanza y aprendizaje. Además, el papel lleva aún un gran espacio en el proceso, mientras que la plataforma CFLE todavía se utiliza como un dispositivo enriquecido de lo que se estudia en clase y no como un dispositivo invertido en el trabajo interactivo y de colaboración del aprendizaje activo escenarios de aprendizaje basados en tareas y que unen el trabajo presencial y a distancia.
APA, Harvard, Vancouver, ISO, and other styles
39

Tremblay, Marie-Claude. "Évaluation d’un programme de développement professionnel en santé publique : le laboratoire de promotion de la santé." Thèse, 2013. http://hdl.handle.net/1866/10759.

Full text
Abstract:
Il y a quelques décennies, l’émergence du discours de la promotion de la santé infléchissait un nouveau tournant à la santé publique, orientant sa pratique vers l’action communautaire, participative et intersectorielle. Parallèlement, au Québec, la réforme du système de santé de 2004 réorganisait le niveau de gouverne locale à travers la création des centres de santé et de services sociaux (CSSS). Ceux-ci doivent articuler les secteurs des soins et de la santé publique à travers un continuum de services qui va de la promotion de la santé aux soins palliatifs. Ces changements ont des implications majeures pour les acteurs de la santé et de la santé publique, qui doivent composer avec de nouveaux rôles professionnels et de nouvelles stratégies d’action. Le développement professionnel est considéré comme un levier potentiel pour soutenir ces changements. En 2009, une équipe de la Direction de la santé publique de l’Agence de santé et des services sociaux de Montréal concevait un programme de développement professionnel appelé le Laboratoire de promotion de la santé. Ce programme mise sur une approche d’apprentissage de groupe pour permettre aux professionnels des CSSS de développer de nouvelles compétences, une pratique réflexive ainsi que de nouvelles pratiques de promotion de la santé. Basée sur une méthodologie générale qualitative et une approche d’évaluation collaborative, cette thèse utilise plusieurs stratégies d’investigation afin d’évaluer le Laboratoire de promotion de la santé sous trois angles, qui renvoient à sa conceptualisation, à son implantation et à ses effets. Plus spécifiquement, elle vise à : (1) examiner la plausibilité de la théorie d’intervention du programme; (2) décrire et comprendre les processus d’apprentissage d’équipe ainsi que les facteurs qui les influencent; et (3) explorer, du point de vue des participants, les effets réflexifs du Laboratoire. Afin de répondre à ces objectifs, la thèse mobilise diverses perspectives théoriques liées à l’apprentissage individuel, d’équipe et organisationnel. Les résultats des analyses démontrent que : (1) malgré quelques améliorations possibles, le modèle du programme est généralement bien conçu pour parvenir aux résultats visés; (2) l’implantation de ce modèle dans deux sites a donné lieu à des processus d’apprentissage d’équipe différents, bien que conditionnés par des facteurs communs liés aux participants, à l’équipe, au contexte organisationnel et à l’implantation du programme; (3) tel que visé, les participants des deux sites ont développé de la réflexivité vis-à-vis leur pratique et leur rôle professionnel – cette réflexivité adoptant une fonction formative ou critique en regard de l’expérience professionnelle. Ces résultats soulignent le potentiel que représente l’évaluation de la théorie d’intervention pour améliorer la conceptualisation d’un programme de développement professionnel, ainsi que l’intérêt et la pertinence d’évaluer les processus d’apprentissage au niveau de l’équipe dans le cadre d’une approche collective de développement professionnel. De plus, ils appuient l’importance de l’apprentissage réflexif pour l’amélioration des pratiques et l’engagement social des professionnels. En ce sens, ils proposent différentes avenues qui ont le potentiel de consolider les capacités de la main-d’œuvre de santé publique et d’influer conséquemment sur son efficacité à améliorer la santé des collectivités dans le prochain siècle.
The emergence of the health promotion discourse a few decades ago steered public health practice into a new direction, orienting it toward community-based, participatory, and intersectoral action. Meanwhile, in Quebec, the 2004 healthcare system reform restructured the local level through the creation of health and social services centres. The mandate of these new organizations is to integrate the public health and the healthcare sector across a continuum of services ranging from health promotion all the way to palliative care.All these changes have significant implications for healthcare and public health practitioners, who must come to terms with new professional roles and new intervention strategies. Professional development is considered to be a potential lever for action to support these changes. In 2009, a team from the Public Health Directorate of the Health and Social Services Agency of Montreal designed a professional development program called the Health Promotion Laboratory. This program builds on a team learning approach to enable participants to develop new competencies, a reflexive practice, and new health promotion practices within the organization. Based on a qualitative methodology and a collaborative evaluation approach, this doctoral thesis used several investigation strategies to evaluate three components of the Health Promotion Laboratory, i.e., the program’s conceptualization, implementation, and outcomes. More specifically, this thesis aims to: (1) examine the plausibility of the program’s intervention theory; (2) describe and understand the team learning processes involved in the program, as well as the factors influencing them; and (3) explore, from the participants’ perspective, the reflexivity outcomes of the program. In pursuing these objectives, this thesis adopts several theoretical perspectives related to adult learning, team learning, and organizational learning. The results show that: (1) while there is room for improvement, the program’s model is generally well designed to achieve the intended outcomes; (2) the model’s implementation in two sites resulted in different team learning processes, both of which depended on common factors related to the participants, the team, the organizational context, and the implementation of the program itself; and (3) as intended, participants from both sites developed reflexivity with regard to their practice and their professional roles, with this reflexivity taking on a formative and a critical function in terms of their professional experience. These results highlight the potential offered by the evaluation of a program’s intervention theory for improving the conceptualization of a professional development program. They also demonstrate the importance and relevance of assessing the learning process at a group level in the context of a collective professional development approach. Finally, the findings support the importance of reflexive learning for improving professional practice and fostering the social engagement of practitioners. Thus, they suggest different avenues having the potential to strengthen the capacities of the public health workforce and thereby to increase its effectiveness in improving the health of communities in the coming century.
APA, Harvard, Vancouver, ISO, and other styles
40

Baki, Islem. "Une approche heuristique pour l’apprentissage de transformations de modèles complexes à partir d’exemples." Thèse, 2014. http://hdl.handle.net/1866/11699.

Full text
Abstract:
L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.
Model-driven engineering (MDE) is a well-established software engineering paradigm that promotes models as main artifacts in software development and maintenance activities. As several models may be manipulated during the software life-cycle, model transformations (MT) ensure their coherence by automating model generation and update tasks when possible. However, writing model transformations remains a difficult task that requires much knowledge and effort that detract from the benefits brought by the MDE paradigm. To address this issue, much research effort has been directed toward MT automation. Model Transformation by Example (MTBE) is, in this regard, a promising approach. MTBE aims to learn transformation programs starting from a set of source and target model pairs supplied as examples. In this work, we propose a process to learn model transformations from examples. Our process aims to learn complex MT by tackling three observed requirements, namely, context exploration of the source model, source attribute value testing, and complex target attribute derivation. We experimentally evaluate our approach on seven model transformation problems. The learned transformation programs are able to produce perfect target models in three transformation cases, whereas, precision and recall higher than 90% are recorded for the four remaining ones.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography