Siga este link para ver outros tipos de publicações sobre o tema: Traitement assisté par l'humain.

Teses / dissertações sobre o tema "Traitement assisté par l'humain"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 41 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Traitement assisté par l'humain".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Chevalier, Frédéric. "Le diagnostic assisté par ordinateur de l'image tomodensitométrique : étude de paramètres adaptés". Paris 12, 1991. http://www.theses.fr/1991PA120036.

Texto completo da fonte
Resumo:
Le nombre important d'anomalies non detectees sur les images radiologiques medicales et leur complexite croissante montrent la necessite d'une aide au diagnostic qui pourrait etre apportee par l'ordinateur. L'assistance peut intervenir aux deux niveaux du diagnostic: la perception de l'anomalie au cours de la lecture de l'image et l'interpretation de ce qui a ete observe. La faisabilite de systemes d'analyse des images tomodensitometriques est montree. Les methodes de parametrisation utilisees sont soit statistiques: analyse de l'histogramme (detection des tumeurs vertebrales par modele de comparaison), analyse de texture (par matrice de concurrence); soit morphologique: detection de l'osteoporose par squelettisation du corps vertebral. Une possibilite d'information temporelle et fonctionnelle est egalement etudiee par application de la cinedensigraphie par scanner x, a la detection des fibroses pulmonaires. Le diagnostic assiste par ordinateur est une etape fondamentale vers l'automatisation, dont la mise en uvre fait apparaitre de nombreuses exigences techniques et cliniques
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Zhang, Xiwei. "Méthodes de traitement d’images pour le dépistage de la rétinopathie diabétique assisté par ordinateur". Thesis, Paris, ENMP, 2014. http://www.theses.fr/2014ENMP0024/document.

Texto completo da fonte
Resumo:
La rétinopathie diabétique est la cause principale de cécité dans la population en âge de travailler. Une détection précoce et un traitement adapté permettent de réduire considérablement le risque de perte de vue. Les autorités médicales recommandent un examen annuel pour les patients diabétiques. Plusieurs programmes de dépistage de la rétinopathie diabétique ont été déployés pour appliquer cette recommandation. L'objectif du projet TeleOphta était de détecter automatiquement des examens normaux dans un système de dépistage du diabète, afin de réduire le fardeau des lecteurs, et donc servir plus de patients. Cette thèse propose plusieurs méthodes pour extraire des informations liées à des lésions provoquées par la rétinopathie diabétique dans des images en couleurs du fond d'œil.La détection des exsudats, microanévrismes et hémorragies est discutée en détail. L'un des principaux défis de ce travail est de traiter des images cliniques, acquises avec différents types de caméras de fond d'œil, par des personnes différentes. Par conséquent, l'hétérogénéité de la base de données est élevé. Des nouvelles méthodes de pré-traitement, qui effectuent non seulement des tâches de normalisation et de débruitage, mais aussi de détection de réflexions et d'artefacts optiques, sont proposées. Des méthodes de segmentation des candidats basées sur la morphologie mathématique, et de nouveaux descripteurs de texture et de contexte sont proposées pour la caractérisation des lésions. Un algorithme de forêts aléatoires est utilisé pour choisir les lésions parmi les candidats. Les méthodes proposées utilisent largement des nouvelles méthodes d'analyse des résidus.En outre, trois nouvelles bases de données publiques d'images de la rétine, e-ophtha EX, e-ophtha MA et e-ophtha HM, respectivement conçues pour développer et évaluer les méthodes de détection d' exsudats,de microanévrismes et d'hémorragies, sont proposées dans ce travail. Les images ont été extraites du réseau de télémédecine OPHDIAT pour le dépistage de la rétinopathie diabétique. Des annotations manuelles détaillées des lésions sont fournies avec ces bases de données. Les algorithmes proposés sont évalués sur ces bases.Les méthodes proposées ont été intégrées dans le système TeleOphta , qui est présentée et évaluée sur deux grandes bases de données. Chaque dossier du patient est classé en deux catégories: “Pour avis” ou “Normal". La classification est basée non seulement sur les résultats des méthodes présentées, mais aussi sur les signatures d'image fournies par d'autres partenaires, ainsi que sur l'information médicale du patient, et les données liées à l'acquisition. L'évaluation montre que le système TeleOphta permet de traiter deux fois plus de patients dans un réseau de dépistage, à moyens constants
Diabetic retinopathy is the main cause of blindness among the middle-aged population. An early detection and adapted treatment considerably reduce the risk of sight loss. Medical authorities recommend an annual examination to diabetic patients. Several diabetic retinopathy screening programs have been deployed to enforce this recommendation. The aim of the TeleOphta project was to automatically detect normal examinations in a diabetic screening system, in order to reduce the burden on readers, and therefore serve more patients. This thesis proposes several methods to extract information linked to diabetic retinopathy lesions from color eye fundus images.The detection of exudates, microaneurysms and hemorrhages is discussed in detail. One of the main challenges of this work is to deal with clinical images, acquired by different types of eye fundus cameras, by different persons. Therefore the data base heterogeneity is high. New pre-processing methods, which perform not only normalization and denoising tasks, but also detect reflections and artifacts in the images, are proposed. Novel candidate segmentation methods based on mathematical morphology, and new textural and contextual features for lesion characterization, are proposed. A random forest algorithm is used to detect lesions among the candidates. The proposed methods make extensive use of new residue analysis methods.Moreover, three new publicly available retinal image databases, e-ophtha EX, e-ophtha MA and e-ophtha HM, respectively designed to develop and evaluate exudate, microaneurysms and hemorrhages detections methods, are proposed in this work. The images are extracted from the OPHDIAT telemedicine network for diabetic retinopathy screening. Manual annotations of the lesions are given in detail in these databases. The proposed algorithms are evaluated on these databases.The proposed methods have been integrated within the TeleOphta system, which is presented and evaluated on two large databases. Each patient record is classified into two categories: “To be referred” or “Normal”. The classification is based not only on the results of the presented methods, but also on image signatures provided by other partners, as well as on medical and acquisition-related information. The evaluation shows that the TeleOphta system can make about 2 times more patients benefit from the diagnosis service
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Poïarkova, Elena. "L' enseignement assisté par ordinateur de la traduction français-russe". Aix-Marseille 1, 2006. http://www.theses.fr/2006AIX10018.

Texto completo da fonte
Resumo:
L'intégration de la traduction et des outils informatiques dans l'apprentissage des langues vivantes étrangères (LVE) est le sujet abordé dans la présente thèse. L'actualité de la recherche est déterminée par la réhabilitation de la traduction dans l'enseignement des LVE et le rôle croissant que jouent les TIC dans l'enseignement. La méthode proposée vise l'initiation des futurs professeurs de langue à la traduction professionnelle. L'étude pluridisciplinaire des sciences connexes à la didactique des langues, et notamment des théories de la traduction, du TAL, de la linguistique contrastive et des sciences de l'éducation, constitue le fondement théorique de la méthode. L'hypothèse de la recherche expérimentale consiste en une augmentation de la motivation des apprenants et en une meilleure progression en compétence traductionnelle grâce à l'utilisation des TIC. L'analyse statistique et qualitative des données de l'enseignement expérimental confirment en partie cette hypothèse
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

David, Amos Abayomi. "Processus EXPRIM, Image et IA pour un EIIAO individualisé (Enseignement par l'Image Intelligemment Assisté par Ordinateur) : le prototype BIRDS". Vandoeuvre-les-Nancy, INPL, 1990. http://docnum.univ-lorraine.fr/public/INPL_T_1990_DAVID_A_A.pdf.

Texto completo da fonte
Resumo:
Cette thèse a pour objectif de définir et de réaliser un environnement d'apprentissage individualisé en intégrant à la fois le « processus EXPRIM », l'image et un modèle de l'élève. Le système est appelé un système d'EIIAO « un enseignement basé sur l'image intelligemment assisté par l'ordinateur ». Ce travail est basé : d'une part, sur la thèse que l'utilisation poussée de l'image et l'application de l'intelligence artificielle sont deux moyens pour un enseignement individualisé éveillant la curiosité de l'élève et ; d'autre part, sur l'hypothèse que l'utilisation de l'image avec le processus EXPRIM peut jouer un rôle important dans le processus d'enseignement. Tous les aspects pédagogiques du système sont basés sur l'utilisation de l'image et sur un modèle de l'élève. Le modèle de l'élève repose lui aussi sur l'image et il intègre aussi bien des concepts psychologiques que des concepts pédagogiques. Nous avons réalisé une maquette construite sur une architecture composée de quatre modules un module de technique pédagogique, un module du domaine, un module de l'élève, et un module d'interface. L’objectif pédagogique défini est de cultiver chez l'élève « la capacité » d'associer les caractéristiques morphologiques extérieures des oiseaux à leurs modes de nourriture, en utilisant le vidéodisque “British Garden BIRDS”
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Lebouvier, Alexandre. "Étude d'un réformateur de gazole assisté par plasma dédié au post-traitement des NOx émis par un moteur Diesel". Paris, ENMP, 2011. http://www.theses.fr/2011ENMP0037.

Texto completo da fonte
Resumo:
En réponse aux contraintes sur l'émission des NOx de la future norme Euro 6 pour les moteurs Diesel, les constructeurs automobiles envisagent l'utilisation d'un piège à NOx. Lors de la phase de purge à NOx, des espèces réductrices (H2, CO, HC) sont apportées au contact du piège à NOx et vont permettre de réduire les NOx stockés en N2. Cet apport d'espèces sont apportées au contact du piège à NOₓ et vont permettre de réduire les NOₓ stockés en N2. Cet apport d'espèces réductrices peut être réalisé par contrôle moteur ou par un procédé de reformatage. Le reformatage plasma offre une alternative au reformatage catalytique traditionnel pour la production de gaz de synthèse. Cette thèse s'inscrit dans le cadre de recherches menées au Centre Energétique et Procédés depuis une vingtaine d'années sur la conversion d'hydrocarbures par voie plasma. Le premier objectif de ces travaux de thèse a été de montrer expérimentalement la faisabilité et la viabilité à bord d'un véhicule du reformatage assisté par plasma du gazole par les gaz d'échappement. Le banc expérimental, développé pour l'étude de l'alimentation de piles à combustible, a été adapté afin de répondre à cette nouvelle application. Il a permis de démontrer, sur deux points de fontionnement moteur, que les performances taient sensibles au taux d'oxygène présent dans les gaz d'échappement. La purge du NOₓ trap peut être estimée à 12 s à faible charge. Le second objectif a été de mettre en place des modèles numériques afin de comprendre les phénomènes physico-chimiques intervenant dans le plasma. Trois modèles ont ainsi été développés. Un premier modèle 3D MHD a permis d'acquérir un certain nombre de résultats difficilement mesurables expérimentalement sur les propriétés intrinsèques de la torche à faible courant. Ce modèle a ensuite été compléxifié avec notamment l'injection vortex des gaz et la mise en place d'un modèle de reclaquage. Un modèle 1 D cinétique, utilisant un schéma détaillé représentatif du gazole, a permis d'obtenir les tendances des différents paramètres et de les comparer avec les résultats expérimentaux. Enfin, un troisième modèle 2 D asymétrique a été mis en place pour étudier l'interaction entre le plasma, considéré comme un terme source de chaleur, et la cinétique chimique
To meet the future Euro 6 regulation for NOₓ emission from diesel engines, car manufacturers are considering the use od a NOₓ trap catalyst. During the regeneration phase, reducing species (H2, CO, HC) are brought to the stored NOₓ trap which will convert the NOₓ into N2. This injection of reductants can be achieved by engine control or by a reforming process. The plasma reformer offers an aletrnative to traditional reforming catalysts to produce syngas. This thesis is part of researches investigated at the Center for Energy and Processes for twenty years on the plasma-assisted hydrocarbon conversion. The first goal of this thesis was to show experimentally the feasibility and viability of plasma-assisted exhaust gas fuel reforming of diesel fuel for onboard application. The experimental bench, designed for the H2 fuel cell feeding, has been adapted to meet this new application. It has been demonstrated, on two engine operation points, that performances were sensitive to the available oxygen rate in exhaust gases. The NOₓ trap regeneration can be estimated to 12 s at low load. The second goal was to develop numerical models to understand the coupled physical and chamical phenomena occuring with the plasma. Three models have been developped. A first 3 D MHD model gave intereting results hardly experimentally measurable about the intrinsic properties of the low-current arc. A more complex model including the vortex injection of gases and the restrike mode has been implemented. A 1D multistage kinetic model, using a detail kinetic mechanism of a diesel fuel surrogate molecule, has resulted in acquiring the trends of different parameters which have been then compared with experimental results. Finally, a 2 D asisymmetric model was developped to study the interaction between the plasma, considered as a heat source, and chemical Kinetics
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Ouldja, Hadj. "Réalisation d'une interface en langage naturel et son application à l'enseignement assisté par ordinateur". Paris 6, 1988. http://www.theses.fr/1988PA066456.

Texto completo da fonte
Resumo:
Évaluation technique sur la faisabilité d'interfaces homme machine sur microordinateurs et sur leurs qualités linguistiques. Prolog a été choisi comme langage de représentation de connaissances linguistiques et comme langage de programmation, permettant d'assurer la portabilité des programmes développés. Réalisation d'un ensemble de modules constitutifs de l'architecture d'un système interface homme machine en langue naturelle, intégrant des solutions techniques efficaces aux problèmes linguistiques
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Hoogstoel, Frédéric. "Une approche organisationnelle du travail coopératif assisté par ordinateur : application au projet Co-Learn". Lille 1, 1995. http://www.theses.fr/1995LIL10155.

Texto completo da fonte
Resumo:
Une étude de la dynamique des groupes et de la coopération nous amène à définir six enjeux pour assister le travail coopératif par l'informatique : faciliter le partage d'un espace d'information, améliorer la communication de groupe, assister la coordination des activités, favoriser le développement de l'organisation, susciter l'implication des participants et soutenir la cohésion du groupe. Une étude pragmatique de la participation des collecticiels existants à ces enjeux montre l'intérêt de leur intégration dans un environnement global de Travail Coopératif Assiste par Ordinateur (TCAO). La réalisation de tels environnements nécessite une nouvelle génération de systèmes de stockage et de partage d'information et la mise en oeuvre d'architectures multi-agents. Les systèmes de communication constituant le coeur de ces environnements doivent assister la conversation de groupe. Les environnements de TCAO constituent une classe particulière des systèmes distribués ouverts. C'est pourquoi leur conception nécessite au moins la prise en compte des cinq points de vue identifiés dans le modèle ODP. Considérant certains de ces points de vue ou définissant des systèmes de points de vue plus riches, des méthodes d'analyse des activités de groupe et de conception d'environnement de TCAO se développent actuellement dans la communauté de recherche internationale du CSCW (traduction américaine de TCAO). Adaptant et mettant en oeuvre ces nouvelles méthodes, le laboratoire trigone a participé depuis 1992 à la conception, la réalisation et l'évaluation d'un environnement de TCAO, dans le cadre du projet européen Co-Learn. La plate-forme distribuée obtenue en 1994 constitue pour les utilisateurs un système multimédia opérationnel et évolutif d'aide à l'apprentissage coopératif à distance, fondé sur la métaphore de la salle virtuelle. Pour les informaticiens, Co-Learn est surtout un environnement ouvert de conception, de développement et d'intégration d'activités de coopération. Sa réalisation montre le rôle et l'articulation des dernières techniques de programmation, de gestion de la persistance et de communication entre applications qui facilitent l'implantation d'un environnement de TCAO. Actuellement spécialisé pour les activités d'apprentissage coopératif, le système Co-Learn peut être adapté pour assister les activités générales du travail coopératif dans les organisations.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Zitouni, Djamel. "De la modelisation au traitement de l'information médicale". Antilles-Guyane, 2009. http://www.theses.fr/2010AGUY0382.

Texto completo da fonte
Resumo:
L'unité de soins intensifs est un environnement complexe, l'exercice de la médecine y est spécifique. La prise en charge d'un patient pendant son séjour doit être suivie par des personnels de soins nombreux ayant une connaissance spécifique du domaine. Pour les aider, une pléthore d’appareillages leur est dédiée. Ceux-ci sont en perpétuelle évolution. Dans la recherche d’améliorations continues, la gestion automatisée de la pratique médicale se présente de plus en plus comme une évidence majeure et un enjeu d’avenir. Au cours des trente dernière années, plusieurs tentatives de mise au point de suivis automatisés de protocoles ont été proposées. Cependant, la plupart de ces outils contiennent de nombreux problèmes non résolus, tant dans la traduction des protocoles textuels en forme formelle que dans le traitement des informations provenant des moniteurs biomédicaux. Pour palier aux biais des systèmes d’aide au diagnostic, nous avons fait le choix d’une approche différente. Nous avons défini un formalisme qui permet au personnel soignant de formaliser des connaissances aussi complexes et sensibles que les protocoles de soins. Nous avons travaillé pendant les trois dernières années avec le service d’urgence des traumatisés crâniens du CHU de Fort-de-France afin d’élaborer une chaîne complète de traitement en vue de l’automatisation des guidelines en chambre, au chevet du patient. Nous proposons un ensemble de méthodes et d’outils afin d’établir la chaîne complète de traitement de suivi d’un patient de son admission à sa sortie. Cette méthodologie est basée sur une station de chevet expérimentale (Aiddiag : AIDe aux DIAGnostic) centrée sur la patient et la pratique médicale
The intensive care unit is a complex environment ; the practice of medicine is specific. The handling of a patient during his/her stay should be done by care staffs with specific knowledge. To help care staffs in their tasks, a plethora of equipment is dedicated to them. These equipments evolve constantly. In the search of a continuous improvement in this activity, the use of automated increasingly appears as a major support and a future challenge for medical practices. Over the last thirty years, several attempts have been made to develop automated guidelines. However, most of these tools are prone to numerous unsolved issues, both in the translation of textual protocols to formal forms and in the treatment of information coming from biomedical monitors. To overcome biases of diagnosis support systems, we chose a different approach. We have defined a formalism that allows caregivers formalizing medical knowledge. We spent the last three years in the intensive care unit of the university hospital of Fort de France with the aim to develop a complete chain of data processing. The final goal was the automation of guidelines in the room, at the patient’s bedside. We propose a set of methods and tools to establish the complete chain of treatment follow-up for a patient, from admission to discharge. This methodology is based on a bedside experimental station: Aidiag (AIDe aux DIAGnostic). This station is a patient-centered tool that also adequately fits to medical routines. A genuine methodology for analyzing biomedical signals allows a first signal processing prior to their physiological interpretation. An artificial intelligence engine (Think!) and a new formalism (Oneah)
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Alfiansyah, Agung. "Intégration de données ultrasonores per-opératoires dans le geste de chirurgie orthopédique assisté par ordinateur". Aix-Marseille 2, 2007. http://theses.univ-amu.fr.lama.univ-amu.fr/2007AIX22108.pdf.

Texto completo da fonte
Resumo:
Cette thèse présente notre travail qui porte sur l'intégration d'images ultrasonores en chirurgie orthopédique assistée par ordinateur, en particulier pour la chirurgie de la hanche. L'objectif est d'améliorer l'acte chirurgical en intégrant une modalité non invasive, temps réel, et hautement disponible. Nous proposons une méthode de recalage à base d'amers entre images ultrasonores et un volume issu de scanner X préopératoire. Pour cela nous présentons d'abord une méthode de segmentation des images échographiques utilisant un modèle déformable dans lequel est intégré un terme d'énergie régionale permettant de repérer les caractéristiques locales des images. Le recalage utilise une variante de l'algorithme ICP avec une carte de distance précalculée et une optimisation de type Lavenberg-Marquardt. Nous proposons également un protocole d'acquisition de données pré et per-opératoires prenant en compte les contraintes du bloc opératoire et les impératifs d'ergonomie pour le chirurgien. Un gros travail de validation est proposé à partir d'expériences sur fantôme et sur cadavre. Nous évaluons les performances du protocole d'acquisition, la précision de la segmentation, et la robustesse et la précision du recalage. Les performances sont évaluées qualitativement et quantitativement. Enfin, nous proposons des améliorations possibles à la segmentation et au recalage
This work addresses the problem of the integration of ultrasound imaging for intraoperative data acquisition in computer assisted orthopaedic surgery, in particular for hip surgery applications. The point is to improve the quality of the surgery using a minimally invasive, real time, and highly available imaging device. The method we propose uses a featurebased registration between ultrasound images and a pre-operative CT scan volume. We present an ultrasound image segmentation method based on a deformable model with the integration of a regional energy term to detect the local characteristics of ultrasound images. The feature-based registration is a variant of the ICP algorithm that uses a pre-calculated distance map with a Lavenberg-Marquardt optimization. We also propose a protocol for the pre- and intra-operative data acquisition. The real operating room constraint are taken into account for the design of this protocol while trying to provide the necessary ergonomy for the surgeon. A large validation has been conducted on phantoms and a cadaver and is presented in this thesis. From this validation we assess the performances of the data acquisition protocol, as well as the precision of the segmentation and the robustness and precision of the registration. Performances are measured quantitatively and qualitatively. Finally we propose some possible improvements to the segmentation and registration
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Rousseau, Eric. "Curage axillaire préparé par lipoaspiration et assisté par endoscopie dans le traitement chirurgical des cancers du sein (à propos de 43 cas)". Bordeaux 2, 1997. http://www.theses.fr/1997BOR23052.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Aïche-Belkadi, Lynda. "Modification des propriétés de surface de poudres en lit fluidisé assisté par une post-décharge". Toulouse 3, 2009. http://thesesups.ups-tlse.fr/693/.

Texto completo da fonte
Resumo:
Les corps planétaires sans champ magnétique intrinsèque, mais possédant une atmosphère, possèdent une queue magnétosphérique comme celle Cette thèse a concerné l'étude d'un procédé original de traitement de surface de poudres thermosensibles par un gaz à basse température et basse pression. Ce procédé a consisté à coupler deux technologies : un lit fluidisé gaz-solide et une post-décharge d'azote. La fluidisation assure un bon contact gaz-solide et un traitement uniforme, en induisant d'importants transferts de matière entre les deux phases. La fluidisation est assurée par de l'azote ayant préalablement traversé une décharge micro-onde qui confère à l'azote une réactivité importante même à distance de la décharge. Dans cette étude, la hauteur du lit fixe est de l'ordre de grandeur de diamètre de la colonne de fluidisation. Cette étude a comporté deux parties : la première a consisté à greffer de nouvelles fonctions à la surface de particules de polyéthylène haute densité, à partir d'un plasma d'azote avec ou sans oxygène. La seconde a été dédiée au dépôt d'oxyde de silicium à partir de silane sur ces mêmes poudres. La première partie a montré qu'il est possible d'augmenter la mouillabilité de cette poudre de polyéthylène, naturellement hydrophobe, mais que l'efficacité du traitement dépend essentiellement de la composition chimique du gaz plasmagène. En effet, un plasma en post décharge d'azote permet d'augmenter la mouillabilité, mais uniquement par rapport à un liquide organique. Le fait d'ajouter un peu d'oxygène rend plus efficace le traitement en diminuant drastiquement l'angle de contact à l'eau. La deuxième partie a démontré la faisabilité d'un dépôt d'oxyde de silicium à basse température (<90°C), à partir de silane injecté au niveau du lit fluidisé. La continuité du dépôt et la mouillabilité de la poudre traitée augmentent avec les débits d'oxygène et de silane. Des études de vieillissement ont montré que le comportement en mouillabilité des poudres les plus couvertes est très proche de celui de la silice
This work concerns the development of an original process which consists in coupling two technologies: fluidized bed and cold nitrogen remote-plasma. The main object of this work is to treat an important weight of thermo-sensitive powders at low temperature and pressure. Besides, our goal also consists in understanding the phenomenon taking place in our process. The fluidized bed is used for improving the gas-solid contact. The fluidization induces a uniform treatment, important mass and thermal transfers between the two phases. The fluidization is achieved by nitrogen, which flows previously through a microwave discharge. The microwave discharge generates chemically active species. In this study, the fixed bed height is of the order of the bed diameter. This work includes two parts: in the first one, the grafting of new chemical functions on the surface of polyethylene powders due to their exposure to a cold nitrogen remote plasma with and without oxygen is studied. The second concerns the deposition of silicon oxide on the same type of powder from silane (SiH4) and oxygen. In the first part, the wettability of polyethylene powders is increased, knowing that the polyethylene powders is naturally hydrophobic. The treatment efficiency depends essentially on the composition of the plasma gas. In fact, a pure nitrogen post-discharge can increase the wettability character of the powder, but only relative to organic liquids. Nevertheless, adding a small amount of oxygen allows reaching a better water wettability. In the second part, the feasibility of depositing silicon oxide on the surface of a polyethylene powder, using a far nitrogen/oxygen cold remote-plasma and silane in a fluidized bed is showed. The deposition occurs under the form of nodules. The powder water wettability is drastically improved by the deposition process. The hydrophilic character and the continuity of the deposit are exalted by the increase of the oxygen concentration injected in the discharge. Aging studies show that the coated-powder wettablity reaches a value similar to that of silica after a few days
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Laveau, Nicolas. "Mouvement et video : estimation, compression et filtrage morphologique". Paris, ENMP, 2005. http://www.theses.fr/2005ENMP1346.

Texto completo da fonte
Resumo:
Le travail de thèse porte sur les traitements des séquences vidéos et aborde successivement les grandes thématiques de la compression -estimation du mouvement, transformations temporelle et spatiale, quantification et codage des coefficients - ainsi que celle du filtrage spacio-temporelle et de la segmentation vidéo. Deux méthodes d'estimation du mouvement sont étudiées, l'une s'appuyant sur la projection de l'équation du flot optique sur une base d'ondelettes, l'autre sur la minimisation multi-échelle d'un champs exprimé selon un modèle bilinéaire par morceaux. Nous nous intéressons ensuite à l'adaptation d'un modèle d'allocation de débit conçu pour les images fixes au standard h263. Nous développons ensuite deux transformées en ondelettes par lifting, l'une pour le domaine spatiale, l'autre concue pour le champ de mouvement. Enfin, nous introduisons des éléments structurants qui s'adaptent au mouvement pour créer une morphologie mathématique 2d+t
This thesis deals with video sequences and successively focuses on the main themes of video compression - motion estimation, spatial and temporal transforms, coefficient quantization and coding - then on these of spatio-temporal filtering and video segmentation. Two motion estimation schemes are studied, one based on the projection of the optical flow equation on a wavelet basis, the other on the multiscale minimization of a motion field described by a piecewise bilinear model. We then focus on the adaptation of a rate allocation model developped for still images in the h263 standard. We develop two lifting-based wavelet transforms, one for the spatial domain, the other for the motion field. Lastly, we introduce structuring elements that follow the motion field to create a 2d+t mathematical morphology
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Trebaul, Lena. "Développement d'outils de traitement du signal et statistiques pour l'analyse de groupe des réponses induites par des stimulations électriques corticales directes chez l'humain". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS045/document.

Texto completo da fonte
Resumo:
Introduction : La stimulation électrique directe basse fréquence est pratiquée sur des patients épileptiques pharmaco-résistants implantés avec des électrodes profondes. Elle induit de potentiels évoqués cortico-corticaux (PECC) qui permettent d’estimer la connectivité in vivo et ont permis de caractériser des réseaux locaux. Pour estimer la connectivité à l’échelle du cortex, le projet multicentrique F-TRACT vise à rassembler plusieurs centaines de patients dans une base de données pour proposer un atlas probabiliste de tractographie fonctionnelle.Méthodes : La construction de la base de données à nécessité la mise en place technique de pipelines de traitement semi-automatiques pour faciliter la gestion du nombre important de données de stéréo-électroencéphalographie (SEEG) et d’imagerie. Ces pipelines incluent des nouvelles méthodes de traitement du signal et d’apprentissage automatique, qui ont été développées pour identifier automatiquement les mauvais contacts et corriger l’artefact induit par la stimulation. Les analyses de groupe se sont basées sur des métriques des PECC et des cartes temps-fréquences des réponses à la stimulation.Résultats : La performance des méthodes développées pour le projet a été validée sur des données hétérogènes, en termes de paramètres d’acquisition et de stimulation, provenant de différents centres hospitaliers. L’atlas a été généré à partir d’un échantillon de 173 patients, fournissant une mesure de probabilité de connectivité pour 79% des connexions et d’estimer des propriétés biophysiques des fibres pour 46% d’entre elles. Son application à une sous-population de patients a permis d’étudier les réseaux impliqués dans la génération de symptômes auditifs. L’analyse de groupe oscillatoire a mis en avant l’influence de l’anatomie sur la réponse à la stimulation.Discussion : Cette thèse présente une méthodologie d’étude des PECC à l’échelle du cortex cérébral, utilisant des données hétérogènes en termes d’acquisition, de paramètres de stimulation et spatialement. L’incrémentation du nombre de patients dans l’atlas généré permettra d’étudier les interactions cortico-corticales de manière causale
Introduction: Low-frequency direct electrical stimulation is performed in drug-resistant epileptic patients, implanted with depth electrodes. It induces cortico-cortical evoked potentials (CCEP) that allow in vivo connectivity mapping of local networks. The multicentric project F-TRACT aims at gathering data of several hundred patients in a database to build a propabilistic functional tractography atlas that estimates connectivity at the cortex level.Methods: Semi-automatic processing pipelines have been developed to handle the amount of stereo-electroencephalography (SEEG) and imaging data and store them in a database. New signal processing and machine-learning methods have been developed and included in the pipelines, in order to automatically identify bad channels and correct the stimulation artifact. Group analyses have been performed using CCEP features and time-frequency maps of the stimulation responses.Results: The new methods performance has been assessed on heterogeneous data, coming from different hospital center recording and stimulating using variable parameters. The atlas was generated from a sample of 173 patients, providing a connectivity probability value for 79% of the possible connections and estimating biophysical properties of fibers for 46% of them. The methodology was applied on patients who experienced auditory symptoms that allowed the identification of different networks involved in hallucination or illusion generation. Oscillatory group analysis showed that anatomy was driving the stimulation response pattern.Discussion: A methodology for CCEP study at the cerebral cortex scale is presented in this thesis. Heterogeneous data in terms of acquisition and stimulation parameters and spatially were used and handled. An increasing number of patients’ data will allow the maximization of the statistical power of the atlas in order to study causal cortico-cortical interactions
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Abu, Al-Chay Najim. "Un système expert pour l'analyse et la synthèse des verbes arabes : dans un cadre d'Enseignement Assisté par Ordinateur". Lyon 1, 1988. http://www.theses.fr/1988LYO10076.

Texto completo da fonte
Resumo:
En partant de la structuration des constituants du verbe arabe en prefixe, base et suffixe, et en appliquant cette modelisation a l'ensemble des 174 tables de conjugaison etablies par d. Reig et des 201 tables de r. Scheindlin, un modele adapte au traitement automatique des verbes (en analyse et/ou en synthese) est defini. Ce nouveau modele, ne comportant que 63 classes, est bien adapte au traitement automatique de la langue arabe. Il a ete transcrit en prolog et implemente sur un micromega 32 sous unix
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Maraoui, Mohsen. "Elaboration d'un dictionnaire multifonction, à large couverture de la langue arabe : applications aux systèmes d'ALAO". Grenoble 3, 2009. http://www.theses.fr/2009GRE39042.

Texto completo da fonte
Resumo:
Il existe beaucoup de logiciels d'ALAO sur Internet. Il s'agit le plus souvent d’exercices à trous ou de QCM, conçus à l'aide de systèmes auteurs comme Course builder, Hot Potatoes ou Netquizz. Ce type d'activités pose plusieurs problèmes comme la rigidité des logiciels (les données utilisés sont prédéfinies et elles ne peuvent être ni modifiées ni enrichies) et la non adaptabilité des parcours aux compétences linguistiques des apprenants (le cheminement est indépendant de ses réponses à chaque étape, faute de pouvoir les évaluer ). L'unique avantage de ce genre d'exercices par apport à ceux rédigés sur papier est l'interactivité que permet l'ordinateur. L'utilisation du TAL, pour la conception de logiciels d'ALAO, représente un moyen faible pour résoudre ces problèmes. Après plus de deux décennies depuis le début des travaux, l'avancée de recherches dans ce domaine (c'est à dire utilisation de TAL en ALAO) reste insuffisante, à cause de deux facteurs principalement : la méconnaissance du TAL de la part des didacticiens des langues, voire des informaticiens, et le coût des ressources et produits issus du traitement automatique de la langue. Il n'existe en effet pratiquement aucun produit commercialisé, à part un certain nombre de prototypes ou de systèmes expérimentaux pour les langues latines. Les travaux d’ALAO basé sur le TAL pour la langue arabe sont pratiquement inexistants, malgré une riche bibliographie concernant le traitement automatique de l’arabe. Outre les facteurs cités précédemment, la carence concernant la langue arabe dans ce domaine est due au fait qu'elle est une langue difficile à traiter automatiquement. En fonction de cette situation, et désireux d'enrichir les possibilités de création d’activités pédagogiques pour l’arabe, nous avons conçu un étiqueteur, un dérivateur, un conjugueur, un analyseur morphologique ainsi qu’un dictionnaire étiqueté (le plus complet possible) pour la langue arabe. Ensuite nous avons exploité ces outils pour créer bon nombre d’applications pédagogiques pour l’apprentissage de l’arabe
There is much CALL software on the Internet, designed by using authoring systems such as (Course builder, Hot Potatoes or Netquizz). Such activities poses several problems as the rigidity of software (the data used are predetermined and can not be altered or enhanced) and the not adaptability of course to the language skills of learners (the path is independent of its response to each step, they can not evaluate). The use of the NLP for the design of software CALL, is currently one of the method that can solve the problems. But after more than two decades since the early work, the advanced research in the topic of CALL based on the NLP remains weak, due to two main factors: the lack of NLP from language didactic psychoanalysts or computer scientists, and the cost of resources and products of natural language processing. For this there are only a limited number of prototypes and experimental systems for the Latin languages. The CALL work based on NLP for the Arabic language is practically not existed, in despite of a rich literature on the automatic processing of Arabic. In addition to factors mentioned above, the deficiency of the Arabic language in this area is due to that Arabic is a language difficult to treat automatically. Under this situation, and willing to enrich the possibilities for creating educational activities for Arabic we have: As a first step, developed a labelled dictionary of Arabic (as complete as possible), a derivative, a Conjugator and a morphological analyzer for Arabic. In a second step, we used these tools to create a number of educational applications for Arabic learning as a foreign language for French learners by using our system SALA
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Gâteau, Jérôme. "Imagerie ultrasonore ultrarapide d'événements de cavitation : application en thérapie par ultrasons et imagerie de détection". Paris 7, 2011. http://www.theses.fr/2011PA077013.

Texto completo da fonte
Resumo:
L'initiation de la cavitation dans un milieu aqueux se traduit par l'apparition d'une ou plusieurs inclusions gazeuses micrométriques. Elle peut être obtenue acoustiquement par activation de nucléi, et est alors nommée nucléation acoustique de bulles. Nous nous intéressons à la nucléation induite par excitation brève (quelques cycles) et de forte amplitude (ordre du MPa). Les bulles, créés par la dépression acoustique, sont transitoires (dissolution). Les propriétés des tissus biologiques en terme de nucléation de bulles sont peu connues. Elles sont accessibles acoustiquement, car la formation d'une bulle engendre l'apparition d'un nouveau diffuseur, détectable activement (échographie). De plus, chaque événement de cavitation conduit à une émission acoustique, enregistrable en écoute passive. Ce travail de thèse utilise l'imagerie ultrasonore ultrarapide (acquisition simultanée à forte cadence sur un réseau de transducteurs) afin de détecter et étudier les événements de cavitation. D'une part, la nucléation de bulles isolées et leur détection passive à travers le crâne permettent, via le retournement temporel, d'optimiser la focalisation adaptative pour une thérapie ultrasonore non invasive du cerveau. D'autre part, la formation de bulles dans les tissus biologiques diffusants (muscle) et leur dissolution sont détectées avec une grande sensibilité en combinant détection passive et active. Des expérimentations in vivo sur encéphale de mouton, et in vitro sur sang animal montrent de plus le caractère aléatoire de la nucléation dans les tissus biologiques, et le recourt à des pressions négatives fortes (< -12MPa) pour observer son occurrence in vivo
The onset of cavitation activity in an aqueous medium is linked to the formation of gas/vapour-filled cavities of micrometric size. This formation can be acoustically mediated and is then called acoustic bubble nucleation. We focus here in the activation of seed nucléi by short (a few cycles) and high amplitude ultrasonic excitation (order of magnitude MPa). Bubbles are generated during the rarefaction phase of the wave and are transient (they dissolve). The nucleation properties of biological tissues are little known. However, they can be assessed using ultrasound: the formation of a bubble results in the appearance of a new scatterer (which can be detected with a pulse-écho detection), and each cavitation event generates an acoustic emission (detected with passive reception). In n this PhD manuscript, we use ultrafast ultrasound imaging (simultaneous acquisition on an array of transducers with a high frame rate) to detect cavitation events. Two in vitro applications were first validated. On one hand, bubble nucleation was performed through a human skull, and transcranial passive detection of a single cavitation event was used in a time reversal process to optimize adaptive focusing for thermal therapy of brain tissue. On the other hand, the formation and dissolution of bubbles in scattering biological tissues (muscle) were detected with a high sensitivity by combining passive detection and ultrafast active imaging. Finally, in vivo experiments on sheep's brain, and others in vitro on animal blood showed that nucleation in biological tissue is a random phenomenon, and high negative pressure are mandatory to initiate nucleation in vivo (< -12MPa)
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Moulin, Claude. "Adaptation dynamique d'un système d'aide a l'apprentissage de la géométrie : modélisation par un système multiagent". Rouen, 1998. http://www.theses.fr/1998ROUES043.

Texto completo da fonte
Resumo:
Dans un environnement d'aide à l'apprentissage, l'interprétation des actions de l'apprenant est primordiale pour que le système puisse s'adapter à la démarche de celui-ci. Cette interprétation, guidée par une intention pédagogique, doit être globale et doit prendre en compte les différents types d'actions que permet l'interface du système. Elle représente plutôt une conviction en un jugement qu'une certitude absolue. En fonction de cette analyse, le système établit des modifications plus ou moins importantes de son interface de façon à suggérer à l'élève des idées lui permettant de progresser. Notre recherche s'applique en particulier à un système d'aide à l'apprentissage de la résolution de problème de géométrie. Pour réaliser ceci, nous proposons un système possédant simultanément plusieurs entités qui envisagent chacune une analyse de la situation selon un point de vue particulier. Chaque entité défend avec plus ou moins de conviction le point de vue qu'elle représente. De cette confrontation, émerge l'adéquation entre la démarche réelle de l'apprenant et la perception de cette démarche par le système. Nous proposons tout d'abord une description des connaissances nécessaires au système. Elles concernent le domaine d'étude (ici, la géométrie utilisée en collège) mais aussi l'interaction entre le système et l'utilisateur et les catégories de démarches que le système envisage pour l'élève. Nous décrivons ensuite la modélisation par système multiagent que nous avons établie. Les organisations du système ont pour taches principales de représenter les connaissances nécessaires au système, de maîtriser la modification de l'interface et de représenter les entités d'analyse de la situation. Pour ce dernier point, nous avons développé un modèle d'agent particulier basé sur la caractérisation du processus de décision rationnelle dans la communication.
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Kachouri, Imen. "Description et classification des masses mammaires pour le diagnostic du cancer du sein". Thesis, Evry-Val d'Essonne, 2012. http://www.theses.fr/2012EVRY0017/document.

Texto completo da fonte
Resumo:
Le diagnostic assisté par ordinateur du cancer du sein devient de plus en plus une nécessité vu la croissance exponentielle du nombre de mammographies effectuées chaque année. En particulier, le diagnostic des masses mammaires et leur classification suscitent actuellement un grand intérêt. En effet, la complexité des formes traitées et la difficulté rencontrée afin de les discerner nécessitent l'usage de descripteurs appropriés. Dans ce travail, des méthodes de caractérisation adaptées aux pathologies mammaires sont proposées ainsi que l'étude de différentes méthodes de classification est abordée. Afin de pouvoir analyser les formes des masses, une étude concernant les différentes techniques de segmentation est réalisée. Cette étude nous a permis de nous orienter vers le modèle du level set basé sur la minimisation de l'énergie de la région évolutive. Une fois les images sont segmentées, une étude des différents descripteurs proposés dans la littérature est menée. Cependant, ces propositions présentent certaines limites telles que la sensibilité au bruit, la non invariance aux transformations géométriques et la description générale et imprécise des lésions. Dans ce contexte, nous proposons un nouveau descripteur intitulé les points terminaux du squelette (SEP) afin de caractériser les spiculations du contour des masses tout en respectant l'invariance à l'échelle. Un deuxième descripteur nommé la sélection des protubérances (PS) est proposé. Il assure de même le critère d'invariance et la description précise de la rugosité du contour. Toutefois, le SEP et le PS sont sensibles au bruit. Une troisième proposition intitulée le descripteur des masses spiculées (SMD) assurant une bonne robustesse au bruit est alors réalisée. Dans l'objectif de comparer différents descripteurs, une étude comparative entre différents classifieurs est effectuée. Les séparateurs à vaste marge (SVM) fournissent pour tous les descripteurs considérés le meilleur résultat de classification. Finalement, les descripteurs proposés ainsi que d'autres couramment utilisés dans le domaine du cancer du sein sont comparés afin de tester leur capacité à caractériser convenablement le contour des masses en question. La performance des trois descripteurs proposés et notamment le SMD est mise en évidence à travers les comparaisons effectuées
The computer-aided diagnosis of breast cancer is becoming increasingly a necessity given the exponential growth of performed mammograms. In particular, the breast mass diagnosis and classification arouse nowadays a great interest. Indeed, the complexity of processed forms and the difficulty to distinguish between them require the use of appropriate descriptors. In this work, characterization methods suitable for breast pathologies are proposed and the study of different classification methods is addressed. In order to analyze the mass shapes, a study about the different segmentation techniques in the context of breast mass detection is achieved. This study allows to adopt the level set model based on minimization of region-scalable fitting energy. Once the images are segmented, a study of various descriptors proposed inthe literature is conducted. Nevertheless, these proposals have some limitations such as sensitivity to noise, non invariance to geometric transformations and imprecise and general description of lesions. In this context, we propose a novel descriptor entitled the Skeleton End Points descriptor (SEP) in order to better characterize spiculations in mass contour while respecting the scale invariance. A second descriptor named the Protuberance Selection (PS) is proposed. It ensures also the same invariance criterion and the accurate description of the contour roughness. However, SEP and PS proposals are sensitive to noise. A third proposal entitled Spiculated Mass Descriptor (SMD) which has good robustness to noise is then carried out. In order to compare different descriptors, a comparative study between different classifiers is performed. The Support Vector Machine (SVM) provides for all considered descriptors the best classification result. Finally, the proposed descriptors and others commonly used in the breast cancer field are compared to test their ability to characterize the considered mass contours
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Desbiens, Yvan. "Influence d'un didacticiel en traitement de données comptables sur la pensée opératoire d'élèves du secteur professionnel en en [sic] commerce et secrétariat de niveau secondaire IV, V et V intensif (15 ans et plus)". Doctoral thesis, Université Laval, 1987. http://hdl.handle.net/20.500.11794/29293.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Taillepierre, Philippe. "Diodes électroluminescentes organiques : études des efficacités lumineuses et du traitement ionique des électrodes pour l'amélioration du vieillissement". Limoges, 2006. https://aurore.unilim.fr/theses/nxfile/default/206e837a-c35f-4de6-ab2e-9754ce39da3d/blobholder:0/2006LIMO0032.pdf.

Texto completo da fonte
Resumo:
Dans la plupart des cas, les diodes électroluminescentes organiques (DELOs) présentent une émission polychromatique au contraire des diodes inorganiques. Cette émission n’est toutefois pas prise en compte lors du calcul des paramètres photométriques (luminance, rendements) qui sont déterminés en supposant une émission monochromatique. Des calculs de ces paramètres sont effectués en considérant l’émission réelle des diodes. Les résultats obtenus montrent que les paramètres photométriques incluant la réponse photoptique de l’œil dans le calcul, sont surévalués dans le cas de diodes vertes et sous évalués pour des diodes bleues ou rouges si on considère une émission monochromatique. Des études sont également réalisées sur la conception de DELOs utilisant une cathode protégée par une couche d’argent déposée avec l’assistance d’un faisceau d’ions. La densification obtenue de la couche d’argent permet de lutter contre le phénomène de «dark spots» améliorant ainsi la durée de vie des diodes
Mostly, organic electroluminescent diodes (OLEDs) present a polychromatic emission contrary to the inorganic diodes. However, this emission is not taken into account during calculation of the photometric parameters (luminance, efficiencies) which are obtained by supposing a monochromatic emission. Calculations of these parameters are carried out considering the real emission of the diodes. The obtained results show that photometric parameters including the eye photoptic response in the calculation, are overestimated in the case of green diodes and underestimated for blue or red diodes if a monochromatic emission is considered. Studies are also carried out about OLEDs using a cathode protected by a silver layer deposited with an ion beam assistance. The obtained densification of the silver layer permits to fight against the “dark spots” phenomenon to improve the diode lifetime
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

El, Youbi Faysal. "Etude de transducteurs multiéléments pour le contrôle santé intégré par ondes de Lamb et développement du traitement de signal associé". Valenciennes, 2005. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/42645aa4-651d-459d-b3dd-ce534a2906da.

Texto completo da fonte
Resumo:
Ce travail concerne d'une part, l'étude d'un système de Contrôle Santé Intégré (CSI) basé sur la génération et la réception d'ondes de Lamb par des transducteurs multiéléments, et d'autre part, le développement d'un outil de traitement de signal capable d'identifier les modes de Lamb présents et d'étudier leurs sensibilités à la présence de défauts. Pour accomplir cette tâche, une relation théorique entre la transformée de Fourier à fenêtre glissante (STFT) et la Transformée de Fourier à 2 dimensions (TF2D) a été démontrée. La comparaison des amplitudes obtenues a été rendue possible par l'application de ces deux techniques de traitement de signal. Ceci a permis premièrement, d'améliorer l'identification des modes de Lamb présents et deuxièmement, de constater la présence de modes parasites. Par ailleurs, la Modélisation Eléments Finis (MEF) du système a révélé que les éléments piézoélectriques des transducteurs étaient à l'origine de ces modes parasites. Afin d'éliminer ces parasites, la solution proposée a été de réduire les épaisseurs des éléments. De plus, cette étude a montré que le transducteur en réception pouvait être amélioré en développant un transducteur segmenté. Une fois ce système optimisé, un défaut de type trou a été introduit dans la plaque afin d'étudier la sensibilité des modes à sa présence et à sa taille. Les signaux reçus ont ensuite été traités. Les résultats obtenus ont permis de tester la sensibilité des modes vis-à-vis la taille de ce trou. Ils démontrent donc clairement l'utilité du système développé pour le CSI de structures
This work concerns firstly, the study of an Integrated Health Monitoring System (IHMS) based on the generation and the reception of Lamb waves by multi-element transducers and secondly, the development of a signal processing tool able to identify all present Lamb modes and to study their sensitivities to the presence of defects. To achieve this task, a theoretical relationship between the Short Time Fourier Transform (STFT) and the Two Dimensional Fourier Transform (2D-TF) was demonstrated. The comparison of the amplitudes obtained was made possible by the application of these two signal processing techniques. This allowed firstly, to improve the Lamb modes identification and secondly, to note the presence of parasitic modes. In addition, Finite Elements Modeling (FEM) of the system revealed that the piezoelectric elements composing emitter and receiver transducers were at the origin of these parasitic modes. In order to eliminate these parasites, the solution suggested was to reduce elements thickness. Moreover, this study showed that the transducer in reception could be improved by developing a segmented transducer. Once this system optimized, a hole was introduced in the centre of the plate in order to study the sensitivity of the modes to its presence and its size. The received signals were then treated. The results obtained made possible to test the sensitivity of the modes with respect to the size of this hole. Thus, they show clearly the effectiveness of the system developed for structural health monitoring
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Kouvahe, Amélé Eyram Florence. "Etude du remodelage vasculaire pathologique : de la caractérisation macroscopique en imagerie TDM à l’analyse en microscopie numérique". Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAS019.

Texto completo da fonte
Resumo:
Cette recherche s’intéresse à l’étude du réseau vasculaire en général, dans plusieurs modalités d’imagerie et plusieurs configurations anatomo-pathologiques. Son objectif consiste à discriminer les structures vasculaires dans les données image et détecter et quantifier la présence de modifications morphologiques (remodelage) en lien avec une pathologie. L’originalité de l’approche développée consiste à exploiter un filtrage localement connexe (FLC) multidirectionnel adapté à la dimension de l’espace de données (2D ou 3D). Ce filtrage permet de sélectionner les structures curvilignes en contraste positif dans les images dont la taille en section transverse (calibre) ne dépasse pas la taille de la fenêtre de filtrage. Cette sélection reste efficace même au niveau des régions de subdivisions des vaisseaux. La mise en place d’une technique de filtrage multirésolution permet de s’affranchir de la différence des calibres vasculaires dans le réseau et de segmenter l’ensemble de la structure vasculaire, y compris en présence d’une modification locale de calibre. Un autre intérêt de l’approche de segmentation proposée est sa généralité. Elle s’adapte facilement à différentes modalités d’imagerie qui préservent un contraste (positif ou négatif) entre les vaisseaux et leur environnement. Nous l’avons pu démontrer dans le cadre de l’imagerie TDM 3D thoracique avec la segmentation du réseau vasculaire intrapulmonaire, mais également en imagerie TDM 3D hépatique avec injection de produit de contraste, en imagerie 2D de fond d’œil et en imagerie microscopique infrarouge (pour la segmentation des fibres dans le cerveau de souris). A partir d’une segmentation précise et robuste du réseau vasculaire, il est possible par la suite de détecter et caractériser la présence d’un remodelage en présence d’une pathologie. Cela passe par une analyse de la variation du calibre des vaisseaux le long de l’axe central, permettant à la fois d’obtenir une vue globale de la distribution des calibres vasculaires dans l’organe étudié (et la comparer avec une référence « sujet sain »), et de détecter localement des modifications de forme (rétrécissement, dilatation). Ce dernier cas de figure a été étudié dans le cadre de la détection et la quantification des malformations artério-veineuses pulmonaires (MAVP). Prévue initialement dans un cadre d’étude de l’angiogénèse tumorale, la méthode développée n’a pas pu être appliquée en analyse microscopique par imagerie multispectrale infrarouge en raison de l’absence de contraste de vaisseaux dans les bandes spectrales étudiées. Nous nous sommes limités dans ce cas précis à l’extraction des fibres cérébrales comme élément d’appui pour retrouver l’information manquante dans le cas d’un sous-échantillonnage 2D du volume du cerveau. En effet, l’étude de la croissance tumorale nécessitait également de pouvoir recouvrir le volume de la tumeur dans le cerveau de souris à partir de coupes coronales éparses des échantillons biologiques ayant subi des déformations lors de la découpe physique. Pour cela, une interpolation 2D-2D après réalignement des structures a été envisagée avec une deuxième contribution méthodologique de la thèse portant sur une approche de recalage-interpolation géométrique contrôlée par une mise en correspondance préalable des structures similaires dans les images. Les structures ciblées dans notre cas seront notamment la tumeur, les fibres, les ventricules et le contour du cerveau, chacune pouvant être obtenue au moyen des techniques de segmentation appliquées aux différentes bandes spectrales de la même image. La mise en correspondance des images se fait au moyen d’un champ de vecteurs directionnels établi au niveau des contours des structures cible, dans un espace de dimension supérieure (3D ici). La diffusion du champ de vecteurs éparse construit sur l’ensemble de l’espace permet d’obtenir un flot directionnel dont les lignes de champ constituent la transformation homéomorphique entre les deux images
This research focuses on the study of the vascular network in general, in several imaging modalities and several anatomo-pathological configurations. Its objective is to discriminate vascular structures in image data and to detect and quantify the presence of morphological modifications (remodeling) related to a pathology. The proposed generic analysis framework exploits a priori knowledge of the geometry of blood vessels and their contrast with respect to the surrounding tissue. The originality of the developed approach consists in exploiting a multidirectional locally connected filter (LCF) adapted to the dimension of the data space (2D or 3D). This filter allows the selection of curvilinear structures in positive contrast in images whose cross-sectional size does not exceed the size of the filtering window. This selection remains effective even at the level of vessel subdivision. The multi-resolution approach makes it possible to overcome the difference in vascular calibers in the network and to segment the entire vascular structure, even in the presence of a local caliber change. The proposed segmentation approach is general. It can be easily adapted to different imaging modalities that preserve a contrast (positive or negative) between the vessels and their environment. This has been demonstrated in different types of imaging, such as thoracic CT with and without contrast agent injection, hepatic perfusion data, eye fundus imaging and infrared microscopy (for fiber segmentation in mouse brain).From an accurate and robust segmentation of the vascular network, it is possible to detect and characterize the presence of remodeling due to a pathology. This is achieved by analyzing the vessel caliber variation along the central axis which provides both a global view on the caliber distribution in the studied organ (to be compared with a "healthy" reference) and a local detection of shape remodeling. The latter case has been applied for the detection and quantification of pulmonary arteriovenous malformations (PAVM).Initially planned in a study of tumor angiogenesis, the segmentation method developed above was not applicable to infrared microscopy because of lack of vascular contrast in the spectral bands analyzed. Instead, it was exploited for the extraction of brain fibers as a support element for image interpolation aiming the 3D reconstruction of the brain volume from the 2D sub-sampled data. In this respect, a 2D-2D interpolation with realignment of the structures was developed as a second methodological contribution of the thesis. We proposed a geometric interpolation approach controlled by a prior mapping of the corresponding structures in the images, which in our case were the tumor region, the fibers, the brain ventricles and the contour of the brain. An atlas containing the unique labels of the structures to be matched is thus built up for each image. Labels of the same value are aligned using a field of directional vectors established at the level of their contours, in a higher dimensional space (3D here). The diffusion of this field of vectors results in a smooth directional flow from one image to the other, which represents the homeomorphic transformation between the two images. The proposed method has two advantages: it is general, which is demonstrated on different image modalities (microscopy, CT, MRI, atlas) and it allows controlling the alignment of structures whose correspondence is targeted in priority
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Marsac, Laurent. "Focalisation utrasonore adaptative et application à la thérapie du cerveau". Paris 7, 2013. http://www.theses.fr/2013PA077106.

Texto completo da fonte
Resumo:
Cette thèse vise l'optimisation de la thérapie du cerveau par ultrasons focalisés transcrâniens à 1 MHz. Les tissus sont chauffés de façon non invasive par ultrasons focalisés par une sonde sphérique. La déformation du front d'onde induite par le crâne est compensée. Les traitements sont effectués sous IRM afin d'estimer la température atteinte au point ciblé. Des mesures ultrasonores permettent in vitro de mesurer les aberrations de phase et d'amplitude de différents crânes. Des corrections d'aberration basées sur une imagerie aux rayons X du crâne couplées à des simulations numériques sont optimisées et comparées. La méthode retenue est appliquée aux têtes humaines post-mortem pour validation. La précision de la procédure est confirmée. Les aberrations du crâne sont corrigées par une méthode adaptative basée sur l'estimation de l'intensité acoustique au niveau des tissus ciblés. Elle est mesurée grâce au déplacement des tissus induit par pression de radiation acoustique. Il est mesuré par une séquence IRM MR-ARFI spécialement développée pour cette application. La validation de la méthode effectuée sur fantôme et sur tête de cadavre humain confirme une meilleure focalisation. Application in vivo sur cerveau de singe : la mesure MR-ARFI valide le positionnement de la focale acoustique. La barrière hémato-encéphalique (BHE) est ouverte sur 2 animaux. Cela est effectué par focalisation après injection de micro bulles dans le sang. L'ouverture locale de la BHE et sa fermeture après 24 h sont vérifiées. Ces premières applications à 1 MHz à l'aide d'un système clinique permettent d'envisager de nouveaux traitements médicamenteux intracérébraux sur de futurs patients
The aim of this thesis is to optimize transcranial ultrasound focusing for brain therapy at 1 MHz. Tissues are heated in a non invasive way by focused ultrasound using a spherical probe. Distortion of the wavefront induced by the skull is compensated. Treatments are MR-guided in order to measure the temperature rise at focus. In vitro ultrasound measurements allowed to measure the phase and amplitude aberration on different skulls. Aberration correction based on CT scan imagine of the skull and numerical simulations are optimised and compared. The best method is applied to ex vivo human heads for validation of the accuracy. Skull aberrations are corrected by an adaptative focusing method based on the estimation of the acoustic intensity at focus. Measurement is done thanks to the displacement of the tissue induced by the acoustic radiation pressure. Measurement done by an MR-ARFI IRM sequence and validated in phantoms and cadaver heads and confirms a better focusing. The blood brain barrier (BBB) was opened on 2 animals. This is done by focusing after injection of microbubbles in blood. Local BBB opening and its closing after 24h are verified. These first applications at 1 MHz allow to prepare future applications on patients
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Hébert, Marie-Marthe. "Didactique de la pratique d'écriture au secondaire, avec traitement de texte : vers une communication interactive". Doctoral thesis, Université Laval, 1987. http://hdl.handle.net/20.500.11794/29310.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Bouzidi, Laïd. "Conception d'un système d'E. A. O. Pour l'apprentissage d'une langue : application à l'enseignement de la morphologie de l'arabe". Lyon 1, 1989. http://www.theses.fr/1989LYO10106.

Texto completo da fonte
Resumo:
L'une des plus recentes innovations dans les systemes educatifs est l'introduction de l'informatique comme outil de formation. Le but du present travail est la conception d'un systeme d'apprentissage assiste par ordinateur d'une langue. Bien que les principes de ce systeme soient independants de la discipline, les propositions emises visent dans un premier temps la maitrise des aspects morphologiques de la langue arabe. Le systeme d'aide automatique propose couvre quatre grandes fonctions: la conjugaison des verbes, l'exploitation lexicale, l'analyse et la production de mots. L'etude de chaque fonction permet de definir une decomposition sequentielle degageant les etapes (ou sequences) qui permettent sa realisation. L'ordonnancement de cet ensemble de sequences fait apparaitre le schema de fonctionnement du systeme et son exploitation. L'analyse des erreurs est l'une des composantes les plus importantes des logiciels d'enseignements assiste par ordinateur. C'est pourquoi une partie importante de ce travail est constituee de propositions destinees a resoudre la problematique posee par le traitement des erreurs. On a ete amene a distinguer deux types d'erreur: les erreurs morphographiques et les erreurs morphologiques. Cette distinction permet d'adopter une methode de resolution propre a chacun de ces deux types. Les erreurs de type morphographiques sont essentiellement des cas de substitution, d'omission ou d'ajout de lettres. Les erreurs morphologiques sont dues a une mauvaise maitrise des regles de construction et/ou une mauvaise connaissance de leurs constituants. Ces constituants sont des unites morphologiques qui font partie integrante du modele linguistique developpe pour le traitement de l'arabe. Ce modele est represente sous la forme d'un schema d'une base de donnees appelee lexique. L'exploitation de ce lexique permet a la fois la production automatique de corpus de reponses et d'exercices qu'a l'ana
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Dascalu, Mihai. "L'analyse de la complexité du discours et du texte pour apprendre et collaborer". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00978420.

Texto completo da fonte
Resumo:
L'apprentissage collaboratif assisté par ordinateur et les technologies d'e-learning devenant de plus en plus populaires et intégrés dans des contextes éducatifs, le besoin se fait sentir de disposer d'outils d'évaluation automatique et d'aide aux enseignants ou tuteurs pour les deux activités, fortement couplées, de compréhension de textes et collaboration entre pairs. Bien qu'une analyse de surface de ces activités est aisément réalisable, une compréhension plus profonde et complète du discours en jeu est nécessaire, complétée par une analyse de l'information méta-cognitive disponible par diverses sources, comme par exemples les auto-explications des apprenants. Dans ce contexte, nous utilisons un modèle dialogique issu des travaux de Bakhtine pour analyser les conversations collaboratives, et une approche théorique visant à unifier les activités de compréhension et de collaboration dans un même cadre, utilisant la construction de graphes de cohésion. Plus spécifiquement, nous nous sommes centrés sur la dimension individuelle de l'apprentissage, analysée à partir de l'identification de stratégies de lecture et sur la mise au jour d'un modèle de la complexité textuelle intégrant des facteurs de surface, lexicaux, morphologiques, syntaxiques et sémantiques. En complément, la dimension collaborative de l'apprentissage est centrée sur l'évaluation de l'implication des participants, ainsi que sur l'évaluation de leur collaboration par deux modèles computationnels: un modèle polyphonique, défini comme l'inter-animation de voix selon de multiples perspectives, un modèle spécifique de construction sociale de connaissances, fondé sur le graphe de cohésion et un mécanisme d'évaluation des tours de parole. Notre approche met en œuvre des techniques avancées de traitement automatique de la langue et a pour but de formaliser une évaluation qualitative du processus d'apprentissage. Ainsi, deux perspectives fortement interreliées sont prises en considération : d'une part, la compréhension, centrée sur la construction de connaissances et les auto-explications à partir desquelles les stratégies de lecture sont identifiées ; d'autre part la collaboration, qui peut être définie comme l'implication sociale, la génération d'idées ou de voix en interanimation dans un contexte donné. Des validations cognitives de nos différents systèmes d'évaluation automatique ont été réalisées, et nous avons conçu des scénarios d'utilisation de ReaderBench, notre système le plus avancé, dans différents contextes d'enseignement. L'un des buts principaux de notre modèle est de favoriser la compréhension vue en tant que " médiatrice de l'apprentissage ", en procurant des rétroactions automatiques aux apprenants et enseignants ou tuteurs. Leur avantage est triple: leur flexibilité, leur extensibilité et, cependant, leur spécificité, car ils couvrent de multiples étapes de l'activité d'apprentissage, de la lecture de matériel d'apprentissage à l'écriture de synthèses de cours en passant par la discussion collaborative de contenus de cours et la verbalisation métacognitive de jugements de compréhension, afin d'obtenir une perspective complète du niveau de compréhension et de générer des rétroactions appropriées sur le processus d'apprentissage collaboratif.
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Laplante, André. "Élaboration et mise à l'essai de guides pour l'initiation à l'ordinateur et au traitement de texte auprès des formatrices et des analphabètes fonctionnels". Master's thesis, Université Laval, 1990. http://hdl.handle.net/20.500.11794/17629.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Loiseau, Mathieu. "Elaboration d'un modèle pour une base de textes indexée pédagogiquement pour l'enseignement des langues". Grenoble 3, 2009. https://tel.archives-ouvertes.fr/tel-00440460v3.

Texto completo da fonte
Resumo:
Cette thèse traite la notion d'indexation pédagogique et l'aborde sous l'angle de la recherche et du choix de textes pour l'enseignement des langues. Ce problème est replacé dans le champ disciplinaire de l'Apprentissage des Langues Assisté par Ordinateur (ALAO) et des apports potentiels du Traitement Automatique des Langues (TAL) à cette discipline, avant d'être confronté à des éléments provenant plus directement de la didactique des langues, pour proposer une approche empirique. Celle-ci est ensuite justifiée par l'incapacité des standards de description de ressources pédagogiques actuels à modéliser des ressources brutes de manière cohérente, en particulier des textes pour l'enseignement des langues. La thèse s'articule ensuite autour de deux questionnaires visant à connaitre les pratiques déclarées des enseignants quant à la recherche et au choix de textes dans le cadre de la tâche de planification des cours. Le premier questionnaire permet la formalisation de la notion de contexte pédagogique, qui est ultérieurement appréhendée à travers certaines de ses composantes grâce au second questionnaire. Enfin, ces premières ébauches de formalisation servent de fondement à la définition d'un modèle dont l'objectif est de rendre compte de la contextualité des propriétés dites pédagogiques quand elles sont appliquées à des ressources brutes. Des pistes d'implantation du modèle sont finalement proposées dans le cadre de la description d'un système informatique
This PhD thesis deals with the notion of pedagogical indexation and tackles it from the point of view of searching for and selecting texts for language teaching. This particular problem is set in the field of Computer Assisted Language Learning (CALL) and of the potential contribution of Natural Language Processing (NLP) to this discipline, before being considered within the scope of elements more directly relevant to language didactics, in order to propose an empirical approach. The latter is then justified by the inadequacy of current description standards for pedagogical resources where modeling of raw objects in a consistent fashion is concerned. This is particularly true for texts in the context of language learning. The thesis subsequently revolves around two questionnaires the aim of which is to provide insight into language teachers' declared practices regarding searching for and selecting texts in the context of class planning. The first questionnaire provides data to formalize the notion of pedagogical context, which is later considered through some of its components thanks to the second questionnaire. Finally, these first formalization drafts provide foundations for the definition of a model aiming at taking into account the contextuality of the properties said to be pedagogical, which is inherent to raw resources. Finally, possible leads for implementing this model are suggested through the description of a computerized system
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Wera, Marie-Thérèse. "Histoire en pièces détachées : une activité de traitement de texte intégrant lecture et écriture destinée à des enfants éprouvant des difficultés d'apprentissage en français au primaire". Master's thesis, Université Laval, 1988. http://hdl.handle.net/20.500.11794/29264.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Brunet, Eric. "Conception et réalisation d'un système expert d'aide à l'interprétation des chocs mécaniques en centrale nucléaire". Compiègne, 1988. http://www.theses.fr/1988COMPD113.

Texto completo da fonte
Resumo:
Le travail réalisé a permis la conception d'un générateur de systèmes experts d'aide au diagnostic (MIGRE) et la réalisation, à partir de celui-ci, d'un système d'aide à l'interprétation des chocs mécaniques en centrale nucléaire. Le problème central du développement de systèmes à base de connaissances est lié au concept de " connaissance ". MIGRE propose une classification des connaissances en trois niveaux. Le premier concerne les connaissances de base ou descriptives et est formalisé à travers un modèle Entité-Relation. Le second niveau associe aux concepts de base des informations spécifiques à leurs utilisations (notions de vecteurs de connaissances). Le dernier niveau concerne les connaissances d'expertise (règle de stratégie, inférence, définition,. . . ). L'éditeur de base d'expertise comporte une Interface en Langage Naturel spécialisé dont l'objectif est de comprendre " le sens " d'une phrase sur le domaine décrit par le modèle conceptuel (niveaux 1 et 2) (réalisation à travers une Definite Clause Grammar). La résolution d'un problème est guidée par la réponse du Module d'Exploitation des Connaissances (MEC) à un certain nombre de tâches élaborées dynamiquement. Les travaux réalisés ont montré d'une part l'intérêt des résultats obtenus dans d'autres domaines tels la psychologie cognitive et d'autre part que la compréhension de phrases et le raisonnement nécessitent un même ensemble de connaissances élémentaires (mémoire sémantique)
The main purpose of this research work was the design of a Diagnostic Expert System work bench (MIGRE) and, from it, the realization of a system to aid the interpretation of mechanical impacts in nuclear power plants. The central problem for knowledge based system is related to the concept of “knowledge”. MIGRE proposes a three-level classification of knowledge. The first level is concerned with basic or descriptive knowledge and is formalised in an Entity-Relation model. The second level associates the basic concepts with specific information (“Knowledge Vector”). The last level deals with inference knowledge. Each element of expertise is represented by a “marked” rule (strategy, inference, definition,. . . ). MIGRE provides tools support the activities of application development. Thus, the knowledge base editor includes a Specialized Natural Language Interface, whose aim is to understand the “meaning” of a sentence, and in particular to look for “implicit” knowledge. The parser is a semantic one, using a Definite Clause Grammar. Problem solution is guided by the answers given by the knowledge Exploitation module to a number of tasks extended dynamically during the reasoning. The results show that the two “intellectual” activities of understanding sentences and reasoning to solve a problem require a common core of knowledge
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Aarabi, Ardalan. "Détection et classification spatiotemporelle automatique d'évènements EEG pour l'analyse de sources d'activité cérébrale chez le nouveau-né et l'enfant". Amiens, 2007. http://www.theses.fr/2007AMIED002.

Texto completo da fonte
Resumo:
Les nouveau-nés, particulièrement les prématurés présentent d'importants risques de dommages cérébraux et d'incapacité cognitive à vie. Concernant les prématurés, les pathologies neurologiques sont souvent accompagnées des manifestations épileptiques. Ces nouveau-nés peuvent être affectés dans d'autres domaines dont la coordination, la cognition et le comportement. L'EEG est un outil non-invasif permettant de mesurer l'activité électrique du cerveau. Dans cette thèse, nous avons développé des outils pour identifier des événements normaux et pathologiques de l'EEG chez les nouveau-nés et les enfants. Nous nous sommes plus particulièrement intéressés à la détection (i) des crises, en employant les éléments spécifiques de l'EEG du nouveau-né, dépendants de l'âge, (ii) les états épileptiques de cerveau et (iii) les événements de courte durée comme la pointe et la pointe-onde pour chaque état. Nous avons caractérisé des événements EEG en extrayant un ensemble de caractéristiques contextuelles afin de les classifier. Puis la localisation des générateurs cérébraux a été trouvée et suivie en groupant spatialement des dipôles équivalents des événements EEG dans différents états du cerveau. Les résultats montrent de bonnes sensibilités et sélectivités avec de faibles taux de fausse détection chez les nouveaux-nés et les enfants
Neonates, especially the premature ones, are at high risk of brain damage and life-long cognitive disability. Concerning the full-term neonates, neurological pathologies are often accompanied by epileptic manifestations. These newborns may be impaired in other domains including coordination, cognition and behavior. EEG is a useful non-invasive tool to measure the electrical activity of the brain. In this thesis, we developed tools to identify normal and pathological EEG events in neonates and children. We paid a special attention to detect (i) seizures by using specific age-dependant features of the newborn EEG, (ii) brain epileptic states and (iii) short-term events like spikes and spike-and-waves for each state. We characterized EEG events by extracting a set of contextual features in order to classify them. Then, the location of cerebral generators was found and tracked by spatial clustering of the equivalent dipoles of the EEG events in different brain states. The results showed good sensitivities and selectivities with a low false detection rates in neonates and children
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Billami, Mokhtar Boumedyen. "Désambiguïsation sémantique dans le cadre de la simplification lexicale : contributions à un système d'aide à la lecture pour des enfants dyslexiques et faibles lecteurs". Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0354.

Texto completo da fonte
Resumo:
Ces dernières années, un nombre important de technologies ont été créées pour venir en aide aux personnes ayant des difficultés pour lire des textes écrits. Les systèmes proposés intègrent des technologies de la parole (lecture à « voix haute ») ou des aides visuelles (paramétrage et/ou mise en couleur des polices ou augmentation de l’espace entre lettres et lignes). Cependant, il est essentiel de proposer aussi des transformations sur le contenu afin d’avoir des substituts de mots plus simples et plus fréquents. Le but de cette thèse est de contribuer à un système d’aide à la lecture permettant de proposer automatiquement une version simplifiée d’un texte donné tout en gardant le même sens des mots.Le travail présenté adresse le problème de l’ambiguïté sémantique (très courant en traitement automatique des langues) et vise à proposer des solutions pour la désambiguïsation sémantique à l’aide de méthodes non supervisées et à base de connaissances provenant de ressources lexico-sémantiques. Dans un premier temps, nous proposons un état de l’art sur les méthodes de désambiguïsation sémantique et les mesures de similarité sémantique (essentielles pour la désambiguïsation sémantique). Par la suite, nous comparons divers algorithmes de désambiguïsation sémantique afin d’en tirer le meilleur. Enfin, nous présentons nos contributions pour la création d’une ressource lexicale pour le français proposant des synonymes désambiguïsés et gradués en fonction de leur niveau de difficulté de lecture et compréhension. Nous montrons que cette ressource est utile et peut être intégrée dans un module de simplification lexicale de textes
In recent years, a large number of technologies have been created to help people who have difficulty when reading written texts. The proposed systems integrate speech technologies (reading aloud) or visual aids (setting and/or coloring of fonts or increasing the space between letters and lines). However, it is essential to also propose transformations on the texts’ content in order to have simpler and more frequent substitutes. The purpose of this thesis is to contribute to develop a reading aid system that automatically provides a simplified version of a given text while keeping the same meaning of words.The presented work addresses the problem of semantic ambiguity (quite common in natural language processing) and aims to propose solutions for Word Sense Disambiguation (WSD) by using unsupervised and knowledge-based approaches from lexico-semantic resources. First, we propose a state of the art of the WSD approaches and semantic similarity measures which are crucial for this process. Thereafter, we compare various algorithms of WSD in order to get the best of them. Finally, we present our contributions for creating a lexical resource for French that proposes disambiguated and graduated synonyms according to their level of difficulty to be read and understood. We show that our resource is useful and can be integrated in a lexical simplification of texts module
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Zribi, Abir. "Apprentissage par noyaux multiples : application à la classification automatique des images biomédicales microscopiques". Thesis, Rouen, INSA, 2016. http://www.theses.fr/2016ISAM0001.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans le contexte de diagnostic assisté par ordinateur pour la localisation subcellulaire des protéines dans les images microscopiques. L'objectif est la conception et le développement d'un système de classification automatique permettant d'identifier le compartiment cellulaire dans lequel une protéine d'intérêt exerce son activité biologique. Afin de surmonter les difficultés rencontrées pour discerner les compartiments cellulaires présents dans les images microscopiques, les systèmes décrits dans la littérature proposent d'extraire plusieurs descripteurs associés à une combinaison de classifieurs. Dans cette thèse, nous proposons un schéma de classification différent répondant mieux aux besoins de généricité et de flexibilité pour traiter différentes bases d'images.Dans le but de fournir une caractérisation riche des images microscopiques, nous proposons un nouveau système de représentation permettant d'englober de multiples descripteurs visuels identifiés dans les différentes approches d'extraction de caractéristiques : locale, fréquentielle, globale et par région. Nous formulons ensuite le problème de fusion et de sélection des caractéristiques sous forme d'un problème de sélection de noyaux. Basé sur l'apprentissage de noyaux multiples (MKL), les tâches de sélection et de fusion de caractéristiques sont considérées simultanément. Les expériences effectuées montrent que la plateforme de classification proposée est à la fois plus simple, plus générique et souvent plus performante que les autres approches de la littérature. Dans le but d'approfondir notre étude sur l'apprentissage de noyaux multiples, nous définissons un nouveau formalisme d'apprentissage MKL réalisé en deux étapes. Cette contribution consiste à proposer trois termes régularisant liés à la résolution du problème d'apprentissage des poids associés à une combinaison linéaire de noyaux, problème reformulé en un problème de classification à vaste marge dans l'espace des couples. Le premier terme régularisant proposé assure une sélection parcimonieuse des noyaux. Les deux autres termes ont été conçus afin de tenir compte de la similarité entre les noyaux via une métrique basée sur la corrélation. Les différentes expérimentations réalisées montrent que le formalisme proposé permet d'obtenir des résultats de même ordre que les méthodes de référence, mais offrant l'avantage d'utiliser moins de fonctions noyaux
This thesis arises in the context of computer aided analysis for subcellular protein localization in microscopic images. The aim is the establishment of an automatic classification system allowing to identify the cellular compartment in which a protein of interest exerts its biological activity. In order to overcome the difficulties in attempting to discern the cellular compartments in microscopic images, the existing state-of-art systems use several descriptors to train an ensemble of classifiers. In this thesis, we propose a different classification scheme wich better cope with the requirement of genericity and flexibility to treat various image datasets. Aiming to provide an efficient image characterization of microscopic images, a new feature system combining local, frequency-domain, global, and region-based features is proposed. Then, we formulate the problem of heterogeneous feature fusion as a kernel selection problem. Using multiple kernel learning, the problems of optimal feature sets selection and classifier training are simultaneously resolved. The proposed combination scheme leads to a simple and a generic framework capable of providing a high performance for microscopy image classification. Extensive experiments were carried out using widely-used and best known datasets. When compared with the state-of-the-art systems, our framework is more generic and outperforms other classification systems. To further expand our study on multiple kernel learning, we introduce a new formalism for learning with multiple kernels performed in two steps. This contribution consists in proposing three regularized terms with in the minimization of kernels weights problem, formulated as a classification problem using Separators with Vast Margin on the space of pairs of data. The first term ensures that kernels selection leads to a sparse representation. While the second and the third terms introduce the concept of kernels similarity by using a correlation measure. Experiments on various biomedical image datasets show a promising performance of our method compared to states of art methods
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Michel, Johan. "Modèles d'activités pédagogiques et de support à l'interaction pour l'apprentissage d'une langue : le système Sampras". Phd thesis, Université du Maine, 2006. http://tel.archives-ouvertes.fr/tel-00090250.

Texto completo da fonte
Resumo:
Nos recherches s'inscrivent dans le domaine des EIAH et plus particulièrement dans les recherches menées sur la conception d'environnements d'apprentissage des langues étrangères. Nous nous intéressons à la conception et au support d'activités interactives au sein d'un micromonde dédié à l'apprentissage du français langue étrangère. L'idée sur laquelle repose la thèse est que l'apprentissage de la langue peut prendre place dans l'interaction entre un apprenant et un agent conversationnel. L'usage de la langue étrangère est mis en jeu au travers de la simulation d'une tâche applicative à accomplir dans un monde virtuel, réalisation impliquant la communication entre un apprenant et son partenaire virtuel. Nous élaborons des modèles qui décrivent les activités pédagogiques mises en place et le support aux interactions qu'elles génèrent. Ces modèles se décrivent selon trois dimensions qui permettent de caractériser la conception : tâche, interaction et langue. La description de la dimension tâche recouvre la description des tâches pédagogiques proposées aux apprenants, des tâches interactives créées à partir des spécifications des tâches pédagogiques et de la tâche applicative dont la résolution sert de prétexte à l'interaction. La description de la dimension interaction présente les types d'interaction attendus entre l'apprenant et son partenaire au cours des activités pédagogiques et le modèle d'interaction qui articule ces types d'interaction. La présentation de la dimension langue décrit le modèle du lexique, les mécanismes d'analyse des énoncés de l'apprenant et de génération des réactions du partenaire. Ces modèles ont été mis en œuvre lors de l'implémentation d'un prototype. Ce prototype a été expérimenté auprès de débutants en français langue étrangère.
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Cheikhrouhou, Imen. "Description et classification des masses mammaires pour le diagnostic du cancer du sein". Phd thesis, Université d'Evry-Val d'Essonne, 2012. http://tel.archives-ouvertes.fr/tel-00875976.

Texto completo da fonte
Resumo:
Le diagnostic assisté par ordinateur du cancer du sein devient de plus en plus une nécessité vu la croissance exponentielle du nombre de mammographies effectuées chaque année. En particulier, le diagnostic des masses mammaires et leur classification suscitent actuellement un grand intérêt. En effet, la complexité des formes traitées et la difficulté rencontrée afin de les discerner nécessitent l'usage de descripteurs appropriés. Dans ce travail, des méthodes de caractérisation adaptées aux pathologies mammaires sont proposées ainsi que l'étude de différentes méthodes de classification est abordée. Afin de pouvoir analyser les formes des masses, une étude concernant les différentes techniques de segmentation est réalisée. Cette étude nous a permis de nous orienter vers le modèle du level set basé sur la minimisation de l'énergie de la région évolutive. Une fois les images sont segmentées, une étude des différents descripteurs proposés dans la littérature est menée. Cependant, ces propositions présentent certaines limites telles que la sensibilité au bruit, la non invariance aux transformations géométriques et la description générale et imprécise des lésions. Dans ce contexte, nous proposons un nouveau descripteur intitulé les points terminaux du squelette (SEP) afin de caractériser les spiculations du contour des masses tout en respectant l'invariance à l'échelle. Un deuxième descripteur nommé la sélection des protubérances (PS) est proposé. Il assure de même le critère d'invariance et la description précise de la rugosité du contour. Toutefois, le SEP et le PS sont sensibles au bruit. Une troisième proposition intitulée le descripteur des masses spiculées (SMD) assurant une bonne robustesse au bruit est alors réalisée. Dans l'objectif de comparer différents descripteurs, une étude comparative entre différents classifieurs est effectuée. Les séparateurs à vaste marge (SVM) fournissent pour tous les descripteurs considérés le meilleur résultat de classification. Finalement, les descripteurs proposés ainsi que d'autres couramment utilisés dans le domaine du cancer du sein sont comparés afin de tester leur capacité à caractériser convenablement le contour des masses en question. La performance des trois descripteurs proposés et notamment le SMD est mise en évidence à travers les comparaisons effectuées.
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Lortal, Gaëlle. "Médiatiser l'annotation pour une herméneutique numérique : AnT&CoW, un collecticiel pour une coopération via l'annotation de documents numériques". Phd thesis, Université de Technologie de Troyes, 2006. http://tel.archives-ouvertes.fr/tel-00136042.

Texto completo da fonte
Resumo:
Suite au projet CNRS PI-TCAN Mediapro, centré sur les activités coopératives en conception mécanique, le projet Mediannote, dans lequel s'inscrivent nos travaux, se concentre sur l'annotation dans ces activités. Dans un contexte où les échanges médiatisés s'accroissent, le document numérique devient central. Pour soutenir les échanges et la construction d'une interprétation collective autour de ce document, nous proposons d'instrumenter l'annotation - définie comme un fragment de discours à propos d'un texte, un support à l'argumentation -. Nous proposons donc de concevoir un collecticiel pour annoter collectivement des documents numériques et ainsi soutenir l'herméneutique numérique.
L'annotation comme support au travail coopératif est envisagée à la fois comme un objet qui relève de l'étiquette et du commentaire et comme une activité qui relève de la communication, de l'indexation et de l'élaboration de discours. La conception de notre collecticiel se fonde sur un modèle d'activité d'annotation qui souligne la dimension interactionnelle et coopérative de l'annotation. Cette démarche guidée par les modèles est enrichie par l'utilisation de corpus qui permet de conserver l'utilisateur final au centre de nos préoccupations. Nous présentons une maquette du collecticiel, AnT&CoW, utilisant des outils de TAL pour le soutien de l'utilisateur à différents niveaux : soutien à la construction de classification et aide à l'indexation. Une première évaluation de cette maquette est également présentée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Roehri, Nicolas. "Caractérisation du rôle des oscillations à haute fréquence dans les réseaux épileptiques". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0012/document.

Texto completo da fonte
Resumo:
Touchant plus de 50 millions de personnes dans le monde, l’épilepsie est un problème majeur de santé publique. Un tiers des patients souffrent d’épilepsie pharmaco-résistante. Une chirurgie visant à enlever la région cérébrale à l’origine des crises – la zone épileptogène – est considérée comme l’option de référence pour rendre libre de crises ces patients. Le taux d’échec chirurgical non négligeable a poussé la recherche d’autres marqueurs. Un marqueur potentiel est les oscillations à haute fréquence (HFOs). Une HFO est une brève oscillation entre 80-500 Hz qui dure au moins 4 périodes enregistrée en EEG intracérébrale. Par leur caractère très bref, le marquage visuel de ces petites oscillations est fastidieux et chronophage.. Il semble impératif de trouver un moyen de détecter automatiquement ces oscillations pour étudier les HFOs sur des cohortes de patients. Aucun détecteur automatique existant ne fait cependant l’unanimité. Durant cette thèse, nous avons développé un nouveau moyen de visualiser les HFOs grâce à une normalisation originale de la transformée en ondelettes pour ensuite mieux les détecter automatiquement. Puis, nous avons mise en place une stratégie pour caractériser et valider des détecteurs. Enfin, nous avons appliqué le nouveau détecteur à une cohorte de patients pour déterminer la fiabilité des HFOs et des pointes épileptiques - le marqueur standard - dans la prédiction de la zone épileptogène. La conclusion de cette thèse est que les HFOs ne sont pas meilleurs que les pointes épileptiques pour prédire la zone épileptogène mais que combiner ces deux marqueurs permettait d’obtenir un marqueur plus robuste
Epilepsy is a major health problem as it affects 50 million people worldwide. One third of the patients are resistant to medication. Surgical removal of the brain areas generating the seizure – the epileptogenic zone – is considered as the standard option for these patients to be seizure free. The non-negligible rate of surgical failure has led to seek other electrophysiological criteria. One putative marker is the high-frequency oscillations (HFOs).An HFO is a brief oscillation between 80-500 Hz lasting at least 4 periods recorded in intracerebral EEG. Due to their short-lasting nature, visually marking of these small oscillations is tedious and time-consuming. Automatically detecting these oscillations seems an imperative stage to study HFOs on cohorts of patients. There is however no general agreement on existing detectors.In this thesis, we developed a new way of representing HFOs thanks to a novel normalisation of the wavelet transform and to use this representation as a base for detecting HFOs automatically. We secondly designed a strategy to properly characterise and validate automated detectors. Finally, we characterised, in a cohort of patients, the reliability of HFOs and epileptic spikes - the standard marker - as predictors of the epileptogenic zone using the validated detector. The conclusion of this thesis is that HFOs are not better than epileptic spikes in predicting the epileptogenic zone but combining the two leads to a more robust biomarker
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Laurent, Mario. "Recherche et développement du Logiciel Intelligent de Cartographie Inversée, pour l’aide à la compréhension de texte par un public dyslexique". Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAL016/document.

Texto completo da fonte
Resumo:
Les enfants souffrant de troubles du langage, comme la dyslexie, rencontrent de grandes difficultés dans l'apprentissage de la lecture et dans toute tâche de lecture, par la suite. Ces difficultés compromettent grandement l'accès au sens des textes auxquels ils sont confrontés durant leur scolarité, ce qui implique des difficultés d'apprentissage et les entraîne souvent vers une situation d'échec scolaire. Depuis une quinzaine d'années, des outils développés dans le domaine du Traitement Automatique des Langues sont détournés pour être utilisés comme stratégie d'aide et de compensation pour les élèves en difficultés. Parallèlement, l'usage de cartes conceptuelles ou de cartes heuristiques pour aider les enfants dyslexiques à formuler leurs pensées, ou à retenir certaines connaissances, s'est développé. Ce travail de thèse vise à répertorier et croiser, d'une part, les connaissances sur le public dyslexique, sa prise en charge et ses difficultés, d'autre part, les possibilités pédagogiques ouvertes par l'usage de cartes, et enfin, les technologies de résumé automatique et d'extraction de mots-clés. L'objectif est de réaliser un logiciel novateur capable de transformer automatiquement un texte donné en une carte, celle-ci doit faciliter la compréhension du texte tout en comprenant des fonctionnalités adaptées à un public d'adolescents dyslexiques. Ce projet a abouti, premièrement, à la réalisation d'une expérimentation exploratoire, sur l'aide à la compréhension de texte grâce aux cartes heuristiques, qui permet de définir de nouveaux axes de recherche ; deuxièmement, à la réalisation d'un prototype de logiciel de cartographie automatique qui est présenté en fin de thèse
Children with language impairment, such as dyslexia, are often faced with important difficulties when learning to read and during any subsequent reading tasks. These difficulties tend to compromise the understanding of the texts they must read during their time at school. This implies learning difficulties and may lead to academic failure. Over the past fifteen years, general tools developed in the field of Natural Language Processing have been transformed into specific tools for that help with and compensate for language impaired students' difficulties. At the same time, the use of concept maps or heuristic maps to encourage dyslexic children express their thoughts, or retain certain knowledge, has become popular. This thesis aims to identify and explore knowledge about the dyslexic public, how society takes care of them and what difficulties they face; the pedagogical possibilities opened up by the use of maps; and the opportunities created by automatic summarization and Information Retrieval fields. The aim of this doctoral research project was to create an innovative piece of software that automatically transforms a given text into a map. It was important that this piece of software facilitate reading comprehension while including functionalities that are adapted to dyslexic teenagers. The project involved carrying out an exploratory experiment on reading comprehension aid, thanks to heuristic maps, that make the identification of new research topics possible, and implementing an automatic mapping software prototype that is presented at the end of this thesis
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Gauthier, Elodie. "Collecter, Transcrire, Analyser : quand la machine assiste le linguiste dans son travail de terrain". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM011/document.

Texto completo da fonte
Resumo:
Depuis quelques décennies, de nombreux scientifiques alertent au sujet de la disparition des langues qui ne cesse de s'accélérer.Face au déclin alarmant du patrimoine linguistique mondial, il est urgent d'agir afin de permettre aux linguistes de terrain, a minima, de documenter les langues en leur fournissant des outils de collecte innovants et, si possible, de leur permettre de décrire ces langues grâce au traitement des données assisté par ordinateur.C'est ce que propose ce travail, en se concentrant sur trois axes majeurs du métier de linguiste de terrain : la collecte, la transcription et l'analyse.Les enregistrements audio sont primordiaux, puisqu'ils constituent le matériau source, le point de départ du travail de description. De plus, tel un instantané, ils représentent un objet précieux pour la documentation de la langue. Cependant, les outils actuels d'enregistrement n'offrent pas au linguiste la possibilité d'être efficace dans son travail et l'ensemble des appareils qu'il doit utiliser (enregistreur, ordinateur, microphone, etc.) peut devenir encombrant.Ainsi, nous avons développé LIG-AIKUMA, une application mobile de collecte de parole innovante, qui permet d'effectuer des enregistrements directement exploitables par les moteurs de reconnaissance automatique de la parole (RAP). Les fonctionnalités implémentées permettent d'enregistrer différents types de discours (parole spontanée, parole élicitée, parole lue) et de partager les enregistrements avec les locuteurs. L'application permet, en outre, la construction de corpus alignés << parole source (peu dotée)-parole cible (bien dotée) >>, << parole-image >>, << parole-vidéo >> qui présentent un intérêt fort pour les technologies de la parole, notamment pour l'apprentissage non supervisé.Bien que la collecte ait été menée de façon efficace, l'exploitation (de la transcription jusqu'à la glose, en passant par la traduction) de la totalité de ces enregistrements est impossible, tant la tâche est fastidieuse et chronophage.Afin de compléter l'aide apportée aux linguistes, nous proposons d'utiliser des techniques de traitement automatique de la langue pour lui permettre de tirer partie de la totalité de ses données collectées. Parmi celles-ci, la RAP peut être utilisée pour produire des transcriptions, d'une qualité satisfaisante, de ses enregistrements.Une fois les transcriptions obtenues, le linguiste peut s'adonner à l'analyse de ses données. Afin qu'il puisse procéder à l'étude de l'ensemble de ses corpus, nous considérons l'usage des méthodes d'alignement forcé. Nous démontrons que de telles techniques peuvent conduire à des analyses linguistiques fines. En retour, nous montrons que la modélisation de ces observations peut mener à des améliorations des systèmes de RAP
In the last few decades, many scientists were concerned with the fast extinction of languages. Faced with this alarming decline of the world's linguistic heritage, action is urgently needed to enable fieldwork linguists, at least, to document languages by providing them innovative collection tools and to enable them to describe these languages. Machine assistance might be interesting to help them in such a task.This is what we propose in this work, focusing on three pillars of the linguistic fieldwork: collection, transcription and analysis.Recordings are essential, since they are the source material, the starting point of the descriptive work. Speech recording is also a valuable object for the documentation of the language.The growing proliferation of smartphones and other interactive voice mobile devices offer new opportunities for fieldwork linguists and researchers in language documentation. Field recordings should also include ethnolinguistic material which is particularly valuable to document traditions and way of living. However, large data collections require well organized repositories to access the content, with efficient file naming and metadata conventions.Thus, we have developed LIG-AIKUMA, a free Android app running on various mobile phones and tablets. The app aims to record speech for language documentation, over an innovative way.It includes a smart generation and handling of speaker metadata as well as respeaking and parallel audio data mapping.LIG-AIKUMA proposes a range of different speech collection modes (recording, respeaking, translation and elicitation) and offers the possibility to share recordings between users. Through these modes, parallel corpora are built such as "under-resourced speech - well-resourced speech", "speech - image", "speech - video", which are also of a great interest for speech technologies, especially for unsupervised learning.After the data collection step, the fieldwork linguist transcribes these data. Nonetheless, it can not be done -currently- on the whole collection, since the task is tedious and time-consuming.We propose to use automatic techniques to help the fieldwork linguist to take advantage of all his speech collection. Along these lines, automatic speech recognition (ASR) is a way to produce transcripts of the recordings, with a decent quality.Once the transcripts are obtained (and corrected), the linguist can analyze his data. In order to analyze the whole collection collected, we consider the use of forced alignment methods. We demonstrate that such techniques can lead to fine evaluation of linguistic features. In return, we show that modeling specific features may lead to improvements of the ASR systems
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Perez, Laura Haide. "Génération automatique de phrases pour l'apprentissage des langues". Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0062.

Texto completo da fonte
Resumo:
Dans ces travaux, nous explorons comment les techniques de Générations Automatiques de Langue Naturelle (GLN) peuvent être utilisées pour aborder la tâche de génération (semi-)automatique de matériel et d'activités dans le contexte de l'apprentissage de langues assisté par ordinateur. En particulier, nous montrons comment un Réalisateur de Surface (RS) basé sur une grammaire peut être exploité pour la création automatique d'exercices de grammaire. Notre réalisateur de surface utilise une grammaire réversible étendue, à savoir SemTAG, qui est une Grammaire d'Arbre Adjoints à Structure de Traits (FB-TAG) couplée avec une sémantique compositionnelle basée sur l'unification. Plus précisément, la grammaire FB-TAG intègre une représentation plate et sous-spécifiée des formules de Logique de Premier Ordre (FOL). Dans la première partie de la thèse, nous étudions la tâche de réalisation de surface à partir de formules sémantiques plates et nous proposons un algorithme de réalisation de surface basé sur la grammaire FB-TAG optimisé, qui supporte la génération de phrases longues étant donné une grammaire et un lexique à large couverture. L'approche suivie pour l'optimisation de la réalisation de surface basée sur FB-TAG à partir de sémantiques plates repose sur le fait qu'une grammaire FB-TAG peut être traduite en une Grammaire d'Arbres Réguliers à Structure de Traits (FB-RTG) décrivant ses arbres de dérivation. Le langage d'arbres de dérivation de la grammaire TAG constitue un langage plus simple que le langage d'arbres dérivés, c'est pourquoi des approches de génération basées sur les arbres de dérivation ont déjà été proposées. Notre approche se distingue des précédentes par le fait que notre encodage FB-RTG prend en compte les structures de traits présentes dans la grammaire FB-TAG originelle, ayant de ce fait des conséquences importantes par rapport à la sur-génération et la préservation de l'interface syntaxe-sémantique. L'algorithme de génération d'arbres de dérivation que nous proposons est un algorithme de type Earley intégrant un ensemble de techniques d'optimisation bien connues: tabulation, partage-compression (sharing-packing) et indexation basée sur la sémantique. Dans la seconde partie de la thèse, nous explorons comment notre réalisateur de surface basé sur SemTAG peut être utilisé pour la génération (semi-)automatique d'exercices de grammaire. Habituellement, les enseignants éditent manuellement les exercices et leurs solutions et les classent au regard de leur degré de difficulté ou du niveau attendu de l'apprenant. Un courant de recherche dans le Traitement Automatique des Langues (TAL) pour l'apprentissage des langues assisté par ordinateur traite de la génération (semi-)automatique d'exercices. Principalement, ces travaux s'appuient sur des textes extraits du Web, utilisent des techniques d'apprentissage automatique et des techniques d'analyse de textes (par exemple, analyse de phrases, POS tagging, etc.). Ces approches confrontent l'apprenant à des phrases qui ont des syntaxes potentiellement complexes et du vocabulaire varié. En revanche, l'approche que nous proposons dans cette thèse aborde la génération (semi-)automatique d'exercices du type rencontré dans les manuels pour l'apprentissage des langues. Il s'agit, en d'autres termes, d'exercices dont la syntaxe et le vocabulaire sont faits sur mesure pour des objectifs pédagogiques et des sujets donnés. Les approches de génération basées sur des grammaires associent les phrases du langage naturel avec une représentation linguistique fine de leur propriété morpho-syntaxiques et de leur sémantique grâce à quoi il est possible de définir un langage de contraintes syntaxiques et morpho-syntaxiques permettant la sélection de phrases souches en accord avec un objectif pédagogique donné. Cette représentation permet en outre d'opérer un post-traitement des phrases sélectionées pour construire des exercices de grammaire
In this work, we explore how Natural Language Generation (NLG) techniques can be used to address the task of (semi-)automatically generating language learning material and activities in Camputer-Assisted Language Learning (CALL). In particular, we show how a grammar-based Surface Realiser (SR) can be usefully exploited for the automatic creation of grammar exercises. Our surface realiser uses a wide-coverage reversible grammar namely SemTAG, which is a Feature-Based Tree Adjoining Grammar (FB-TAG) equipped with a unification-based compositional semantics. More precisely, the FB-TAG grammar integrates a flat and underspecified representation of First Order Logic (FOL) formulae. In the first part of the thesis, we study the task of surface realisation from flat semantic formulae and we propose an optimised FB-TAG-based realisation algorithm that supports the generation of longer sentences given a large scale grammar and lexicon. The approach followed to optimise TAG-based surface realisation from flat semantics draws on the fact that an FB-TAG can be translated into a Feature-Based Regular Tree Grammar (FB-RTG) describing its derivation trees. The derivation tree language of TAG constitutes a simpler language than the derived tree language, and thus, generation approaches based on derivation trees have been already proposed. Our approach departs from previous ones in that our FB-RTG encoding accounts for feature structures present in the original FB-TAG having thus important consequences regarding over-generation and preservation of the syntax-semantics interface. The concrete derivation tree generation algorithm that we propose is an Earley-style algorithm integrating a set of well-known optimisation techniques: tabulation, sharing-packing, and semantic-based indexing. In the second part of the thesis, we explore how our SemTAG-based surface realiser can be put to work for the (semi-)automatic generation of grammar exercises. Usually, teachers manually edit exercises and their solutions, and classify them according to the degree of dificulty or expected learner level. A strand of research in (Natural Language Processing (NLP) for CALL addresses the (semi-)automatic generation of exercises. Mostly, this work draws on texts extracted from the Web, use machine learning and text analysis techniques (e.g. parsing, POS tagging, etc.). These approaches expose the learner to sentences that have a potentially complex syntax and diverse vocabulary. In contrast, the approach we propose in this thesis addresses the (semi-)automatic generation of grammar exercises of the type found in grammar textbooks. In other words, it deals with the generation of exercises whose syntax and vocabulary are tailored to specific pedagogical goals and topics. Because the grammar-based generation approach associates natural language sentences with a rich linguistic description, it permits defining a syntactic and morpho-syntactic constraints specification language for the selection of stem sentences in compliance with a given pedagogical goal. Further, it allows for the post processing of the generated stem sentences to build grammar exercise items. We show how Fill-in-the-blank, Shuffle and Reformulation grammar exercises can be automatically produced. The approach has been integrated in the Interactive French Learning Game (I-FLEG) serious game for learning French and has been evaluated both based in the interactions with online players and in collaboration with a language teacher
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Perez, Laura Haide. "Génération automatique de phrases pour l'apprentissage des langues". Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0062/document.

Texto completo da fonte
Resumo:
Dans ces travaux, nous explorons comment les techniques de Générations Automatiques de Langue Naturelle (GLN) peuvent être utilisées pour aborder la tâche de génération (semi-)automatique de matériel et d'activités dans le contexte de l'apprentissage de langues assisté par ordinateur. En particulier, nous montrons comment un Réalisateur de Surface (RS) basé sur une grammaire peut être exploité pour la création automatique d'exercices de grammaire. Notre réalisateur de surface utilise une grammaire réversible étendue, à savoir SemTAG, qui est une Grammaire d'Arbre Adjoints à Structure de Traits (FB-TAG) couplée avec une sémantique compositionnelle basée sur l'unification. Plus précisément, la grammaire FB-TAG intègre une représentation plate et sous-spécifiée des formules de Logique de Premier Ordre (FOL). Dans la première partie de la thèse, nous étudions la tâche de réalisation de surface à partir de formules sémantiques plates et nous proposons un algorithme de réalisation de surface basé sur la grammaire FB-TAG optimisé, qui supporte la génération de phrases longues étant donné une grammaire et un lexique à large couverture. L'approche suivie pour l'optimisation de la réalisation de surface basée sur FB-TAG à partir de sémantiques plates repose sur le fait qu'une grammaire FB-TAG peut être traduite en une Grammaire d'Arbres Réguliers à Structure de Traits (FB-RTG) décrivant ses arbres de dérivation. Le langage d'arbres de dérivation de la grammaire TAG constitue un langage plus simple que le langage d'arbres dérivés, c'est pourquoi des approches de génération basées sur les arbres de dérivation ont déjà été proposées. Notre approche se distingue des précédentes par le fait que notre encodage FB-RTG prend en compte les structures de traits présentes dans la grammaire FB-TAG originelle, ayant de ce fait des conséquences importantes par rapport à la sur-génération et la préservation de l'interface syntaxe-sémantique. L'algorithme de génération d'arbres de dérivation que nous proposons est un algorithme de type Earley intégrant un ensemble de techniques d'optimisation bien connues: tabulation, partage-compression (sharing-packing) et indexation basée sur la sémantique. Dans la seconde partie de la thèse, nous explorons comment notre réalisateur de surface basé sur SemTAG peut être utilisé pour la génération (semi-)automatique d'exercices de grammaire. Habituellement, les enseignants éditent manuellement les exercices et leurs solutions et les classent au regard de leur degré de difficulté ou du niveau attendu de l'apprenant. Un courant de recherche dans le Traitement Automatique des Langues (TAL) pour l'apprentissage des langues assisté par ordinateur traite de la génération (semi-)automatique d'exercices. Principalement, ces travaux s'appuient sur des textes extraits du Web, utilisent des techniques d'apprentissage automatique et des techniques d'analyse de textes (par exemple, analyse de phrases, POS tagging, etc.). Ces approches confrontent l'apprenant à des phrases qui ont des syntaxes potentiellement complexes et du vocabulaire varié. En revanche, l'approche que nous proposons dans cette thèse aborde la génération (semi-)automatique d'exercices du type rencontré dans les manuels pour l'apprentissage des langues. Il s'agit, en d'autres termes, d'exercices dont la syntaxe et le vocabulaire sont faits sur mesure pour des objectifs pédagogiques et des sujets donnés. Les approches de génération basées sur des grammaires associent les phrases du langage naturel avec une représentation linguistique fine de leur propriété morpho-syntaxiques et de leur sémantique grâce à quoi il est possible de définir un langage de contraintes syntaxiques et morpho-syntaxiques permettant la sélection de phrases souches en accord avec un objectif pédagogique donné. Cette représentation permet en outre d'opérer un post-traitement des phrases sélectionées pour construire des exercices de grammaire
In this work, we explore how Natural Language Generation (NLG) techniques can be used to address the task of (semi-)automatically generating language learning material and activities in Camputer-Assisted Language Learning (CALL). In particular, we show how a grammar-based Surface Realiser (SR) can be usefully exploited for the automatic creation of grammar exercises. Our surface realiser uses a wide-coverage reversible grammar namely SemTAG, which is a Feature-Based Tree Adjoining Grammar (FB-TAG) equipped with a unification-based compositional semantics. More precisely, the FB-TAG grammar integrates a flat and underspecified representation of First Order Logic (FOL) formulae. In the first part of the thesis, we study the task of surface realisation from flat semantic formulae and we propose an optimised FB-TAG-based realisation algorithm that supports the generation of longer sentences given a large scale grammar and lexicon. The approach followed to optimise TAG-based surface realisation from flat semantics draws on the fact that an FB-TAG can be translated into a Feature-Based Regular Tree Grammar (FB-RTG) describing its derivation trees. The derivation tree language of TAG constitutes a simpler language than the derived tree language, and thus, generation approaches based on derivation trees have been already proposed. Our approach departs from previous ones in that our FB-RTG encoding accounts for feature structures present in the original FB-TAG having thus important consequences regarding over-generation and preservation of the syntax-semantics interface. The concrete derivation tree generation algorithm that we propose is an Earley-style algorithm integrating a set of well-known optimisation techniques: tabulation, sharing-packing, and semantic-based indexing. In the second part of the thesis, we explore how our SemTAG-based surface realiser can be put to work for the (semi-)automatic generation of grammar exercises. Usually, teachers manually edit exercises and their solutions, and classify them according to the degree of dificulty or expected learner level. A strand of research in (Natural Language Processing (NLP) for CALL addresses the (semi-)automatic generation of exercises. Mostly, this work draws on texts extracted from the Web, use machine learning and text analysis techniques (e.g. parsing, POS tagging, etc.). These approaches expose the learner to sentences that have a potentially complex syntax and diverse vocabulary. In contrast, the approach we propose in this thesis addresses the (semi-)automatic generation of grammar exercises of the type found in grammar textbooks. In other words, it deals with the generation of exercises whose syntax and vocabulary are tailored to specific pedagogical goals and topics. Because the grammar-based generation approach associates natural language sentences with a rich linguistic description, it permits defining a syntactic and morpho-syntactic constraints specification language for the selection of stem sentences in compliance with a given pedagogical goal. Further, it allows for the post processing of the generated stem sentences to build grammar exercise items. We show how Fill-in-the-blank, Shuffle and Reformulation grammar exercises can be automatically produced. The approach has been integrated in the Interactive French Learning Game (I-FLEG) serious game for learning French and has been evaluated both based in the interactions with online players and in collaboration with a language teacher
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia