Siga este enlace para ver otros tipos de publicaciones sobre el tema: Language spécifique au domaine.

Tesis sobre el tema "Language spécifique au domaine"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Language spécifique au domaine".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Pradet, Quentin. "Annotation en rôles sémantiques du français en domaine spécifique". Sorbonne Paris Cité, 2015. https://hal.inria.fr/tel-01182711/document.

Texto completo
Resumen
Cette thèse de Traitement Automatique des Langues a pour objectif l'annotation automatique en rôles sémantiques du français en domaine spécifique. Cette tâche désambiguïse le sens des prédicats d'un texte et annote les syntagmes liés avec des rôles sémantiques tels qu'Agent, Patient ou Destination. Elle aide de nombreuses applications dans les domaines où des corpus annotés existent, mais est difficile à utiliser quand ce n'est pas le cas. Nous avons d'abord évalué sur le corpus FrameNet une méthode existante d'annotation basée uniquement sur VerbNet et donc indépendante du domaine considéré. Nous montrons que des améliorations conséquentes peuvent être obtenues à la fois d'un point de vue syntaxique avec la prise en compte de la voix passive et d'un point de vue sémantique en utilisant les restrictions de sélection indiquées dans VerbNet. Pour utiliser cette méthode en français, nous traduisons deux ressources lexicales anglaises. Nous commençons par la base de données lexicales WordNet. Nous traduisons ensuite le lexique VerbNet dans lequel les verbes sont regroupés sémantiquement grâce à leurs traits syntaxiques. La traduction, VerbNet, a été obtenue en réutilisant deux lexiques verbaux du français (le Lexique-Grammaire et Les Verbes Français) puis en modifiant manuellement l'ensemble des informations obtenues. Enfin, une fois ces briques en place, nous évaluons la faisabilité de l'annotation en rôles sémantiques en anglais et en français dans trois domaines spécifiques. Nous évaluons quels sont les avantages et inconvénients de se baser sur VerbNet et VerbuNet pour annoter ces domaines, avant d'indiquer nos perspectives pour poursuivre ces travaux
Ln th is Natural Language Processing Ph. D. Thesis, we aim to perform semantic role labeling on French domain-specific texts. This task first disambiguates the sense of predicates in a given text and annotates its child chunks with semantic roles such as Agent, Patient or Destination. The task helps many applications in domains where annotated corpora exist, but is difficult to use otherwise. We first evaluate on the FrameNet corpus an existing method based on VerbNet, which explains why the method is domain-independant. We show that substantial improvements can be obtained. We first use syntactic information by handling the passive voice. Next, we use semantic informations by taking advantage of the selectional restrictions present in VerbNet. To apply this method to French, we first translate lexical resources. We first translate the WordNet lexical database. Next, we translate the VerbNet lexicon which is organized semantically using syntactic information. We obtains its translation, VerbuNet, by reusing two French verb lexicons (the Lexique-Grammaire and Les Verbes Français) and by manually modifying and reorganizing the resulting lexicon. Finally, once those building blocks are in place, we evaluate the feasibilty of semantic role labeling of French and English in three specific domains. We study the pros and cons of using VerbNet and VerbnNet to annotate those domains before explaining our future work
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Machlouzarides-Shalit, Antonia. "Development of subject-specific representations of neuroanatomy via a domain-specific language". Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG041.

Texto completo
Resumen
Dans le domaine de la cartographie cérébrale, nous avons identifié le besoin d'un outil fondé sur la connaissance détaillée des sulci. Dans cette thèse, nous développons un nouvel outil de cartographie cérébrale appelé NeuroLang, qui s’appuie sur la géométrie spatiale du cerveau.Nous avons abordé cette question avec deux approches: premièrement, nous avons fermement fondé notre théorie sur la neuroanatomie classique. Deuxièmement, nous avons conçu et implémenté des méthodes pour les requêtes spécifiques au sulcus dans le langage spécifique au domaine, NeuroLang. Nous avons testé notre méthode sur 52 sujets et évalué les performances de NeuroLang pour des cartographie du cortex spécifiques à la population et au sujet. Ensuite, nous proposons une nouvelle organisation hiérarchique basée sur les données de la stabilité sulcal appuyée sur ces données.Pour conclure, nous avons résumé l'implication de notre méthode dans le domaine actuel, ainsi que notre contribution globale au domaine de la cartographie cérébrale
Within the field of brain mapping, we identified the need for a tool which is grounded in the detailed knowledge of individual variability of sulci. In this thesis, we develop a new brain mapping tool called NeuroLang, which utilises the spatial geometry of the brain.We approached this challenge with two perspectives: firstly, we grounded our theory firmly in classical neuroanatomy. Secondly, we designed and implemented methods for sulcus-specific queries in the domain-specific language, NeuroLang. We tested our method on 52 subjects and evaluated the performance of NeuroLang for population and subject-specific representations of neuroanatomy. Then, we present our novel, data-driven hierarchical organisation of sulcal stability.To conclude, we summarise the implication of our method within the current field, as well as our overall contribution to the field of brain mapping
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Cremet, Françoise. "Étude de cas sur l'anglais des relations internationales dans le domaine du transport aérien : esquisse d'un enseignement spécifique". Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090013.

Texto completo
Resumen
Comment améliorer l'efficacité de nos représentants aux réunions internationales ? La langue de travail, l'anglais, n'est plus la langue maternelle : ce handicap par rapport aux délégués anglo-saxons peut-il être surmonté ? Quel enseignement proposer à cet effet ? Le transport aérien représente, pour répondre à cette question, un excellent laboratoire. International par vocation, il a donné naissance à une grande variété d'organisations. Les compagnies aériennes se sont-elles préoccupées des difficultés rencontrées par leurs délégués quand ils participent aux nombreuses réunions tenues sous l'égide de ces organisations ? Si l'enseignement de l'anglais général est bien intégré dans les actions de formation permanente, la spécificité des situations rencontrées au cours des réunions internationales, à l'inverse, ne semble pas, à ce jour, avoir fait l'objet d'un soin particulier. La présente recherche se fonde principalement sur des observations (enquêtes, enregistrements) réalisés lors de réunions portant sur des sujets variés, à différents niveaux hiérarchiques, dans le cadre de l'OACI, de l’IATA, et d'autres organisations dont l'objet est plus spécifique. Plusieurs approches sont successivement mises en œuvre pour construire des principes pédagogiques : analyse situationnelle, dépouillement d'enquêtes, analyse lexicale par ordinateur, comparaison entre différentes situations de communication, application de la méthode d'analyse du discours de Sinclair et Coulthard dans l'optique de la réunion, étude notionnelle fonctionnelle à partir de la taxonomie de Wilkins. Cette démarche permet de dégager des propositions pour un enseignement spécifique autour de trois grands axes : 1- former aux procédures anglo-saxonnes de conduite des réunions : un comportement précis doit être assimilé. 2- enseigner comment présenter une communication en anglais et montrer la specificité de la langue des conférences. 3- faire pratiquer cette procédure et cette langue à l'aide d'exercices construits sur des documents authentiques. Cet enseignement s'adresse à des personnes ayant déjà atteint un niveau intermédiaire ou avance en anglais général, et vise à leur faire acquérir la plupart des aptitudes socio-linguistiques nécessaires
How can we improve the effectiveness of our representatives to international meetings? The working language, english, is not their mother tongue. Can this disadvantage vis-a-vis the anglo-saxon delegates be overcome? Which teaching approaches might be suggested for this problem? The field of air transportation provides an excellent proving ground for resolving these issues. International by definition, it has given birth to a wide variety of organizations. Have airline companies tried to settle the problems met by their delegates taking part in the numerous meetings held under the auspices of these organizations? The teaching of general english is usually covered by vocational training. It would seem, however, that little has been done so far to deal with the specific needs of international meetings. The research presented here is based primarily on observations (surveys, recordings) made during the course of meetings dealing with various subjects and held at different hierarchical levels, within icao, iata or more specialized organizations several methods have been used to construct pedagogical principles : situational analysis, survey analysis, computerized lexical analysis, comparisons between different communicative situations, application of the system of discourse analysis developed by Sinclair and Coulthard to the language of meetings, notional functional analysis based upon Wilkins' taxonomy. This approach has led to proposals for specific teaching materials oriented towards three main objectives: 1- to train non-native speakers to recognize and use formal speaking procedures 2- to teach students how to present a paper in english and to demonstrate the specificity of the language used in conferences 3- to make learners practise both procedure and language through exercices based on authentic material. Such a course is geared to people at an intermediate or advanced level of general english and aims to help them acquire most of the socio-linguistic skills they need
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Vallejo, Paola. "Réutilisation de composants logiciels pour l'outillage de DSML dans le contexte des MPSoC". Thesis, Brest, 2015. http://www.theses.fr/2015BRES0101/document.

Texto completo
Resumen
La conception d’un langage de modélisation pour domaine spécifique (DSML) implique la conception d’un outillage dédié qui met en oeuvre des fonctionnalités de traitement et d’analyse pour ce langage. Dans bien des cas, les fonctionnalités à mettre en oeuvre existent déjà , mais elles s’appliquent à des portions ou à des variantes du DSML que le concepteur manipule. Réutiliser ces fonctionnalités existantes est un moyen de simplifier la production de l’outillage d’un nouveau DSML. La réutilisation implique que les données du DSML soient adaptées afin de les rendre valides du point de vue de la fonctionnalité à réutiliser. Si l’adaptation est faite et les données sont placées dans le contexte de la fonctionnalité, elle peut être réutilisée. Le résultat produit par l’outil reste dans le contexte de l’outil et il doit être adapté afin de le placer dans le contexte du DSML (migration inverse). Dans ce cadre, la réutilisation n’a de sens que si les deux adaptations de données sont peu coûteuses. L’objectif de cette thèse est de proposer un mécanisme qui intègre la migration, la réutilisation et la migration inverse. La principale contribution est une approche qui facilite la réutilisation de fonctionnalités existantes via des migrations de modèles. Cette approche facilite la production de l’outillage d’un DSML. Elle permet de faire des migrations réversibles entre deux DSMLs sémantiquement proches. L’utilisateur est guidé lors du processus de réutilisation pour fournir rapidement l’outillage complet et efficace d’un DSML. L’approche a été formalisée et appliquée à un DSML (Orcc) dans le contexte des MPSoC
Designers of domain specific modeling languages (DSMLs) must provide all the tooling of these languages. In many cases, the features to be developped already exist, but it applies to portions or variants of the DSML.One way to simplify the implementation of these features is by reusing the existing functionalities. Reuse means that DSML data must be adapted to be valid according to the functionality to be reused. If the adaptation is done and the data are placed in the context of the functionality, it can be reused. The result produced by the tool remains in the context of the tool and it must be adapted to be placed in the context of the DSML (reverse migration).In this context, reuse makes sense only if the migration and the reverse migration are not very expensive. The main objective of this thesis is to provide a mechanism to integrate the migration, the reuse and the reversemigration and apply them efficiently. The main contribution is an approach that facilitates the reuse of existing functionalities by means of model migrations. This approach facilitates the production of the tooling for a DSML. It allows reversible migration between two DSMLs semantically close. The user is guided during the ruse process to quickly provide the tooling of his DSML.The approach has been formalised et applied to a DSML (Orcc) in the context of the MPSoC
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Gani, Kahina. "Using timed automata formalism for modeling and analyzing home care plans". Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22628/document.

Texto completo
Resumen
Dans cette thèse nous nous sommes intéressés aux problèmes concernant la conception et la gestion des plans de soins à domicile. Un plan de soins à domicile définit l'ensemble des activités médicales et/ou sociales qui sont menées jour après jour au domicile d'un patient. Ce plan de soins est généralement construit à travers un processus complexe impliquant une évaluation complète des besoins du patient ainsi que son environnement social et physique. La spécification de plans de soins à domicile est difficile pour plusieurs raisons: les plans de soins à domicile sont par nature des processus non structurés qui impliquent des activités répétitives mais irrégulières, dont la spécification requiert des expressions temporelles complexes. Ces caractéristiques font que les plans de soins à domicile sont difficiles à modéliser en utilisant les technologies traditionnelles de modélisation de processus. Tout d'abord, nous présentons l'approche basée sur les DSL (Langage spécifique au domaine) qui permet d'exprimer les plans de soins à domicile en utilisant des abstractions de haut niveau et orientées utilisateur. Le DSL nous permet à travers cette thèse de proposer un langage de temporalités permettant de spécifier les temporalités des activités du plan de soins à domicile. Ensuite, nous décrivons comment les plans de soins à domicile, formalisés grâce aux automates temporisés, peuvent être générés à partir de ces abstractions. Nous proposons une approche en trois étapes qui consiste à: (i) le mapping entre les spécifications temporelles élémentaires et les automates temporisés appelés "pattern automata", (ii) la combinaison des "patterns automata" afin de construire les automates d'activités en utilisant l'algorithme de composition que nous avons déni, et aussi (iii) la construction de l'automate de plan de soins à domicile global. L'automate de plan de soins à domicile résultant englobe tous les schedules autorisés des activités pour un patient donné. Enfin, nous montrons comment la vérification et le suivi de l'automate du plan de soins à domicile résultant peuvent être faits en utilisant des techniques et des outils existants, en particulier en utilisant l'outil de verification UPPAAL
In this thesis we are interested in the problems underlying the design and the management of home care plans. A home care plan defines the set of medical and/or social activities that are carried out day after day at a patient's home. Such a care plan is usually constructed through a complex process involving a comprehensive assessment of patient's needs as well as his/her social and physical environment. Specication of home care plans is challenging for several reasons: home care plans are inherently nonstructured processes which involve repetitive, but irregular, activities, whose specification requires complex temporal expressions. These features make home care plans difficult to model using traditional process modeling technologies. First, we present a DSL (Domain Specific Language) based approach tailored to express home care plans using high level and user-oriented abstractions. DSL enables us through this thesis to propose a temporalities language to specify temporalities of home care plan activities. Then, we describe how home care plans, formalized as timed automata, can be generated from these abstractions. We propose a three-step approach which consists in (i) mapping between elementary temporal specifications and timed automata called Pattern automata, (ii) combining patterns automata to build the activity automata using our composition algorithm and then (iii) constructing the global care plan automaton. The resulting care plan automaton encompasses all the possible allowed schedules of activities for a given patient. Finally, we show how verification and monitoring of the resulting care plan can be handled using existing techniques and tools, especially using UPPAAL Model Checker
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Iovene, Valentin. "Answering meta-analytic questions on heterogeneous and uncertain neuroscientific data with probabilistic logic programming". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG099.

Texto completo
Resumen
Cette thèse contribue au développement d'un langage de programmation logique probabiliste spécifique aux neurosciences cognitives, appelé NeuroLang, et présente certaines de ses applications à la méta-analyse d'études en neuroimagerie. En reposant sur les formalismes logiques comme datalog, et leurs extensions probabilistes, nous montrons comment NeuroLang permet de mettre en relation des données incertaines et hétérogènes pour formuler des hypothèses méta-analytiques riches. Nous encodons la base de données Neurosynth dans un programme NeuroLang et formulons des requêtes logiques probabilistes permettant d'obtenir des cartes cérébrales d'association à un terme spécifique mentionné dans les études de le base de données et de coactivation similaires aux outils existants, et mettant en évidence des réseaux cérébraux connus. Nous montrons que cette modélisation est correcte en traduisant un programme logique probabiliste en un réseau bayésien dont la distribution de probabilité jointe mène aux mêmes estimations que l'outil Neurosynth. Puis, nous montrons que modéliser l'association entre études et termes de manière probabiliste à partir des mesures TF-IDF (term frequency-inverse document frequency) permet d'obtenir, pour un nombre d'études réstreint, une meilleure précision lors de la résolution de requêtes conjonctives sur des données simulées, et une meilleure cohérence sur des données réelles, que par l'application d'un seuil. Enfin, nous utilisons NeuroLang pour formaliser et tester des hypothèses concrètes de cartographie cérébrale fonctionnelle, reproduisant ainsi les résultats d'études précédentes. En calculant la solution de requêtes ségrégatives combinant la base de données Neurosynth, les modèles de sujet et l'atlas fonctionnel DiFuMo, nous supportons l'existence d'une organisation hétérogène du réseau cérébral fronto-pariétal relié au contrôle cognitif, et supportons l'implication d'une région du lobule fusiforme appelée visual word form area (VWFA) dans des tâches cognitives d'attention, en plus des tâches cognitives reliées au langage
This thesis contributes to the development of a probabilistic logic programming language specific to the domain of cognitive neuroscience, coined NeuroLang, and presents some of its applications to the meta-analysis of the functional brain mapping literature. By relying on logic formalisms such as datalog, and their probabilistic extensions, we show how NeuroLang makes it possible to combine uncertain and heterogeneous data to formulate rich meta-analytic hypotheses. We encode the Neurosynth database into a NeuroLang program and formulate probabilistic logic queries resulting in term-association brain maps and coactivation brain maps similar to those obtained with existing tools, and highlighting existing brain networks. We prove the correctness of our model by using the joint probability distribution defined by the Bayesian network translation of probabilistic logic programs, showing that queries lead to the same estimations as Neurosynth. Then, we show that modeling term-to-study associations probabilistically based on term frequency-document inverse frequency (TF-IDF) measures results in better accuracy on simulated data, and a better consistency on real data, for two-term conjunctive queries on smaller sample sizes. Finally, we use NeuroLang to formulate and test concrete functional brain mapping hypotheses, reproducing past results. By solving segregation logic queries combining the Neurosynth database, topic models, and the data-driven functional atlas DiFuMo, we find supporting evidence of the existence of an heterogeneous organisation of the frontoparietal control network (FPCN), and find supporting evidence that the subregion of the fusiform gyrus called visual word form area (VWFA) is recruited within attentional tasks, on top of language-related cognitive tasks
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Peres, Florent. "Réseaux de Petri temporels à inhibitions / permissions : application à la modélisation et vérification de systèmes de tâches temps réel". Phd thesis, INSA de Toulouse, 2010. http://tel.archives-ouvertes.fr/tel-00462521.

Texto completo
Resumen
Les systèmes temps réel (STR) sont au coeur de machines souvent jugés critiques pour la sécurité : ils en contrôlent l'exécution afin que celles-ci se comportent de manière sûre dans le contexte d'un environnement dont l'évolution peut être imprévisible. Un STR n'a d'autre alternative que de s'adapter `a son environnement : sa correction dépend des temps de réponses aux stimuli de ce dernier. Il est couramment admis que le formalisme des réseaux de Petri temporels (RdPT) est adapté à la description des STR. Cependant, la modélisation de systèmes simples, ne possédant que quelques tâches périodiques ordonnancées de façon basique se révèle être un exercice souvent complexe. En premier lieu, la modélisation efficace d'une gamme étendue de politiques d'ordonnancements se heurte à l'incapacité des RdPT à imposer un ordre d'apparition à des évènements concurrents survenant au même instant. D'autre part, les STR ont une nette tendance à être constitués de caract éristiques récurrentes, autorisant une modélisation par composants. Or les RdPT ne sont guère adaptés à une utilisation compositionnelle un tant soit peu générale. Afin de résoudre ces deux problèmes, nous proposons dans cette thèse Cifre - en partenariat entre Airbus et le Laas-Cnrs - d'étendre les RdPT à l'aide de deux nouvelles relations, les relations d'inhibition et de permission, permettant de spécifier de manière plus fine les contraintes de temps. Afin de cerner un périmètre clair d'adéquation de cette nouvelle extension à la modélisation des systèmes temps réel, nous avons défini Pola, un langage spécifique poursuivant deux objectifs : déterminer un sous-ensemble des systèmes temps réel modélisables par les réseaux de Petri temporels à inhibitions/permissions et fournir un langage simple à la communauté temps réel dont la vérification, idéalement automatique, est assurée par construction. Sa sémantique est donnée par traduction en réseaux de Petri temporels à inhibitions/permissions. L'explorateur d'espace d'états de la boite à outils Tina a été étendu afin de permettre la vérification des descriptions Pola.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Gratien, Jean-Marc. "A DSEL in C++ for lowest-order methods for diffusive problem on general meshes". Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM018/document.

Texto completo
Resumen
Les simulateurs industriels deviennent de plus en plus complexes car ils doivent intégrer de façon performante des modèles physiques complets et des méthodes de discrétisation évoluées. Leur mise au point nécessite de gérer de manière efficace la complexité des modèles physiques sous-jacents, la complexité des méthodes numériques utilisées, la complexité des services numériques de bas niveau nécessaires pour tirer parti des architectures matérielle modernes et la complexité liée aux langages informatiques. Une réponse partielle au problème est aujourd'hui fournie par des plate-formes qui proposent des outils avancés pour gérer de façon transparente la complexité liée au parallélisme. Cependant elles ne gèrent que la complexité du matériel et les services numériques de bas niveau comme l'algèbre linéaire. Dans le contexte des méthodes Éléments Finis (EF), l'existence d'un cadre mathématique unifié a permis d'envisager des outils qui permettent d'aborder aussi la complexité issue des méthodes numériques et celle liée aux problèmes physiques, citons, par exemple, les projets Freefem++, Getdp, Getfem++, Sundance, Feel++ et Fenics. Le travail de thèse a consisté à étendre cette approche aux méthodes d'ordre bas pour des systèmes d'EDPs, méthodes qui souffraient jusqu'à maintenant d'une absence d'un cadre suffisamment général permettant son extension à des problèmes différents. Des travaux récents ont résolue cette difficulté, par l'introduction d'une nouvelle classe de méthodes d'ordre bas inspirée par les éléments finis non conformes. Cette formulation permet d'exprimer dans un cadre unifié les schémas VF multi-points et les méthodes DFM/VFMH. Ce nouveau cadre a permis la mise au point d'un langage spécifique DSEL en C++ qui permet de développer des applications avec un haut niveau d'abstraction, cachant la complexité des méthodes numériques et des services bas niveau garanties de haute performances. La syntaxe et les techniques utilisées sont inspirée par celles de Feel++. Le DSEL a été développé à partir de la plate-forme Arcane, et embarqué dans le C++. Les techniques de DSEL permettent de représenter un problème et sa méthode de résolution avec une expression, parsée à la compilation pour générer un programme, et évaluée à l'exécution pour construire un système linéaire que l'on peut résoudre pour trouver la solution du problème. Nous avons mis au point notre DSEL à l'aide d'outils standard issus de la bibliothèque Boost puis l'avons validé sur divers problèmes académiques non triviaux tels que des problèmes de diffusion hétérogène et le problème de Stokes. Dans un deuxième temps, dans le cadre du projet ANR HAMM (Hybrid Architecture and Multiscale Methods), nous avons validé notre approche en complexifiant le type de méthodes abordées et le type d'architecture matérielle cible pour nos programmes. Nous avons étendu le formalisme mathématique sur lequel nous nous basons pour pouvoir écrire des méthodes multi-échelle puis nous avons enrichi notre DSEL pour pouvoir implémenter de telles méthodes. Afin de pouvoir tirer partie de façon transparente des performances de ressources issues d'architectures hybrides proposant des cartes graphiques de type GPGPU, nous avons mis au point une couche abstraite proposant un modèle de programmation unifié qui permet d'accéder à différents niveaux de parallélisme plus ou moins fin en fonction des spécificités de l'architecture matérielle cible. Nous avons validé cette approche en évaluant les performances de cas tests utilisant des méthodes multi-échelle sur des configurations variés de machines hétérogènes. Pour finir nous avons implémenté des applications variées de type diffusion-advection-réaction, de Navier-Stokes incompressible et de type réservoir. Nous avons validé la flexibilité de notre approche et la capacité qu'elle offre à appréhender des problèmes variés puis avons étudié les performances des diverses implémentations
Industrial simulation software has to manage : the complexity of the underlying physical models, usually expressed in terms of a PDE system completed with algebraic closure laws, the complexity of numerical methods used to solve the PDE systems, and finally the complexity of the low level computer science services required to have efficient software on modern hardware. Nowadays, this complexity management becomes a key issue for the development of scientific software. Some frameworks already offer a number of advanced tools to deal with the complexity related to parallelism in a transparent way. However, all these frameworks often provide only partial answers to the problem as they only deal with hardware complexity and low level numerical complexity like linear algebra. High level complexity related to discretization methods and physical models lack tools to help physicists to develop complex applications. New paradigms for scientific software must be developed to help them to seamlessly handle the different levels of complexity so that they can focus on their specific domain. Generative programming, component engineering and domain-specific languages (either DSL or DSEL) are key technologies to make the development of complex applications easier to physicists, hiding the complexity of numerical methods and low level computer science services. These paradigms allow to write code with a high level expressive language and take advantage of the efficiency of generated code for low level services close to hardware specificities. In the domain of numerical algorithms to solve partial differential equations, their application has been up to now limited to Finite Element (FE) methods, for which a unified mathematical framework has been existing for a long time. Such kinds of DSL have been developed for finite element or Galerkin methods in projects like Freefem++, Getdp, Getfem++, Sundance, Feel++ and Fenics. A new consistent unified mathematical frame has recently emerged and allows a unified description of a large family of lowest-order methods. This framework allows then, as in FE methods, the design of a high level language inspired from the mathematical notation, that could help physicists to implement their application writing the mathematical formulation at a high level. We propose to develop a language based on that frame, embedded in the C++ language. Our work relies on a mathematical framework that enables us to describe a wide family of lowest order methods including multiscale methods based on lowest order methods. We propose a DSEL developed on top of Arcane platform, based on the concepts presented in the unified mathematical frame and on the Feel++ DSEL. The DSEL is implemented with the Boost.Proto library by Niebler, a powerful framework to build a DSEL in C++. We have proposed an extension of the computational framework to multiscale methods and focus on the capability of our approach to handle complex methods.Our approach is extended to the runtime system layer providing an abstract layer that enable our DSEL to generate efficient code for heterogeneous architectures. We validate the design of this layer by benchmarking multiscale methods. This method provides a great amount of independent computations and is therefore the kind of algorithms that can take advantage efficiently of new hybrid hardware technology. Finally we benchmark various complex applications and study the performance results of their implementations with our DSEL
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Bourgeois, Florent. "Système de Mesure Mobile Adaptif Qualifié". Thesis, Mulhouse, 2018. http://www.theses.fr/2018MULH8953/document.

Texto completo
Resumen
Les dispositifs matériels mobiles proposent des capacités de mesure à l'aide de capteurs soit embarqués, soit connectés. Ils ont vocation à être de plus en plus utilisés dans des processus de prises de mesures. Ils présentent un caractère critique dans le sens où ces informations doivent être fiables, car potentiellement utilisées dans un contexte exigeant. Malgré une grande demande, peu d'applications proposent d'assister les utilisateurs lors de relevés exploitant ces capacités. Idéalement, ces applications devraient proposer des méthodes de visualisation, de calcul, des procédures de mesure et des fonctions de communications permettant la prise en charge de capteurs connectés ou encore la génération de rapports. La rareté de ces applications se justifie par les connaissances nécessaires pour permettre la définition de procédures de mesure correctes. Ces éléments sont apportés par la métrologie et la théorie de la mesure et sont rarement présents dans les équipes de développement logiciel. De plus, chaque utilisateur effectue des activités de mesure spécifiques au domaine de son champ d'activités, ce qui implique le développement d'applications spécifiques de qualité pouvant être certifiées par des experts. Ce postulat apporte la question de recherche à laquelle les travaux présentés répondent: Comment proposer une approche pour la conception d’applications adaptées à des procédures de mesures spécifiques. Les procédures de mesure pouvant être configurées par un utilisateur final La réponse développée est une "plateforme" de conception d'applications d'assistance à la mesure. Elle permet d'assurer la conformité des procédures de mesures sans l'intervention d'expert de la métrologie. Pour cela elle est construite en utilisant des concepts issus de la métrologie, de l'Ingénierie Dirigée par les Modèles et de la logique du premier ordre. Une étude du domaine de la métrologie permet de mettre en évidence la nécessité d'une expertise des procédures de mesure impliquées dans les applications. Cette expertise comprend des termes et des règles assurant l'intégrité et la cohérence d'une procédure de mesure. Un modèle conceptuel du domaine de la métrologie est proposé. Ce modèle conceptuel est ensuite intégré au processus de développement d'une application. Cette intégration se fait par un encodage de ce modèle conceptuel sous la forme d'un schéma des connaissances de la métrologie en logique du premier ordre. Il permet, la vérification du respect des contraintes inhérentes à la métrologie dans une procédure de mesure. Cette vérification est réalisée en confrontant les procédures de mesures au schéma sous forme de requêtes. Ces requêtes sont décrites à l'aide d'un langage proposé par le schéma. Les applications d'assistance à la mesure nécessitent d'exposer à l'utilisateur un processus de mesure impliquant relevés et affichages de mesures étape par étape. Cela implique de pouvoir décrire un processus de mesure et d'en définir les interfaces et le schéma d'évolution. Pour cela, un éditeur d'application est proposé. Cet éditeur propose un langage spécifique dédié à la description d'applications d'assistance à la mesure. Ce langage est construit à partir des concepts, formalismes et outils proposés par l'environnement de métamodélisation Diagrammatic Predicate Framework (DPF). Le langage comporte des contraintes syntaxiques prévenant les erreurs de construction au niveau logiciel tout en réduisant l'écart sémantique entre l'architecte logiciel l'utilisant et un potentiel expert de la métrologie. [...]
Mobile devices offer measuring capabilities using embedded or connected sensors. They are more and more used in measuring processes. They are critical because the performed measurements must be reliable because possibly used in rigorous context. Despite a real demand, there are relatively few applications assisting users with their measuring processes that use those sensors. Such assistant should propose methods to visualise and to compute measuring procedures while using communication functions to handle connected sensors or to generate reports. Such rarity of applications arises because of the knowledges required to define correct measuring procedures. Those knowledges are brought by metrology and measurement theory and are rarely found in software development teams. Moreover, every user has specific measuring activities depending on his field of work. That implies many quality applications developments which could request expert certification. These premises bring the research question the presented works answer : What approach enables the conception of applications suitable to specific measurement procedures considering that the measurement procedures could be configured by the final user. The presented works propose a platform for the development of measuring assistant applications. The platform ensure the conformity of measuring processes without involving metrology experts. It is built upon metrology, model driven engineering and first order logic concepts. A study of metrology enables to show the need of applications measuring process expert evaluation. This evaluation encompasses terms and rules that ensure the process integrity and coherence. A conceptual model of the metrology domain is proposed. That model is then employed in the development process of applications. It is encoded into a first order logic knowledge scheme of the metrology concepts. That scheme enables to verify that metrology constraints holds in a given measuring process. The verification is performed by confronting measuring processes to the knowledge scheme in the form of requests. Those requests are described with a request language proposed by the scheme. Measuring assistant applications require to propose to the user a measuring process that sequences measuring activities. This implies to describe a measuring process, and also to define interactive interfaces and sequencing mechanism. An application editor is proposed. That editor uses a domain specific language dedicated to the description of measuring assistant applications. The language is built upon concepts, formalisms and tools proposed by the metamodeling environment : Diagrammatic Predicat Framework (DPF). The language encompasses syntactical constraints that prevent construction errors on the software level while reducing the semantical gap between the software architect using it and a potential metrology expert. Then, mobile platforms need to execute a behaviour conforming to the editor described one. An implementation modelling language is proposed. This language enables to describe measuring procedures as sequences of activities. Activities imply to measure, compute and present values. Quantities are all abstracted by numerical values. This eases their computation and the use of sensors. The implementation model is made up of software agents. A mobile application is also proposed. The application is built upon a framework of agents, an agent network composer and a runtime system. The application is able to consider an implementation model and to build the corresponding agent network in order to propose a behaviour matching the end users needs. This enables to answer to any user needs, considering he can access to the implementation model, without requiring to download several applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Ridene, Youssef. "Ingéniérie dirigée par les modèles pour la gestion de la variabilité dans le test d'applications mobiles". Thesis, Pau, 2011. http://www.theses.fr/2011PAUU3010/document.

Texto completo
Resumen
L'engouement du grand public pour les applications mobiles, dont le nombre ne cessede croître, a rendu les utilisateurs de plus en plus exigeants quant à la qualité de cesapplications. Seule une procédure de test efficace permet de répondre à ces exigences.Dans le contexte des applications embarquées sur téléphones mobiles, le test est unetâche coûteuse et répétitive principalement à cause du nombre important de terminauxmobiles qui sont tous différents les uns des autres.Nous proposons dans cette thèse le langage MATeL, un DSML (Domain-Specific ModelingLanguage) qui permet de d’écrire des scénarios de test spécifiques aux applicationsmobiles. Sa syntaxe abstraite, i.e. un méta modèle et des contraintes OCL, permet auconcepteur de manipuler les concepts métier du test d'applications mobiles (testeur, mobileou encore résultats attendus et résultats obtenus). Par ailleurs, il permet d'enrichirces scénarii avec des points de variabilité qui autorisent de spécifier des variations dansle test en fonction des particularités d'un mobile ou d'un ensemble de mobiles. La syntaxeconcrète de MATeL, qui est inspirée de celle des diagrammes de séquence UML,ainsi que son environnement basé sur Eclipse permettent à l'utilisateur de concevoir desscénarii relativement facilement.Grâce à une plateforme de test en ligne construite pour les besoins de notre projet,il est possible d'exécuter les scénarii sur plusieurs téléphones différents. La démarcheest illustrée dans cette thèse à travers des cas d'utilisation et des expérimentations quiont permis de vérifier et valider notre proposition
Mobile applications have increased substantially in volume with the emergence ofsmartphones. Ensuring high quality and successful user experience is crucial to the successof such applications. Only an efficient test procedure allows developers to meet these requirements. In the context of embedded mobile applications, the test is costly and repetitive. This is mainly due to the large number of different mobile devices. In this thesis, we describe MATeL, a Domain-Specific Modeling Language (DSML) for designing test scenarios for mobile applications. Its abstract syntax, i.e. a meta model and OCL constraints, enables the test designer to manipulate mobile applications testing concepts such as tester, mobile or outcomes and results. It also enables him/her to enrich these scenarios with variability points in the spirit of Software Product-Line engineering, that can specify variations in the test according to the characteristics of one mobile or a set of mobiles. The concrete syntax of MATeL that is inspired from UML sequence diagrams and its environment based on Eclipse allow the user to easily develop scenarios. MATeL is built upon an industrial platform (a test bed) in order to be able to run scenarios on several different phones. The approach is illustrated in this thesis through use cases and experiments that led to verify and validate our contribution
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Křikava, Filip. "Langage de modélisation spécifique au domaine pour les architectures logicielles auto-adaptatives". Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00935083.

Texto completo
Resumen
E calcul autonome vise à concevoir des logiciels qui prennent en compte les variations dans leur environnement d'exécution. Les boucles de rétro-action (FCL) fournissent un mécanisme d'auto-adaptation générique, mais leur intégration dans des systèmes logiciels soulève de nombreux défis. Cette thèse s'attaque au défi d'intégration, c.à.d. la composition de l'architecture de connexion reliant le système logiciel adaptable au moteur d'adaptation. Nous proposons pour cela le langage de modélisation spécifique au domaine FCDL. Il élève le niveau d'abstraction des FCLs, permettant l'analyse automatique et la synthèse du code. Ce langage est capable de composition, de distribution et de réflexivité, permettant la coordination de plusieurs boucles de rétro-action distribuées et utilisant des mécanismes de contrôle variés. Son utilisation est facilitée par l'environnement de modélisation ACTRESS qui permet la modélisation, la vérification et la génération du code. La pertinence de notre approche est illustrée à travers trois scénarios d'adaptation réels construits de bout en bout. Nous considérons ensuite la manipulation de modèles comme moyen d'implanter ACTRESS. Nous proposons un Langage Spécifique au Domaine interne qui utilise Scala pour implanter une famille de DSLs. Il permet la vérification de cohérence et les transformations de modèles. Les DSLs résultant ont des propriétés similaires aux approches existantes, mais bénéficient en plus de la souplesse, de la performance et de l'outillage associés à Scala. Nous concluons avec des pistes de recherche découlant de l'application de l'IDM au domaine du calcul autonome.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Monthe, Djiadeu Valéry Marcial. "Développement des systèmes logiciels par transformation de modèles : application aux systèmes embarqués et à la robotique". Thesis, Brest, 2017. http://www.theses.fr/2017BRES0113/document.

Texto completo
Resumen
Avec la construction des robots de plus en plus complexes, la croissance des architectures logicielles robotiques et l’explosion de la diversité toujours plus grande des applications et misions des robots, la conception, le développement et l’intégration des entités logicielles des systèmes robotiques, constituent une problématique majeure de la communauté robotique. En effet, les architectures logicielles robotiques et les plateformes de développement logiciel pour la robotique sont nombreuses, et sont dépendantes du type de robot (robot de service, collaboratif, agricole, médical, etc.) et de son mode d'utilisation (en cage, d’extérieur, en milieu occupé, etc.). L’effort de maintenance de ces plateformes et leur coût de développement sont donc considérables.Les roboticiens se posent donc une question fondamentale : comment réduire les coûts de développement des systèmes logiciels robotiques, tout en augmentant leur qualité et en préservant la spécificité et l’indépendance de chaque système robotique? Cette question induit plusieurs autres : d’une part, comment décrire et encapsuler les diverses fonctions que doit assurer le robot, sous la forme d’un ensemble d’entités logicielles en interaction? Et d’autre part, comment conférer à ces entités logicielles, des propriétés de modularité, portabilité, réutilisabilité, interopérabilité, etc.?A notre avis, l’une des solutions les plus probables et prometteuses à cette question consiste à élever le niveau d’abstraction dans la définition des entités logicielles qui composent les systèmes robotiques. Pour ce faire, nous nous tournons vers l’ingénierie dirigée par les modèles, et plus particulièrement la conception des DSML (Domain Specific Modeling Language).Dans cette thèse, nous réalisons dans un premier temps, une étude comparative des langages de modélisation et de méthodes utilisés dans le développement des systèmes embarqués temps réel en général. L’objectif de ce premier travail étant de voir s’il en existe qui puissent permettre de répondre aux questions susmentionnées des roboticiens. Cette étude, non seulement nous montre que ces approches ne sont pas adaptées à la définition des architectures logicielles robotiques, mais elle aboutit surtout à unFramework, que nous proposons et qui aide à choisir la (les) méthode(s) et/ou le(s) langage(s) de modélisation le(s) plus adapté(s) aux besoins du concepteur. Par la suite, nous proposons un DSML baptisé RsaML (Robotic Software Architecture Modeling Language), pour la définition des architectures logicielles robotiques avec prise en compte de propriétés temps réel. Pour ce faire, un méta-modèle est proposé à partir des concepts que les roboticiens ont l’habitude d’utiliser pour la définition de leurs applications. Il constitue la syntaxe abstraite du langage. Les propriétés temps réel sont identifiées à leur tour et incluses dans les concepts concernés. Des règles sémantiques du domaine de la robotique sont ensuite définies sous forme de contraintes OCL, puis intégrées au méta-modèle, pour permettre que des vérifications de propriétés non fonctionnelles et temps réel soient effectuées sur les modèles construits. Le Framework de modélisation EMF d’Eclipse a été utilisé pour mettre en oeuvre un éditeur qui supporte le langage RsaML.La suite des travaux réalisés dans cette thèse a consisté à définir des transformations de modèles, puis à les utiliser pour implémenter des générateurs. Ces derniers permettent à partir d’un modèle RsaML construit, d’une part, de produire sa documentation et, d’autre part, de produire du code source en langage C. Ces contributions sont validées à travers un cas d’étude décrivant un scénario basé sur le robot Khepera III
With the construction of increasingly complex robots, the growth of robotic software architectures and the explosion of ever greater diversity of applications and robots missions, the design, development and integration of software entities of robotic systems, constitute a major problem for the robotics community. Indeed, robotic software architectures and software development platforms for robotics are numerous, and are dependent on the type of robot (service robot, collaborative, agricultural, medical, etc.) and its usage mode (In cage, outdoor, environment with obstacles, etc.).The maintenance effort of these platforms and their development cost are therefore considerable.Roboticists are therefore asking themselves a fundamental question: how to reduce the development costs of robotic software systems, while increasing their quality and preserving the specificity and independence of each robotic system? This question induces several others: on the one hand, how to describe and encapsulate the various functions that the robot must provide, in the form of a set of interactive software entities? And on the other hand, how to give these software entities, properties of modularity, portability, reusability, interoperability etc.?In our opinion, one of the most likely and promising solutions to this question, is to raise the level of abstraction in defining the software entities that make up robotic systems. To do this, we turn to model-driven engineering, specifically the design of Domain Specific Modeling Language (DSML).In this thesis, we first realize a comparative study of modeling languages and methods used in the development of embedded real time systems in general. The objective of this first work is to see if there are some that can make it possible to answer the aforementioned questions of the roboticists. This study not only shows that these approaches are not adapted to the definition of robotic software architectures, but mainly results in a framework, which we propose and which helps to choose the method (s) and / or the modeling language (s) best suited to the needs of the designer. Subsequently, we propose a DSML called Robotic Software Architecture Modeling Language (RsaML), for the definition of robotic software architectures with real-time properties. To do this, a meta-model is proposed from the concepts that roboticists are used to in defining their applications. It constitutes the abstract syntax of the language. Real-time properties are identified and included in the relevant concepts. Semantic rules in the field of robotics are then defined as OCL constraints and then integrated into the meta-model, to allow non-functional and realtime property checks to be performed on the constructed models.Eclipse Modeling Framework has been used to implement an editor that supports the RsaML language. The rest of the work done in this thesis involved defining model transformations and then using them to implement generators. These generators make it possible from a RsaML model built, to produce its documentation and source code in C language. These contributions are validated through a case study describing a scenario based on the Khepera III robot
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Koussaifi, Maroun. "Modélisation centrée utilisateur pour la configuration logicielle en environnement ambiant". Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30212.

Texto completo
Resumen
L'intelligence ambiante vise à offrir à un utilisateur humain des applications et des services personnalisés et adaptés à la situation courante. L'environnement ambiant, dans lequel cet humain est plongé, est composé d'un ensemble d'objets connectés et de composants logiciels qui sont des briques de base pour la construction d'applications par composition. La disponibilité de ces composants peut varier dynamiquement, en cas de mobilité par exemple. Ceux-ci peuvent apparaître ou disparaître de manière non anticipée. De plus, dans ces environnements dynamiques et ouverts, le besoin de l'utilisateur humain n'est pas stable ni toujours bien défini. Pour construire des applications dans un tel contexte, et fournir à l'utilisateur "les bonnes applications au bon moment", notre équipe explore une approche originale appelée "composition logicielle opportuniste" : l'idée est de construire des applications à la volée par assemblage de composants logiciels présents dans l'environnement sur le moment, sans se baser sur des besoins explicites ni sur des schémas de construction prédéfinis. C'est l'opportunité qui déclenche la construction des applications à la volée. Elle est contrôlée par un système intelligent, appelé moteur de composition opportuniste, qui doit décider des "bonnes" compositions à effectuer sans contribution explicite de l'utilisateur. Ainsi, les applications "émergent" dynamiquement. Les applications émergentes peuvent être imprévues ou inconnues de l'utilisateur. Au centre du système, ce dernier doit être en informé. Il doit pouvoir les contrôler, c'est-à-dire les accepter ou les rejeter, et s'il a les compétences requises, les modifier ou même construire lui-même des applications en assemblant des composants logiciels présents dans l'environnement ambiant. Dans les tâches de contrôle, l'utilisateur doit être assisté au mieux. D'autre part, pour que le moteur de composition opportuniste construise des assemblages pertinents en l'absence de besoins explicites, il doit recevoir des informations de l'utilisateur. Ceci ne doit cependant pas entraîner, pour l'utilisateur, une surcharge d'information ou d'opérations à effectuer. Dans cette thèse, nous proposons une approche basée sur l'ingénierie dirigée par les modèles (IDM) afin de mettre l'utilisateur "au centre de la boucle". Il s'agit de lui présenter les applications émergentes, de l'assister dans son contrôle et d'extraire des données de feedback utiles à fournir au moteur de composition "intelligent". Notre solution repose sur un métamodèle d'assemblage de composants logiciels, des langages spécifiques à un domaine (DSL) qui supportent la description des applications, un éditeur graphique qui permet d'éditer les applications et de capturer le feedback de l'utilisateur. Différentes transformations de modèle permettent l'interfaçage avec le moteur de composition et la génération de différentes formes de descriptions structurelles et sémantiques des applications pour des utilisateurs différents. En outre, les descriptions peuvent être facilement ajustées à un humain particulier, en changeant ou en adaptant les DSL et les transformations de modèle au profil de l'utilisateur. Dans notre approche, contrairement à l'utilisation classique de l'IDM où les outils et les techniques sont utilisés par les ingénieurs pour développer des logiciels et générer du code, le focus est sur les utilisateurs finaux qui prennent la place des ingénieurs. L'ensemble de la solution a été implémentée et fonctionne de manière couplée avec le moteur de composition opportuniste : notre solution prend en entrée les applications proposées par le moteur, les transforme en des modèles présentables, compréhensibles et modifiables par l'utilisateur, et enfin capture le feedback de l'utilisateur pour le transmettre au moteur pour mettre à jour sa connaissance
Ambient intelligence aims to provide to human users applications and services that are personalized and adapted to the current situation. The ambient environment which surrounds the human consists of a set of connected objects and software components that are bricks used for the construction of applications by composition. The availability of these components can vary dynamically, in case of mobility for example. In addition, their appearance or disappearance is usually unanticipated. Moreover, in these dynamic and open environments, the user needs are not stable nor always well defined. To build these applications and provide the user with "the right applications at the right time", our team explores an original approach called "opportunistic software composition": the idea is to build applications on the fly by assembling software components present in the environment at the time, without relying on explicit user needs or predefined applications models. Here, it is the availability of the components that triggers opportunistically the on-the-fly building of applications. It is controlled by an intelligent system, called opportunistic composition engine, which decides on the "right" compositions to be made without user input. In such a way, the applications "emerge" dynamically from the ambient environment. Thus, emerging applications can be unexpected or unknown to the user. At the center of the system, the latter must be informed of these applications. On the first hand, she/he must be able to control them, i.e., accept or reject them, and if she/he has the required skills, modify them or eventually build applications herself/himself by assembling software components present in the ambient environment. However, in the control tasks, the user must be assisted as well as possible. On the other hand, in order for the opportunistic composition engine to build relevant assemblies in the absence of explicit needs, it must receive information from the user. In this thesis, we propose an approach based on Model Driven Engineering (MDE) in order to put the user "at the center of the loop". The objective is to present the emerging applications to the user, to assist him in his interventions and to extract useful feedback data to provide to the "intelligent" composition engine. Our solution is based on a metamodel for assembling software components, on different domain-specific languages (DSL) that support application descriptions, and on a graphical editor for editing applications and capturing user feedback. Different methods for model transformations are used to generate structural and semantic application descriptions for different users, from the applications models build by the intelligent engine. In addition, the descriptions can be easily adjusted to a particular human, by changing or adapting the DSL and the model transformations to the user's profile. Unlike the traditional use of MDE where tools and techniques are used by engineers to develop software and generate code, the focus in our approach is on the end users. The entire solution has been implemented and works coupled with the engine. That is to say, our solution is able to intercept the applications models built by the engine, to transform them into presentable models that can be understood and modified by the user, and finally to capture the user feedback and give it back to the engine to update its knowledge
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Touil, Amara. "Vers un langage de modélisation spécifique au domaine des systèmes de télécontrôle ubiquitaire". Brest, 2011. http://www.theses.fr/2011BRES2041.

Texto completo
Resumen
Les Sciences et Technologies de l’Information et de Communication (STIC) nous permettent aujourd’hui une large utilisation d’ordinateurs, de systèmes intelligents, de réseaux de communication, etc. Nous sommes potentiellement capables d’accéder à n’importe quel objet communicant et d’échanger des informations. Dans ce contexte que l’on peut qualifier d’ubiquitaire, nous souhaitons pouvoir agir à distance (télécontrôle) sur des objets communicants. Dans ce travail nous associons télécontrôle et ubiquité afin de fournir un cadre de définition des systèmes de télécontrôle ubiquitaire, et pour dégager quelques préoccupations en termes de modélisation et d’analyse. Dans cette perspective nous proposons un langage spécifique au domaine (DSML) pour leur modélisation et une démarche outillée pour l’analyse de leur structure et leur fonctionnement. La construction de ce DSML est effectuée dans un contexte d’ingénierie système en adoptant le paradigme de l’Ingénierie Dirigée par les Modèles. Cette méthode nous a permis en premier lieu de capitaliser les connaissances et les terminologies du domaine de télécontrôle ubiquitaire. En second lieu, elle nous a permis d’élaborer une démarche pour effectuer des analyses structurelles et comportementales et de tester quelques exemples de systèmes. La sûreté de fonctionnement (SdF) pour les systèmes de télécontrôle ubiquitaire constitue une partie intégrante de leur modélisation et de leur analyse. Dans le DSML proposé, les propriétés de SdF sont intégrées à l’aide du Guide des Modes de Marche et d’Arrêt et de Qualité de service (GEMMA-Q) en vue d’une implémentation qui tient compte de la dynamicité du système et de son comportement. Cette thèse comporte également une méthodologie de construction d’une bibliothèque de composants réutilisables suivant les concepts définis pour le langage du domaine du télécontrôle ubiquitaire
Information and Communication Technologies (ICT) allow a widespread use of computers, intelligent systems, communication networks, etc. Potentially we are able to access any communicating object and exchanging information with it. In this context, that can be described as ubiquitous, we would be able to act remotely (telecontrol) on communicating objects. In this work we combine telecontrol and ubiquity to provide a framework for defining ubiquitous telecontrol systems and identifying some concerns in terms of modelling and analysis. We propose in this prospect a Domain Specific Modelling Language (DSML) for these systems and an analysing approach for their structure and their behaviour. The DSML is built within the context of Systems Engineering by adopting the Model Driven Engineering (MDE) paradigm. This method has allowed us first to capitalize on knowledge and terminology in the field of ubiquitous telecontrol. Second, the alternative to develop an approach for structural and behavioural analysis and to test some examples of systems. Ubiquitous telecontrol systems dependability is a part of their modelling and analysis. In the proposed DSML, dependability properties are integrated with the guide for start and stop modes and QoS (GEMMA-Q) in order to take into account the system dynamicity and behaviour. This thesis includes also a methodology for building a library of reusable components according to the concepts defined by the ubiquitous telecontrol
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Yang, Tong. "Constitution et exploitation d’une base de données pour l’enseignement/apprentissage des phrasèmes NAdj du domaine culinaire français auprès d’apprenants non-natifs". Thesis, Paris 3, 2019. http://www.theses.fr/2019PA030049.

Texto completo
Resumen
Ce projet de thèse s’inscrit dans le cadre de l’enseignement du FOS (Français sur Objectifs Spécifiques) à des cuisiniers étrangers venus travailler dans des restaurants français ou ayant choisi la restauration comme spécialité. L’objectif de notre recherche est donc d’enseigner les phrasèmes NAdj du domaine culinaire auprès d’apprenants étrangers niveau A2. L’enseignement/apprentissage de la phraséologie s’avère nécessaire dans les langues de spécialités et la haute fréquence des phrasèmes NAdj a attiré notre attention. Plusieurs questions sont alors abordées : où trouver ce lexique spécifique ? Comment les extraire ? Par quelle approche enseignons-nous les phrasèmes sélectionnés ? Pour répondre à ces questions, nous avons fabriqué notre propre corpus Cuisitext – écrit et oral – puis nous avons utilisé NooJ pour extraire les phrasèmes NAdj du corpus. Enfin, nous avons proposé les trois approches d’utilisation des corpus pour l’enseignement/apprentissage des phrasèmes NAdj : approche inductive guidée, approche déductive, approche inductive pure
This thesis project aims to study the teaching method of FOS (French on Specific Objectives) catering to foreign cooks who come to work in French restaurants or who have chosen catering as a specialty. The objective of our research is therefore to teach the culinary NAdj phrasemas to foreign A2 level learners. The teaching/learning of phraseology is required in specialty languages and the high frequency of NAdj phrasems has caught our attention. Several questions are then addressed: where to find this specific lexicon? How to extract them? By which approach do we teach the selected phrasems? To answer these questions, we made our own corpus Cuisitext - written and oral - and then used NooJ to extract the NAdj phrasems from the corpus. Finally, we have proposed the three approaches to the use of corpora for the teaching/learning of NAdj phrasems: guided inductive approach, deductive approach, pure inductive approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Tazine, Camal. "Modélisation statistique du langage pour un domaine spécifique en reconnaissance automatique de la parole". Avignon, 2005. http://www.theses.fr/2005AVIG0137.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Saboia, Aragao Karoline. "Études structure-fonction de lectines (Discl et Discll) de Dictyostelium discoideum". Grenoble 1, 2008. http://www.theses.fr/2008GRE10299.

Texto completo
Resumen
Les lectines sont des protéines qui reconnaissent les glucides complexes de manière spécifique et réversible. L'amibe Dictyostelium discoideum est un organisme modèle eucaryote très employé pour l'étude de nombreux processus biologiques tel la phagocytose, la différenciation ou la mort cellulaire. Lorsqu'elle se différencie suite à une absence de nutriments, elle produit au cours de la phase d'agrégation, deux lectines qui reconnaissent le Gal/GalNAc : les discoidines (DiscI et DiscII). DiscI et DiscII présentent 48% d'identité de séquence, forment des trimères en solution et partagent la même organisation en domaine. Un domaine discoidine (domaine DS) impliqué dans les processus d'adhésion cellulaire est retrouvé en N-terminal suivi d'un domaine lectine de type H en C-terminal. Le domaine lectine présente des similarités avec la lectine d'escargot HPA. Cette lectine spécifique du GalNAc est utilisée extensivement en histopathologie comme marqueur des cellules tumorales à fort caractère métastatique. Les travaux de recherche développés dans cette thèse portent sur l'étude structurale et fonctionnelle de l'interaction de DiscI et DiscII avec les sucres Gal/GalNAc selon une approche pluridisciplinaire. Ces deux lectines ont été clonées, exprimées sous forme recombinante dans Escherichia coli avant d'être purifiées. Leur spécificité et leur affinité ont été déterminées par l'utilisation de puces à sucres et par microcalorimétrie de titration. L'analyse des interactions à un niveau oléculaire s'est réalisée suite à la détermination de leur structure 3-D sous forme native ou complexée par cristallographie aux rayons X. La comparaison des sites de liaison entre les Discoidines et HPA a permis une meilleure compréhension des leurs mécanismes de reconnaissance, de spécificité et d'affinité à niveau moléculaire
Lectins are sugar-binding proteins which recognise saccharides with high specificity, in a reversible manner. The amoeba Dictyostelium discoideum is a eukaryote model organism used in the study of many biological processes such as phagocytosis, cell death and cell differentiation. When the amoebas adopt a cohesive stage upon starvation, they produce Discoidin I and II, two proteins able to bind galactose and N-acetyl-galactosamine. DiscI and DiscII present a sequence identity of 48%, form a trimer in solution, and exhibit a similar domain organisation. The N-terminal domain, or discoidin domain (DS), is implied in the processes of cellular adhesion binding the C-terminal domain or lectin domain of the H type family. The lectin domain presents similarities with the snail HPA lectine. This GalNAc specific lectin is used extensively in histopathology as a tumour cell marker with strong metastasizing characteristics. The research tasks developed in this thesis relate to the structural and functional study of the interaction of DiscI and DiscII with the sugars Gal/GalNAc according to a multidisciplinary approach. These two lectins were cloned and expressed in recombined form in Escherichia coli before being purified. Their specificity and their affinity were determined by the use of the printed array and titration microcalorimetry. The determination of their 3D structure in native or complexed form by X-ray crystallography has allowed the analysis of the interactions on a molecular level. The comparison of the binding sites between Discoidins and HPA has allowed a better understanding of their recognition mechanisms, specificity and affinity on the molecular level
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Ouraiba, El Amine. "Scénarisation pédagogique pour des EIAH ouverts : Une approche dirigée par les modèles et spécifique au domaine métier". Phd thesis, Université du Maine, 2012. http://tel.archives-ouvertes.fr/tel-00790696.

Texto completo
Resumen
Dans cette thèse, nous nous sommes intéressés à l'ouverture des EIAH (EnvironnementsInformatiques pour l'Apprentissage Humain), pour répondre à leur faible déploiement dansles établissements de formation, en facilitant leur appropriation par des usagers. Notre travailde recherche s'inscrit dans le cadre du projet REDiM (Réingénierie des EIAH Dirigée par lesModèles) mené au LIUM (Laboratoire d'Informatique de l'Université du Maine), dont un desobjectifs est d'intégrer les enseignants dans le processus de conception des scénariospédagogiques d'un EIAH.Nous proposons une approche d'ingénierie et de réingénierie pour rendre un EIAH ouvertà la conception et à l'adaptation de ses scénarios pédagogiques par les enseignantsutilisateurs. Nous avons défini un processus de conception basé sur la modélisationde scénarios pédagogiques ouverts (SPO), qui permet l'instrumentation des enseignantspour les aider dans la conception continue (i.e. qui se poursuit dans l'usage) d'une activitéd'apprentissage. Nous faisons trois propositions scientifiques :- Un modèle de représentation des SPO, qui permet de les structurer en variantes enfonction des contextes d'exécution. Nous qualifions ce modèle de rationnel puisqu'il s'appuieprincipalement sur l'approche du Design Rationale que nous avons adaptée à notreproblématique.- Un processus itératif et incrémental d'ingénierie et de réingénierie qui guide lesenseignants pour concevoir et adapter des SPO conformes au modèle que nous avonsdéfini.- Une méthode dirigée par les modèles et spécifique au domaine métier pour instrumenterle processus d'ouverture des scénarios pédagogiques d'un EIAH existant. Cette méthoded'instrumentation, reposant sur l'IDM (Ingénierie Dirigée par les Modèles) et le DSM(Domain-Specific Modeling), implique les enseignants utilisateurs de l'EIAH, considérés icicomme des experts du domaine. Elle est structurée en plusieurs phases qui amènentprogressivement à définir, de façon spécifique à l'EIAH considéré, un langage d'expressiondes SPO (ADSGEML - Adaptive Domain-Specific Graphical Educational ModelingLanguage) et un éditeur associé permettant la conception et l'adaptation des SPO dansl'univers métier de l'EIAH.Afin d'évaluer et de raffiner nos propositions, nous les avons appliquées sur l'EIAH"Hop3x", préalablement conçu au LIUM dans le cadre d'un autre projet pour pratiquer laprogrammation orientée objet. Nous avons donc élaboré un ADSGEML et un environnementd'édition graphique pour permettre aux enseignants de concevoir et d'adapterdynamiquement des sessions ouvertes de Hop3x, à un niveau élevé d'abstraction.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Guillou, Pierre. "Compilation efficace d'applications de traitement d'images pour processeurs manycore". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM022/document.

Texto completo
Resumen
Nous assistons à une explosion du nombre d’appareils mobiles équipés de capteurs optiques : smartphones, tablettes, drones... préfigurent un Internet des objets imminent. De nouvelles applications de traitement d’images (filtres, compression, réalité augmentée) exploitent ces capteurs mais doivent répondre à des contraintes fortes de vitesse et d’efficacité énergétique. Les architectures modernes — processeurs manycore, GPUs,... — offrent un potentiel de performance, avec cependant une hausse sensible de la complexité de programmation.L’ambition de cette thèse est de vérifier l’adéquation entre le domaine du traitement d’images et ces architectures modernes : concilier programmabilité, portabilité et performance reste encore aujourd’hui un défi. Le domaine du traitement d’images présente un fort parallélisme intrinsèque, qui peut potentiellement être exploité par les différents niveaux de parallélisme offerts par les architectures actuelles. Nous nous focalisons ici sur le domaine du traitement d’images par morphologie mathématique, et validons notre approche avec l’architecture manycore du processeur MPPA de la société Kalray.Nous prouvons d’abord la faisabilité de chaînes de compilation intégrées, composées de compilateurs, bibliothèques et d’environnements d’exécution, qui à partir de langages de haut niveau tirent parti de différents accélérateurs matériels. Nous nous concentrons plus particulièrement sur les processeurs manycore, suivant les différents modèles de programmation : OpenMP ; langage flot de données ; OpenCL ; passage de messages. Trois chaînes de compilation sur quatre ont été réalisées, et sont accessibles à des applications écrites dans des langages spécifiques au domaine du traitement d’images intégrés à Python ou C. Elles améliorent grandement la portabilité de ces applications, désormais exécutables sur un plus large panel d’architectures cibles.Ces chaînes de compilation nous ont ensuite permis de réaliser des expériences comparatives sur un jeu de sept applications de traitement d’images. Nous montrons que le processeur MPPA est en moyenne plus efficace énergétiquement qu’un ensemble d’accélérateurs matériels concurrents, et ceci particulièrement avec le modèle de programmation flot de données. Nous montrons que la compilation d’un langage spécifique intégré à Python vers un langage spécifique intégré à C permet d’augmenter la portabilité et d’améliorer les performances des applications écrites en Python.Nos chaînes de compilation forment enfin un environnement logiciel complet dédié au développement d’applications de traitement d’images par morphologie mathématique, capable de cibler efficacement différentes architectures matérielles, dont le processeur MPPA, et proposant des interfaces dans des langages de haut niveau
Many mobile devices now integrate optic sensors; smartphones, tablets, drones... are foreshadowing an impending Internet of Things (IoT). New image processing applications (filters, compression, augmented reality) are taking advantage of these sensors under strong constraints of speed and energy efficiency. Modern architectures, such as manycore processors or GPUs, offer good performance, but are hard to program.This thesis aims at checking the adequacy between the image processing domain and these modern architectures: conciliating programmability, portability and performance is still a challenge today. Typical image processing applications feature strong, inherent parallelism, which can potentially be exploited by the various levels of hardware parallelism inside current architectures. We focus here on image processing based on mathematical morphology, and validate our approach using the manycore architecture of the Kalray MPPA processor.We first prove that integrated compilation chains, composed of compilers, libraries and run-time systems, allow to take advantage of various hardware accelerators from high-level languages. We especially focus on manycore processors, through various programming models: OpenMP, data-flow language, OpenCL, and message passing. Three out of four compilation chains have been developed, and are available to applications written in domain-specific languages (DSL) embedded in C or Python. They greatly improve the portability of applications, which can now be executed on a large panel of target architectures.Then, these compilation chains have allowed us to perform comparative experiments on a set of seven image processing applications. We show that the MPPA processor is on average more energy-efficient than competing hardware accelerators, especially with the data-flow programming model. We show that compiling a DSL embedded in Python to a DSL embedded in C increases both the portability and the performance of Python-written applications.Thus, our compilation chains form a complete software environment dedicated to image processing application development. This environment is able to efficiently target several hardware architectures, among them the MPPA processor, and offers interfaces in high-level languages
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Campagne, Sébastien. "Déterminants structuraux de la reconnaissance spécifique de l'ADN par le domaine THAP de hTHAP1 et implications dans la dystonie DYT6". Toulouse 3, 2010. http://thesesups.ups-tlse.fr/901/.

Texto completo
Resumen
La famille des protéines THAP est caractérisée par la présence d'un motif protéique, le domaine THAP. Le domaine THAP de la protéine hTHAP1 défini un nouveau motif de coordination du zinc de type C2CH responsable de l'activité de liaison à l'ADN nécessaire pour la fonction de facteur de transcription de la protéine hTHAP1, plus particulièrement impliqué dans la régulation de la prolifération cellulaire. Le domaine THAP est caractérisé sur le plan structural par un repliement atypique présentant une coordination tétraédrique du zinc et une longue insertion entre les deux paires de ligand du zinc adoptant un repliement de type ßaß. Le mode de reconnaissance spécifique de l'ADN du domaine THAP a été élucidé par Résonance Magnétique Nucléaire. Ce domaine reconnaît la cible ADN consensus 5'-TXXGGGCA-3' en établissant des contacts bases spécifiques par l'intermédiaire de son extrémité N-terminale, son brin ß, la boucle L3 et la boucle L4. La résolution de structure du complexe THAP-ADN permet de comprendre comment le domaine THAP va reconnaître spécifiquement l'ADN, l'étape initiale permettant la régulation transcriptionnelle réalisée par hTHAP1. Récemment, des mutations sur le gène de hTHAP1 ont été génétiquement reliées à l'apparition d'une maladie neurodégénérative, la dystonie DYT6. Certaines de ces mutations perturbent la fonction du domaine THAP de hTHAP1 mettant ainsi en évidence que l'activité de liaison à l'ADN de hTHAP1 et la fonction de hTHAP1 sont cruciales pour le maintien de l'intégrité des voies neuronales motrices
The THAP protein family is characterized by the presence of a protein motif designed the THAP domain. The THAP domain of hTHAP1 defines a new C2CH zinc coordination motif responsive of the DNA binding essential for transcription factor function of the hTHAP1 protein implicated in cell proliferation regulation. On the structural frame, the THAP domain is characterized by an atypical fold including C2CH zinc coordination and the long insertion between the two zinc ligand pairs adopt a ßaß fold. Specific DNA binding mode has been structurally characterized using Nuclear Magnetic Resonance. This domain binds to 5'-TXXGGGCA-3' consensus DNA target establishing bases specific contacts using its N-terminal loop, its ß-sheet, its loop L3 and its loop L4. Solution structure of the THAP-DNA complex explain how the THAP domain binds specifically to DNA, the first step of the transcriptional regulation mediated by hTHAP1. Recently, mutations in hTHAP1 gene have been genetically linked to the development of dystonia DYT6, a neurodegenerative disease. Some of these mutations disrupt THAP domain of hTHAP1 function highlighting that the DNA binding activity of hTHAP1 and hTHAP1 function are essential to maintain motor neuronal ways
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Gutmann, Bernard. "Etude d'un nouveau type de RNase P spécifique des eucaryotes chez Arabidopsis thaliana". Thesis, Strasbourg, 2012. http://www.theses.fr/2012STRAJ133/document.

Texto completo
Resumen
La RNase P est impliquée dans la maturation des ARNt en libérant l’extrémité 5’ leader des précurseurs d’ARNt. Jusqu’à récemment, il était admis que cette enzyme soit universellement conservée en tant que complexe ribonucléoprotéique. La rupture avec le modèle établi est venue avec l’identification d’une RNase P uniquement protéique dans les mitochondries humaines et chez les plantes. Ces protéines, nommées PRORP (PROteinaceous RNase P), présentent trois paralogues chez Arabidopsis, qui sont localisés soit dans les organelles (PRORP1), soit dans le noyau (PRORP2 et 3). Des tests d’activité in vitro montrent que les protéines PRORP possèdent seules une activité RNase P. L’étude de lignées ADN-T indique que la fonction des protéines PRORP est essentielle et la fonction de PRORP2 et 3 est redondante. L’analyse des lignées de dérégulation montre que les protéines PRORP possèdent une diversité de substrat et que la RNase MRP, une autre ribonucléoprotéine, n’est pas impliquée dans la maturation des ARNt. Ainsi les protéines PRORP seraient bien les seules enzymes impliquées dans la maturation de l’extrémité 5’ des ARNt chez Arabidopsis
RNase P is involved in the maturation of tRNA precursors by cleaving their 5’ leader sequences. Until recently this enzyme was considered to be universally occurring as a ribonucleoprotein complex. The breakthrough from the existing model came with the identification of protein-only RNase P in human mitochondria as well as in plants. These proteins that we called PRORP (PROteinaceous RNase P) have three paralogs in Arabidopsis, which are localised in organelles (PRORP1) and nuclei (PRORP2 and 3). We have shown that PRORP proteins have RNase P activity in vitro as single proteins. In vivo the functions of PRORP proteins are essential and the function of PROPR2 and 3 are redundant. PRORP down-regulation mutants, show that PRORP proteins have a variety of other substrates and RNase MRP, another ribonucleoprotein, is not involved in the tRNA maturation. Results show that PRORP proteins would be the only enzymes responsible for RNase P activity in Arabidopsis
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Chevallier, Sylvie. "Relations structure-fonction de l'oligopeptidase proline-spécifique (EC 3. 4. 21. 26) de Flavobacterium meningosepticum". Grenoble 1, 1993. http://www.theses.fr/1993GRE10076.

Texto completo
Resumen
L'oligopeptidase proline-specifique (pop) de f. Meningosepticum coupe presque exclusivement du cote c-terminal des prolines et des hydroxyprolines. Le remplacement d'une proline par un acide pipecolique transforme un substrat en un inhibiteur, ce qui confirme la forte stereospecificite de la pop au niveau du sous-site s1. La sequence proteique a ete determinee par sequencage chimique de la pop, et clonage et sequencage de son gene (2115 pb). La pop mature periplasmique comporte 685 residus pour une masse moleculaire de 76784 da et montre des homologies de sequence uniquement avec la pop de cerveau de porc (38%) et la protease ii d'e. Coli (24%). La sequence grsng comprenant la serine 536 du site actif marquee par le diisopropylfluorophosphate tritie est distincte de celle du site actif des proteases a serine connues, bien qu'elle soit en correlation avec la sequence consensus gxsxg/a. Les residus presumes de la triade catalytique de la pop (s536, d621, h655) sont disposes dans un ordre different de ceux de la chymotrypsine (h57, d102, s195) et de la subtilisine (d32, h64, s221), mais similaire a celui de la carboxypeptidase y (s146, d338, h397). L'existence de trois domaines n-terminaux structuralement analogues a l'immunophiline humaine fkbp-12 et d'un domaine catalytique c-terminal de structure alpha-beta hydrolase fold a ete demontree par analyse hca de la pop. Les pops et la protease ii d'e. Coli forment donc une nouvelle famille de proteases a serine structuralement proches de la dienelactone hydrolase et de la carboxypeptidase ii dont les domaines catalytiques montrent un repliement de type alpha-beta hydrolase
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Choi, Mi-Kyung. "La cotraduction : domaine littéraire coréen-français". Thesis, Paris 3, 2014. http://www.theses.fr/2014PA030025/document.

Texto completo
Resumen
Nous nous sommes donné pour objectif d'étudier les questions posées par la traduction littéraire en B à partir du coréen effectuée en binôme par un traducteur coréen et un cotraducteur spécialiste de la langue d'arrivée, et d'en préciser les conditions de réussite.En matière littéraire du coréen vers le français, ce couplage vise à pallier l'absence de traducteurs français capables de travailler seuls.L'opération traduisante étant effectuée par des traducteurs coréens travaillant en B, l'exigence formelle de la traduction littéraire implique l'intervention d'un réviseur français.De plus en plus d'œuvres coréennes sont traduites selon cette modalité et publiées en France. Nous avons analysé les différentes étapes du processus, de la compréhension à la réexpression, à la lumière e la théorie interprétative de la traduction en tentant de montrer pourquoi le concept clé de la déverbalisation légitime la cotraduction, l'activité traduisante étant une opération de texte à texte, non de langue à langue. La première partie de notre recherche est consacrée à l'étude du cadre théorique (définition des notions auxquelles nous recourons, description de la théorie interprétative) et pratique (aperçu de l'état présent de la traduction française des textes littéraires coréens). Dans la deuxième partie, nous avons analysé des exemples de traduction en montrant le cheminement des échanges entre le traducteur et le cotraducteur, et en précisant la nature du guidage donné par le premier au second ainsi que la nature de la contribution de ce dernier. Nous aboutissons à la conclusion qu'une pratique souvent considérée seulement comme un pis-aller peut prétendre à produire des textes d'une réelle qualité littéraire dès lors que la technique mise en œuvre respecte les conditions que nous tentons de définir ici
Our aim was to study the issue of literary translation when it is carried into the B language of the translator (here from Korean to French) with the assistance of a co-translator native speaker of the target language and to point out the conditions of success. In the field of literary translation from Korean into French, this kind of team-work aims at overcoming the lack of French translators able to produce literary standard translations by themselves. When the translation is done by a Korean translator working into his B language, a thorough work of editing and rewriting is required due to the formal requirements of literary writing. An increasing number of Korean novels and short stories are translated by such a dual team and published in France.We analyze the different steps of the process of translation, from understanding to reformulation in the light of the Interpretive Theory of Translation, trying to show why the key concept of “de-verbalization” makes co-translation justifiable, translation being defined as an operation from text to text not from language to language.The first part of our research is devoted to the theoretical aspects of our study (definition of some key notions, mainly of the Interpretive Theory of Translation) and its practical aspects (general survey of translated Korean literary works into French). In the second part, we analyze a large number of our translation samples with the objective of showing the sort of dialog the translator and her co-translator entertain, and underlining the nature of guidance proposed by the first one to second one and the contribution of the last one.Our conclusion is that, thanks to this dual-team process, often wrongly considered as a lesser evil, we are able to produce quality literary translation provided that the method implemented takes into account the conditions we describe here
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Neifar, Wafa. "Méthodes d'acquisition terminologique en arabe : Application au domaine médical". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS085/document.

Texto completo
Resumen
L'objectif de cette thèse est de lever les verrous que constituent le manque de disponibilité de ressources ou d'outils TAL pour la langue arabe dans les domaines de spécialité en proposant des méthodes permettant l'extraction de termes à partir de textes en arabe standard moderne. Dans ce contexte, nous avons d'abord construit un corpus parallèle anglais-arabe dans un domaine de spécialité. Il s'agit d'un ensemble de textes médicaux produits par la bibliothèque nationale de médecine américaine (NLM). Par la suite, nous avons proposé des méthodes d'acquisition terminologique, permettant d'extraire des termes ou d'acquérir des relations entre ces termes, pour la langue arabe en se basant sur: i)adaptation d'un extracteur terminologique existant pour la languefrançaise ou anglaise, ii) l'exploitation de la translittération des termes anglais en caractères arabes et iii) l'application de la la notion de transfert translingue. Appliqué au niveau terminologique, le transfert consiste à mettre en œuvre un processus d'extraction de termes ou d'acquisition de relations entre termes sur des textes d'une langue source (ici, le français ou l'anglais) puis à transférer les informations extraites sur des textes d'une langue cible (ici, l’arabe standard moderne) pour ainsi identifier le même type d'informations terminologiques. Nous avons évalué les listes de termes monolingues et bilingues obtenues lors des différentes expériences que nous avons réalisées, suivant une méthode transparente, directe et semi-automatique: les termes candidats extraits sont confrontés à une terminologie de référence avant d'être vérifiés manuellement. Cette évaluation suit un protocole que nous avons proposé
The goal of this thesis is to reduce the lack of available resources and NLP tools for Arabic language in specialised domains by proposing methods allowing the extraction of terms from texts in Modern Standard Arabic. In this context, we first constructed an English-Arabic parallel corous in a specific domain.It is a set of medical texts produced by the US National Library of Medicine (NLM). Thereafter, we have proposed terminological acquisition methods, toextract terms or acquire relations between these terms, for Arabic based on: i) the adaptation of an existing terminology extractor for French or English, ii) the transliteration of English terms in Arabic characters and iii) cross-lingual transfer. Applied at the terminological level, transfer aims to implement a process of term extraction or relationship acquisition between terms in the texts of a source language (here, French or English) and then to transfer the extracted information to target language texts (in this case, Modern Standard Arabic), thereby identifying the same type of terminologicalinformation. We have evaluated the monolingual and bilingual term lists that we have obtained by the experiments we carried out, according to a transparent, direct and semi-automatic method: the extracted term candidates are confronted with a reference terminology before being validated manually. This evaluation follows a protocol that we proposed
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Girerd, Nicolas. "Apport des méthodes d'inférence causale et de la modélisation additive de survie pour l’évaluation d’un effet thérapeutique dans le domaine spécifique de la cardiologie et de la chirurgie cardiaque". Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10329.

Texto completo
Resumen
Devant les difficultés d'inclusion et de réalisation des essais cliniques en chirurgie cardiaque, rares sont les données randomisées disponibles dans ce domaine. On doit donc, autant que possible, se satisfaire de données observationnelles. Cependant, les procédures chirurgicales sont des traitements qui s'adaptent aux caractéristiques du patient, ce qui engendre un biais d'attribution important. Nous avons étudié l'impact du type de revascularisation chirurgicale (complète ou incomplète) sur la survie à long terme grâce à un appariement 4/1 sur le score de propension. Nous avons identifié, une fois le score de propension correctement pris en compte, une interaction significative sur une échelle relative entre le type de revascularisation chirurgicale et l'âge vis-à-vis de la survie toute cause à long terme, l'effet étant moins marqué chez les patients les plus âgés. Nous avons ensuite étudié l'interaction entre âge et effet du traitement sur une échelle additive et une échelle relative, en utilisant des modèles de survie additif ou multiplicatif sur le taux. Nous avons identifié une interaction sous-multiplicative significative alors qu'il n'existait pas d'interaction notable dans le modèle de survie additif, suggérant que l'effet du traitement était plutôt additif dans ce contexte. Par ailleurs, nous avons mesuré la différence de risque à partir du modèle de survie multiplicatif chez des patients de différentes classes d'âge. La différence de risque extraite du modèle multiplicatif était similaire dans les différents groupes d'âge confirmant un effet absolu constant dans les différentes classes d'âge malgré un effet relatif plus faible chez les sujets âgés. Notre travail incite à une évaluation de l'effet de traitement dans des jeux de données observationnelles sur une échelle relative et sur une échelle absolue après une prise en compte du score de propension
Clinical trials are difficult to conduct in the field of cardiac surgery. As a consequent, relatively few clinical trials are available in this field and most of the available data is observational. Yet, surgical techniques are very dependent on the patients’ characteristics, which translate into a high amount of attribution bias. We studied the impact of the type of surgical revascularization (complete or incomplete) on long-term survival using a 4/1 propensity score matching. We identified a significant interaction on a relative scale between the type of revascularization and age with regards to long-term all-cause mortality. The treatment effect was weaker in older patients. We then studied the interaction between age and treatment effect on both an additive scale and a relative scale using additive and multiplicative hazard models. We identified a significant submultiplicative interaction whereas we did not identify noteworthy additive interaction. This result indicate that treatment effect is additive in this illustration. We also measured risk differences from the multiplicative hazard model in several age subsets. Risk differences extracted from the multiplicative model were similar in age subsets, which confirmed a constant treatment effect across subsets on an additive scale despite a weaker treatment effect on a multiplicative scale in older patients. Our work encourages an evaluation of treatment effect on both an additive and a relative scale in propensity score based analyses of observational data
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Mercadal, Julien. "Approche langage au développement logiciel : application au domaine des systèmes d’informatique ubiquitaire". Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14315/document.

Texto completo
Resumen
Face à l'augmentation de la taille et de la complexité des systèmeslogiciels, il convient de les décrire à un plus haut niveaud'abstraction (i.e., au-delà du code) avant de concrètement lesimplémenter. Toutefois, l'utilisation de ces descriptions de hautniveau dans les processus de construction et de vérification dessystèmes reste très rudimentaire, ne permettant pas de véritablementguider et faciliter le développement logiciel. Cette thèse propose une nouvelle approche pour rendre plus simple etplus sûr le développement de systèmes logiciels. Cette approche reposesur l'utilisation de langages dédiés et sur un couplage fort entre unecouche de spécification et d'architecture et une couched'implémentation. Elle consiste tout d'abord à décrire à un hautniveau d'abstraction différents aspects, à la fois fonctionnels et nonfonctionnels, d'un système dans la couche de spécification etd'architecture. Ces descriptions sont ensuite analysées et utiliséespour personnaliser la couche d'implémentation, afin de faciliter laconstruction et la vérification du système logiciel. Nous illustrons notre approche dans le domaine de l'informatiqueubiquitaire. À la suite d'une analyse complète du domaine, nous avonsconçu deux langages dédiés à l'orchestration d'objets communicants,Pantaxou et Pantagruel
The sheer size and complexity of today's software systems posechallenges for both their programming and verification, making itcritical to raise the level of abstraction of software developmentbeyond the code. However, the use of high-level descriptions in thedevelopment process still remains rudimentary, improving and guidingthis process marginally.This thesis proposes a new approach to making software developmentsimpler and safer. This approach is based on the use ofdomain-specific languages and a tight coupling between a specificationand architecture layer, and an implementation layer. It consists ofdescribing functional and non-functional aspects of a software systemat a high level of abstraction, using the specification andarchitecture layer. These high-level descriptions are then analyzedand used to customize the implementation layer, greatly facilitatingthe programming and verification of the software system.We have validated our approach in the domain of pervasive computingsystems development. From a complete domain analysis, we haveintroduced two domain-specific languages, Pantaxou and Pantagruel,dedicated to the orchestration of networked smart devices
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Alawadhi, Hamid Ali Motea. "La difficulté en traduction approche théorique et pratique dans le domaine de la traduction français-arabe : thèse pour obtenir le grade de docteur de l'Université de Paris III, discipline, traductologie, présentée et soutenue publiquement /". Villeneuve d'Ascq : Presses universitaires du Septentrion, 2001. http://books.google.com/books?id=iiZcAAAAMAAJ.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Jin, Gan. "Système de traduction automatique français-chinois dans le domaine de la sécurité globale". Thesis, Besançon, 2015. http://www.theses.fr/2015BESA1006.

Texto completo
Resumen
Dans ce mémoire, nous présentons outre les résultats de recherche en vue d’un système de traduction automatique français–chinois, les apports théoriques à partir de la théorie SyGULAC et de la théorie micro-systémique avec ses calculs ainsi que les méthodologies élaborées tendant à une application sure et fiable dans le cadre de la traduction automatique. L’application porte sur des domaines de sécurité critique tels que l’aéronautique, la médecine, la sécurité civile. Tout d’abord un état de l’art du domaine de la traduction automatique, en Chine et en France, est utile pour commencer la lecture. Les faiblesses des systèmes actuels à travers des tests que nous réalisons prouvent l’intérêt de cette recherche. Nous donnons les raisons pour lesquelles nous avons choisi la théorie micro-systémique et la théorie SyGULAC. Nous expliquons ensuite les problématiques rencontrées au cours de notre recherche. L’ambigüité, obstacle majeur pour la compréhensibilité et la traductibilité d’un texte, se situe à tous les niveaux de la langue : syntaxique, morphologique, lexical, nominal ou encore verbal. L’identification des unités d’une phrase est aussi une étape préalable à la compréhension globale, que cela soit pour un être humain ou un système de traduction. Nous dressons un état des lieux de la divergence entre la langue française et la langue chinoise en vue de réaliser un système de traduction automatique. Nous essayons d’observer la structure aux niveaux verbal, nominal et lexical, de comprendre leurs liens et leurs interactions. Egalement nous définissons les obstacles sources d’entrave à la réalisation de cette recherche, avec un point de vue théorique mais aussi en étudiant notre corpus concret. Le formalisme pour lequel nous avons opté part d’une étude approfondie de la langue utilisée dans les protocoles de sécurité. Une langue ne se prête au traitement automatique que si elle est formalisée. De ce fait, nous avons procédé à l’analyse de plusieurs corpus bilingues français/chinois mais aussi monolingues émanant d’organismes de sécurité civile. Le but est de dégager les particularités linguistiques (lexicales, syntaxiques, …) qui caractérisent la langue de la sécurité en général et de recenser toutes les structures syntaxiques qu’utilise cette langue. Après avoir présenté la formalisation de notre système, nous montrons les processus de reconnaissance, de transfert et de génération
In this paper, in addition to our research results for a French-Chinese machine translation system, we present the theoretical contributions from the SyGULAC theory and from the micro-systemic theory with its calculations as well as the methodologies developed aimed at a secure and reliable application in the context of machine translation. The application covers critical safety areas such as aerospace, medicine and civil security.After presenting the state of the art in the field of machine translation in China and France, the reasons of the choice of the micro-systemic theory and SyGULAC theory are explained. Then, we explain the problems encountered during our research. The ambiguity, which is the major obstacle to the understandability and to the translatability of a text, is present at all language levels: syntactic, morphological, lexical, nominal and verbal. The identification of the units of a sentence is also a preliminary step for global understanding, whether for human beings or for a translation system. We present an inventory of the divergences between the french and the chinese language in order to achieve an machine translation system. We try to observe the verbal, nominal and vocabulary structure levels, in order to understand their interconnections and their interactions. We also define the obstacles to this research, with a theoretical point of view but also by studying our corpus.The chosen formalism starts from a thorough study of the language used in security protocols. A language is suitable for automatic processing only if this language is formalized. Therefore, An analysis of several French/Chinese bilingual corpora, but also monolingual, from civil security agencies, was conducted. The goal is to find out and present the linguistic characteristics (lexical, syntactic ...) which characterize the language of security in general, and to identify all the syntactic structures used by this language. After presenting the formalization of our system, we show the recognition, transfer and generation processes
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Rivière, Gwladys. "Étude par RMN de la créatine kinase musculaire et d'un nouveau domaine de liaison à l'ubiquitine dans la protéine STAM2". Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00861128.

Texto completo
Resumen
Au cours de cette thèse, nous avons étudié deux protéines par RMN : la créatine kinase musculaire (CK-MM) et le domaine UIM-SH3 de la protéine STAM2, seuls ou en interaction avec leurs partenaires. La CK-MM est une enzyme active sous forme dimérique. Elle appartient à la famille des guanidino-kinases et intervient dans le processus énergétique de la cellule. Le but de l'étude était d'élucider le mode de fonctionnement de la CK-MM. Pour cela, nous avons enregistré des expériences de relaxation R1, R2 et des expériences de perturbation de déplacement chimique sur la CK-MM libre et complexée avec MgADP et sous forme TSAC. Ces expériences montrent que la boucle 320s, spécifique à la reconnaissance des substrats, possède une dynamique rapide en absence de substrats et une dynamique ralentie en présence de substrats. La fixation des substrats dans les sites actifs de la CK-MM induit des modifications conformationelles importantes. La protéine STAM2 est composée de deux UBDs : VHS, et UIM et d'un domaine SH3 connu pour interagir avec des déubiquitinases UBPY et AMSH. Cette protéine est impliquée dans la voie de dégradation lysosomale. L'objectif de cette étude est la caractérisation du complexe SH3/ubiquitine. Pour cela, nous avons enregistré des expériences de perturbation de déplacement chimique et de relaxation R1, R2 et nOes sur le complexe UIM-SH3/ubiquitine. Ces expériences mettent en évidence que les domaines UIM et SH3 sont capables d'interagir chacun avec une ubiquitine, avec une affinité de l'ordre de la centaine de micromolaire. L'interface entre les UBDs et l'ubiquitine implique majoritairement des résidus hydrophobes et conservés
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Gosme, Julien. "Énumération exhaustive et détection spécifique des analogies : étude pour les modèles de langue et la traduction automatique". Phd thesis, Université de Caen, 2012. http://tel.archives-ouvertes.fr/tel-00700559.

Texto completo
Resumen
Ce travail de thèse s'inscrit dans le cadre de la traduction automatique. En étudiant les fondements de la traduction automatique par l'exemple, et plus particulièrement le système Aleph, nous mettons en évidence le problème de la sélection des exemples. Le système Aleph emploie exclusivement l'analogie afin de produire de nouvelles phrases et de nouvelles traductions. Le problème est de sélectionner les phrases dans un grand corpus d'exemples afin de produire de nouvelles phrases par analogie. Notre premier apport consiste en l'élaboration d'une méthode permettant d'énumérer l'intégralité des analogies entre chaînes d'un texte. Cette méthode nous permet ensuite de mettre en œuvre une étude statistique des analogies les plus fréquentes entre trigrammes de mots et de mettre en évidence les patrons d'analogie les plus fréquents. Ces résultats permettent alors de concevoir une nouvelle méthode de lissage d'un modèle de langue trigramme basé sur un petit nombre d'analogies. Nos expériences montrent que cette méthode est très compétitive vis-à-vis des méthodes classiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Lebeaupin, Benoit. "Vers un langage de haut niveau pour une ingénierie des exigences agile dans le domaine des systèmes embarqués avioniques". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC078/document.

Texto completo
Resumen
La complexité des systèmes conçus actuellement devient de plus en plus importante. En effet,afin de rester compétitives, les entreprises concevant des systèmes cherchent à leur rajouter de plus en plusde fonctionnalités. Cette compétitivité introduit aussi une demande de réactivité lors de la conception desystèmes, pour que le système puisse évoluer lors de sa conception et suivre les demandes du marché.Un des éléments identifiés comme empêchant ou diminuant cette capacité à concevoir de manière flexibledes systèmes complexes concerne les spécifications des systèmes, et en particulier l’utilisation de la languenaturelle pour spécifier les systèmes. Tout d’abord, la langue naturelle est intrinsèquement ambiguë et celarisque donc de créer des non-conformités si client et fournisseur d’un système ne sont pas d’accord sur lesens de sa spécification. De plus, la langue naturelle est difficile à traiter automatiquement, par exemple, onpeut difficilement déterminer avec un programme informatique que deux exigences en langue naturelle secontredisent. Cependant, la langue naturelle reste indispensable dans les spécifications que nous étudions,car elle reste un moyen de communication pratique et très répandu.Nous cherchons à compléter ces exigences en langue naturelle avec des éléments permettant à la fois de lesrendre moins ambiguës et de faciliter les traitements automatiques. Ces éléments peuvent faire partie demodèles (d’architecture par exemple) et permettent de définir le lexique et la syntaxe utilisés dans lesexigences. Nous avons testé les principes proposés sur des spécifications industrielles réelles et développéun prototype logiciel permettant de réaliser des tests sur une spécification dotée de ces éléments de syntaxeet de lexique
Systems are becoming more and more complex, because to stay competitive, companies whichdesign systems search to add more and more functionalities to them. Additionally, this competition impliesthat the design of systems needs to be reactive, so that the system is able to evolve during its conception andfollow the needs of the market.This capacity to design flexibly complex systems is hindered or even prevented by various variouselements, with one of them being the system specifications. In particular, the use of natural language tospecify systems have several drawbacks. First, natural language is inherently ambiguous and this can leadsto non-conformity if customer and supplier of a system disagree on the meaning of its specification.Additionally, natural language is hard to process automatically : for example, it is hard to determine, usingonly a computer program, that two natural language requirements contradict each other. However, naturallanguage is currently unavoidable in the specifications we studied, because it remains very practical, and itis the most common way to communicate.We aim to complete these natural language requirements with elements which allow to make them lessambiguous and facilitate automatic processing. These elements can be parts of models (architectural modelsfor example) and allow to define the vocabulary and the syntax of the requirements. We experimented theproposed principles on real industrial specifications and we developped a software prototype allowing totest a specification enhanced with these vocabulary and syntax elements
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Rigaut, Olivier. "Nouveaux concepts pour les matrices de bolomètres destinées à l’exploration de l’Univers dans le domaine millimétrique". Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112076/document.

Texto completo
Resumen
Depuis sa découverte en 1964, l’étude du Fond Diffus Cosmologique dans le domaine des longueurs d’ondes millimétriques est devenue un enjeu majeur de la recherche expérimentale dans le domaine de la cosmologie. En particulier, ses anisotropies en température, mesurées pour la première fois par le satellite COBE puis plus finement par l’expérience WMAP et le satellite PLANCK. L’existence prédite d’anisotropies de polarisation du Fond Diffus Cosmologique est fait actuellement parti du champ d’expérimentation privilégié de l’étude du CMB. En effet, la preuve d’existence des modes B de polarisation, signature unique des ondes gravitationnelles primordiales, fait actuellement l’objet d’une recherche expérimentale intensive par le biais notamment de l’instrument BICEP2 qui aurait détecté sa signature en 2014 dans des valeurs du rapport tenseur sur scalaire r = 0,2. Le projet QUBIC fait parti de ces expériences destinées à révéler les modes B de polarisation grâce à son instrument basé sur la technique des interféromètres et sur le développement de matrice de bolomètres, demandant un champ d’investigation poussé englobant, entre autre, la physique des solides, la physique des basses températures et la cosmologie. La thèse présentée ici se situe dans ce cadre, avec pour objectif l’élaboration d’une matrice de bolomètres dont la performance et l’optimisation devrait permettre d’acquérir la sensibilité nécessaire à l’observation des modes B de polarisation. Les différentes techniques expérimentales acquises au CSNSM d’Orsay permettent en effet d’envisager l’optimisation des éléments clé de la matrice de bolomètre en s’appuyant notamment sur l’alliage amorphe de NbxSi1-x pour l’élaboration d’un senseur thermique optimisé, et sur un matériau novateur, l’alliage de titane-vanadium, pour la mise au point d’un absorbeur de rayonnement supraconducteur efficace, dont la faible chaleur spécifique doit permettre d’atteindre un temps de réponse du détecteur de l’ordre de la dizaine de milliseconde, valeur du temps de réponse nécessaire à une lecture efficace du signal du Fond Diffus Cosmologique. Le manuscrit de thèse ici présent a pour ambition de développer les principes physiques nécessaires au champ d’investigation du travail à accomplir. Ainsi, cette étude propose d’élaborer les différents éléments d’un bolomètre, réunissant un senseur thermique optimisé ainsi qu’un absorbeur de rayonnement de faible chaleur spécifique, permettant d’envisager la mise au point d’une matrice de bolomètres optimisée dans le cadre du projet QUBIC dont la campagne d’observation est prévue courant 2015 au dôme C du pôle Sud
Since its discovery in 1964, the study of the Cosmic Microwave Background (CMB) in the field as of millimetre-length wavelengths became a major stake of experimental research in the field of cosmology. In particular, its anisotropies in temperature, measured for the first time by satellite COBE then more finely by the experiment WMAP and the PLANCK satellite. The predicted existence of anisotropies of polarization of the Cosmic Microwave Background is currently been part of the privileged field of experimentation of the study of the CMB. Indeed, the proof of exists modes B of polarization, single signature of the paramount gravitational waves, currently is the object of an intensive experimental research by the means in particular of the instrument BICEP2 which would have detected its signature in 2014 in values of the tensor report on scalar R = 0.2. Project QUBIC makes party of these experiments intended to reveal the modes B of polarization thanks to its instrument based on the technique of the interferometers and the development of bolometers array, asking for a thorough field of investigation including, amongst other things, the solid state physics, the physics of the low temperatures and cosmology. The thesis presented here is within this framework, with for objective making of a bolometers array whose performance and optimization should make it possible to acquire the necessary sensitivity to the observation of the B-mode polarization. The various experimental techniques acquired with the CSNSM of Orsay indeed make it possible to consider the optimization of the key elements of the bolometers array while being pressed in particular on amorphous alloy of NbxSi1-x for making of an optimized thermal sensor, and on an innovative material, titanium-vanadium alloy, for the clarification of an effective superconducting absorber of radiation, whose low specific heat must make it possible to reach a response time of the detector about ten millisecond, value of the response time necessary to an effective reading of the signal of the Cosmic Microwave Background. The manuscript of thesis here present has as an ambition to develop the physical principles necessary to the field of investigation of work to be achieved. Thus, this study proposes to work out the various elements of a bolometer, joining together a thermal sensor optimized as well as an absorber of radiation of low specific heat, making it possible to consider the clarification of a bolometers array optimized within the framework of the project QUBIC whose observation campaign is envisaged during 2015 with the dome C of the south pole
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Rigaut, Olivier. "Nouveaux concepts pour les matrices de bolomètres destinées à l'exploration de l'Univers dans le domaine millimétrique". Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01023011.

Texto completo
Resumen
Depuis sa découverte en 1964, l'étude du Fond Diffus Cosmologique dans le domaine des longueurs d'ondes millimétriques est devenue un enjeu majeur de la recherche expérimentale dans le domaine de la cosmologie. En particulier, ses anisotropies en température, mesurées pour la première fois par le satellite COBE puis plus finement par l'expérience WMAP et le satellite PLANCK. L'existence prédite d'anisotropies de polarisation du Fond Diffus Cosmologique est fait actuellement parti du champ d'expérimentation privilégié de l'étude du CMB. En effet, la preuve d'existence des modes B de polarisation, signature unique des ondes gravitationnelles primordiales, fait actuellement l'objet d'une recherche expérimentale intensive par le biais notamment de l'instrument BICEP2 qui aurait détecté sa signature en 2014 dans des valeurs du rapport tenseur sur scalaire r = 0,2. Le projet QUBIC fait parti de ces expériences destinées à révéler les modes B de polarisation grâce à son instrument basé sur la technique des interféromètres et sur le développement de matrice de bolomètres, demandant un champ d'investigation poussé englobant, entre autre, la physique des solides, la physique des basses températures et la cosmologie. La thèse présentée ici se situe dans ce cadre, avec pour objectif l'élaboration d'une matrice de bolomètres dont la performance et l'optimisation devrait permettre d'acquérir la sensibilité nécessaire à l'observation des modes B de polarisation. Les différentes techniques expérimentales acquises au CSNSM d'Orsay permettent en effet d'envisager l'optimisation des éléments clé de la matrice de bolomètre en s'appuyant notamment sur l'alliage amorphe de NbxSi1-x pour l'élaboration d'un senseur thermique optimisé, et sur un matériau novateur, l'alliage de titane-vanadium, pour la mise au point d'un absorbeur de rayonnement supraconducteur efficace, dont la faible chaleur spécifique doit permettre d'atteindre un temps de réponse du détecteur de l'ordre de la dizaine de milliseconde, valeur du temps de réponse nécessaire à une lecture efficace du signal du Fond Diffus Cosmologique. Le manuscrit de thèse ici présent a pour ambition de développer les principes physiques nécessaires au champ d'investigation du travail à accomplir. Ainsi, cette étude propose d'élaborer les différents éléments d'un bolomètre, réunissant un senseur thermique optimisé ainsi qu'un absorbeur de rayonnement de faible chaleur spécifique, permettant d'envisager la mise au point d'une matrice de bolomètres optimisée dans le cadre du projet QUBIC dont la campagne d'observation est prévue courant 2015 au dôme C du pôle Sud.
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Chanier, Thierry. "Compréhension de textes dans un domaine technique : le système Actes ; application des grammaires d'unification et de la théorie du discours". Paris 13, 1989. http://www.theses.fr/1989PA132015.

Texto completo
Resumen
Le système actes offre, d'une part, un formalisme permettant de definir des grammaires et de construire une representation semantique intermediaire des textes, et, d'autre part, un environnement de developpement de grammaires et d'analyse de textes
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Kouniali, Samy Habib. "Désambigüisation de groupes nominaux complexes en conformité avec les connaissances du domaine : application a la traduction automatique". Vandoeuvre-les-Nancy, INPL, 1993. http://www.theses.fr/1993INPL096N.

Texto completo
Resumen
Un des problèmes majeurs rencontrés en traduction automatique (et plus généralement en traitement automatique multi-domaine du langage naturel) est celui de la surgénération d'interprétations profondes des énoncés lors de l'analyse. Le système dont nous exposons la conception et l'implémentation, et que nous avons nomme syvac (système de validation de la cohérence), est destiné à réduire la surgénération d'interprétations sémantiques des énoncés générés par des analyseurs utilisés en traduction automatique, en éliminant celles qui sont incohérentes par rapport aux connaissances de base, générales et sur le domaine traité par le texte, dont on dispose. A cet effet, nous munissons les mots et les concepts d'un certain nombre de relations conceptuelles potentielles qui décrivent la faculté qu'ont les concepts mis en jeu à s'associer au sein d'une interprétation donnée. Nous montrons enfin qu'en vérifiant la cohérence de plusieurs interprétations d'un énoncé analysé, avec les informations disponibles sur le domaine (relations potentielles et quelques règles de raisonnements simples), syvac arrive à déterminer celles qui ont le plus de chances d'avoir un sens, sans obligatoirement donner une description fine de ce sens. L'implémentation est réalisée en nexpertobjet, ce qui permet une représentation objet des connaissances avec héritage multiple des propriétés, d'une part, et l'emploi d'un moteur d'inférences à base de règles, de l'autre
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Foucault, Nicolas. "Questions-Réponses en domaine ouvert : sélection pertinente de documents en fonction du contexte de la question". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00944622.

Texto completo
Resumen
Les problématiques abordées dans ma thèse sont de définir une adaptation unifiée entre la sélection des documents et les stratégies de recherche de la réponse à partir du type des documents et de celui des questions, intégrer la solution au système de Questions-Réponses (QR) RITEL du LIMSI et évaluer son apport. Nous développons et étudions une méthode basée sur une approche de Recherche d'Information pour la sélection de documents en QR. Celle-ci s'appuie sur un modèle de langue et un modèle de classification binaire de texte en catégorie pertinent ou non pertinent d'un point de vue QR. Cette méthode permet de filtrer les documents sélectionnés pour l'extraction de réponses par un système QR. Nous présentons la méthode et ses modèles, et la testons dans le cadre QR à l'aide de RITEL. L'évaluation est faite en français en contexte web sur un corpus de 500 000 pages web et de questions factuelles fournis par le programme Quaero. Celle-ci est menée soit sur des documents complets, soit sur des segments de documents. L'hypothèse suivie est que le contenu informationnel des segments est plus cohérent et facilite l'extraction de réponses. Dans le premier cas, les gains obtenus sont faibles comparés aux résultats de référence (sans filtrage). Dans le second cas, les gains sont plus élevés et confortent l'hypothèse, sans pour autant être significatifs. Une étude approfondie des liens existant entre les performances de RITEL et les paramètres de filtrage complète ces évaluations. Le système de segmentation créé pour travailler sur des segments est détaillé et évalué. Son évaluation nous sert à mesurer l'impact de la variabilité naturelle des pages web (en taille et en contenu) sur la tâche QR, en lien avec l'hypothèse précédente. En général, les résultats expérimentaux obtenus suggèrent que notre méthode aide un système QR dans sa tâche. Cependant, de nouvelles évaluations sont à mener pour rendre ces résultats significatifs, et notamment en utilisant des corpus de questions plus importants.
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Benamar, Alexandra. "Évaluation et adaptation de plongements lexicaux au domaine à travers l'exploitation de connaissances syntaxiques et sémantiques". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG035.

Texto completo
Resumen
Les modèles de plongements lexicaux se sont imposés comme les modèles de représentation les plus populaires en TAL. Afin d'obtenir de bonnes performances, ils nécessitent d'être entraînés sur de grands corpus de données provenant principalement du domaine général et sont fréquemment affinés pour être appliqués à des données de spécialité. Cependant, l'affinage des données est une pratique coûteuse en termes de ressources et son efficacité est controversée.Dans le cadre de cette thèse, nous évaluons l'utilisation de modèles de plongements lexicaux sur des corpus de spécialité et nous montrons que la proximité entre les vocabulaires des données d'entraînement et des données d'application joue un rôle majeur dans la représentation des termes hors-vocabulaire. Nous observons que cela est principalement dû à la tokenisation initiale des mots, et nous proposons une mesure pour calculer l'impact de la segmentation des mots sur leur représentation.Pour résoudre ce problème, nous proposons deux méthodes permettant d'injecter des connaissances linguistiques aux représentations générées par les Transformer : une méthode intervient à l'échelle des données et l'autre à l'échelle du modèle. Notre recherche démontre que l'ajout de contexte syntaxique et sémantique peut améliorer l'application de modèles auto-supervisés à des domaines de spécialité, tant pour la représentation du vocabulaire que pour la résolution de tâches de TAL. Les méthodes proposées peuvent être utilisées pour n'importe quelle langue disposant d'informations linguistiques ou d'autres connaissances externes. Le code utilisé pour les expériences a été publié pour faciliter la reproductibilité et des mesures ont été prises pour limiter l'impact environnemental en réduisant le nombre d'expériences
Word embeddings have established themselves as the most popular representation in NLP. To achieve good performance, they require training on large data sets mainly from the general domain and are frequently finetuned for specialty data. However, finetuning is a resource-intensive practice and its effectiveness is controversial.In this thesis, we evaluate the use of word embedding models on specialty corpora and show that proximity between the vocabularies of the training and application data plays a major role in the representation of out-of-vocabulary terms. We observe that this is mainly due to the initial tokenization of words and propose a measure to compute the impact of the tokenization of words on their representation. To solve this problem, we propose two methods for injecting linguistic knowledge into representations generated by Transformers: one at the data level and the other at the model level. Our research demonstrates that adding syntactic and semantic context can improve the application of self-supervised models to specialty domains, both for vocabulary representation and for NLP tasks.The proposed methods can be used for any language with linguistic information or external knowledge available. The code used for the experiments has been published to facilitate reproducibility and measures have been taken to limit the environmental impact by reducing the number of experiments
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Atcero, Milburga. "Les technologies de l'information et de la communication (TIC) et le développement de l'expression orale en français sur objectif spécifique (FOS) dans le contexte ougandais". Thesis, Paris 3, 2013. http://www.theses.fr/2013PA030049/document.

Texto completo
Resumen
Notre étude relève du domaine de la didactique des langues et plus particulièrement sur la focalisation sur l’utilisation des présentations PowerPoint pour les réalisations des tâches. Ces dernières jouent un rôle important dans le déclenchement de processus d’apprentissage. Lorsque les apprenants réalisent des tâches sur support PowerPoint,interagissent ensemble pour construire du sens, ils sont dotés d’un statut d’acteurs sociaux.Cette étude se donne alors comme objectif d’améliorer la pratique des apprenants en classe et de résoudre certaines de leurs difficultés didactiques et pédagogiques à travers un dispositif hybride. Celui-ci est fondé sur des macro-tâches réalisées majoritairement en semi distance et mise en place majoritairement en présentiel à travers des exposés techniques. Ces derniers ont été conçus pour encourager le développement de performances langagières attendues en production orale des apprenants.Elle se base sur une recherche-action qui a été menée en Ouganda pour des apprenants anglophones qui apprennent le français comme langue étrangère à Makerere UniversityBusiness School (MUBS) à Kampala. Cette étude a porté sur un exposé technique oral parles apprenants du Français sur Objectif Spécifique (FOS) à (MUBS) en Ouganda.Cette recherche-action vise à améliorer l’expression orale en FOS des apprenants de l’université MUBS. Nous avons donc menée des multiples expérimentations qui nous ont permises dans un premier temps de questionner l’impact d’un exposé oral des tâches réelles collectivement élaborée et présentée sur support Power Point sur la production orale de ces apprenants. Ces tâches avaient comme objectif d’encourager les apprenants de transformer un texte en titre, sous-titres et paragraphes, puis de présenter leur travail sous forme de diaporama avec PowerPoint. Le but était d’éviter la lecture linéaire de l’exposé,afin d’accroître leur confiance en eux-mêmes et dans l’interaction en FOS. Grâce à la recherche-action, nous avons pu définir précisément en quoi et pourquoi les choix de nos tâches, de nos activités devraient avoir un effet positif sur notre public cible
The initial objective of this study, which lies within the field of language teaching andespecially on the role of information and Communication Technology (ICT), is to investigate the potential of ICT in triggering oral language development in the learners of French for Specific purposes (FSP) at Makerere University Business School. This studyadopts action research that focuses on the role of technologies deployed in oral technical presentations of macro-tasks such as the use of MS Office. The aim is to enhance Frenchlearners’ skills in French for Specific purposes. The social constructivist or cultural hypotheses posit that social interaction plays an important role in L2 acquisition (French in this case) in FSP classes through a hybrid environment based on macro-tasks performed indistance and presented in class.The current action research project involved identifying and putting into place a learningsystem for learners of FSP who experienced several difficulties with their spoken French inthe learning process. It further posits that learners construct the new language through socially mediated interaction. Subsequently, this involved establishing whether the use ofPowerPoint presentation (PPP) would engage learners of FSP in collective actions both inthe classroom and in the real world activities. In addition, there was an attempt to establishif relevant web quest materials were likely to enhance oral language acquisition and prompt learners to take responsibility for their own learning
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Richa, Elie. "Qualification des générateurs de code source dans le domaine de l'avionique : le test automatisé des chaines de transformation de modèles". Thesis, Paris, ENST, 2015. http://www.theses.fr/2015ENST0082/document.

Texto completo
Resumen
Dans l’industrie de l’avionique, les Générateurs Automatiques de Code (GAC) sont de plus en plus utilisés pour produire des parties du logiciel embarqué. Puisque le code généré fait partie d’un logiciel critique, les standards de sûreté exigent une vérification approfondie du GAC: la qualification. Dans cette thèse en collaboration avec AdaCore, nous cherchons à réduire le coût des activités de test par des méthodes automatiques et efficaces.La première partie de la thèse aborde le sujet du test unitaire qui assure une exhaustivité élevée mais qui est difficile à réaliser pour les GACs. Nous proposons alors une méthode qui garantit le même niveau d’exhaustivité en n’utilisant que des tests d’intégration de mise en œuvre plus facile. Nous proposons tout d’abord une formalisation du langage ATL de définition du GAC dans la théorie des Transformations Algébriques de Graphes. Nous définissons ensuite une traduction de postconditions exprimant l’exhaustivité du test unitaire en des préconditions équivalentes qui permettent à terme de produire des tests d’intégration assurant le même niveau d’exhaustivité. Enfin, nous proposons d’optimiser l’algorithme complexe de notre analyse à l’aide de stratégies de simplification dont nous mesurons expérimentalement l’efficacité.La seconde partie du travail concerne les oracles de tests du GAC, c’est à dire le moyen de valider le code généré par le GAC lors d’un test. Nous proposons un langage de spécification de contraintes textuelles capables d’attester automatiquement de la validité du code généré. Cette approche est déployée expérimentalement à AdaCore pour le projet QGen, un générateur de code Ada/C à partir de Simulink®
In the avionics industry, Automatic Code Generators (ACG) are increasingly used to produce parts of the embedded software. Since the generated code is part of critical software, safety standards require a thorough verification of the ACG called qualification. In this thesis in collaboration with AdaCore, we seek to reduce the cost of testing activities by automatic and effective methods.The first part of the thesis addresses the topic of unit testing which ensures exhaustiveness but is difficult to achieve for ACGs. We propose a method that guarantees the same level of exhaustiveness by using only integration tests which are easier to carry out. First, we propose a formalization of the ATL language in which the ACG is defined in the Algebraic Graph Transformation theory. We then define a translation of postconditions expressing the exhaustiveness of unit testing into equivalent preconditions that ultimately support the production of integration tests providing the same level of exhaustiveness. Finally, we propose to optimize the complex algorithm of our analysis using simplification strategies that we assess experimentally.The second part of the work addresses the oracles of ACG tests, i.e. the means of validating the code generated by the ACG during a test. We propose a language for the specification of textual constraints able to automatically check the validity of the generated code. This approach is experimentally deployed at AdaCore for a Simulink® to Ada/C ACG called QGen
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Richa, Elie. "Qualification des générateurs de code source dans le domaine de l'avionique : le test automatisé des chaines de transformation de modèles". Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0082.

Texto completo
Resumen
Dans l’industrie de l’avionique, les Générateurs Automatiques de Code (GAC) sont de plus en plus utilisés pour produire des parties du logiciel embarqué. Puisque le code généré fait partie d’un logiciel critique, les standards de sûreté exigent une vérification approfondie du GAC: la qualification. Dans cette thèse en collaboration avec AdaCore, nous cherchons à réduire le coût des activités de test par des méthodes automatiques et efficaces.La première partie de la thèse aborde le sujet du test unitaire qui assure une exhaustivité élevée mais qui est difficile à réaliser pour les GACs. Nous proposons alors une méthode qui garantit le même niveau d’exhaustivité en n’utilisant que des tests d’intégration de mise en œuvre plus facile. Nous proposons tout d’abord une formalisation du langage ATL de définition du GAC dans la théorie des Transformations Algébriques de Graphes. Nous définissons ensuite une traduction de postconditions exprimant l’exhaustivité du test unitaire en des préconditions équivalentes qui permettent à terme de produire des tests d’intégration assurant le même niveau d’exhaustivité. Enfin, nous proposons d’optimiser l’algorithme complexe de notre analyse à l’aide de stratégies de simplification dont nous mesurons expérimentalement l’efficacité.La seconde partie du travail concerne les oracles de tests du GAC, c’est à dire le moyen de valider le code généré par le GAC lors d’un test. Nous proposons un langage de spécification de contraintes textuelles capables d’attester automatiquement de la validité du code généré. Cette approche est déployée expérimentalement à AdaCore pour le projet QGen, un générateur de code Ada/C à partir de Simulink®
In the avionics industry, Automatic Code Generators (ACG) are increasingly used to produce parts of the embedded software. Since the generated code is part of critical software, safety standards require a thorough verification of the ACG called qualification. In this thesis in collaboration with AdaCore, we seek to reduce the cost of testing activities by automatic and effective methods.The first part of the thesis addresses the topic of unit testing which ensures exhaustiveness but is difficult to achieve for ACGs. We propose a method that guarantees the same level of exhaustiveness by using only integration tests which are easier to carry out. First, we propose a formalization of the ATL language in which the ACG is defined in the Algebraic Graph Transformation theory. We then define a translation of postconditions expressing the exhaustiveness of unit testing into equivalent preconditions that ultimately support the production of integration tests providing the same level of exhaustiveness. Finally, we propose to optimize the complex algorithm of our analysis using simplification strategies that we assess experimentally.The second part of the work addresses the oracles of ACG tests, i.e. the means of validating the code generated by the ACG during a test. We propose a language for the specification of textual constraints able to automatically check the validity of the generated code. This approach is experimentally deployed at AdaCore for a Simulink® to Ada/C ACG called QGen
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Rivière, Gwladys. "Étude par RMN de la créatine kinase musculaire et d’un nouveau domaine de liaison à l’ubiquitine dans la protéine STAM2". Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10285/document.

Texto completo
Resumen
Au cours de cette thèse, nous avons étudié deux protéines par RMN : la créatine kinase musculaire (CK-MM) et le domaine UIM-SH3 de la protéine STAM2, seuls ou en interaction avec leurs partenaires. La CK-MM est une enzyme active sous forme dimérique. Elle appartient à la famille des guanidino-kinases et intervient dans le processus énergétique de la cellule. Le but de l’étude était d’élucider le mode de fonctionnement de la CK-MM. Pour cela, nous avons enregistré des expériences de relaxation R1, R2 et des expériences de perturbation de déplacement chimique sur la CK-MM libre et complexée avec MgADP et sous forme TSAC. Ces expériences montrent que la boucle 320s, spécifique à la reconnaissance des substrats, possède une dynamique rapide en absence de substrats et une dynamique ralentie en présence de substrats. La fixation des substrats dans les sites actifs de la CK-MM induit des modifications conformationelles importantes. La protéine STAM2 est composée de deux UBDs : VHS, et UIM et d’un domaine SH3 connu pour interagir avec des déubiquitinases UBPY et AMSH. Cette protéine est impliquée dans la voie de dégradation lysosomale. L’objectif de cette étude est la caractérisation du complexe SH3/ubiquitine. Pour cela, nous avons enregistré des expériences de perturbation de déplacement chimique et de relaxation R1, R2 et nOes sur le complexe UIM-SH3/ubiquitine. Ces expériences mettent en évidence que les domaines UIM et SH3 sont capables d’interagir chacun avec une ubiquitine, avec une affinité de l’ordre de la centaine de micromolaire. L’interface entre les UBDs et l’ubiquitine implique majoritairement des résidus hydrophobes et conservés
In this thesis, we study two proteins by NMR: the muscular creatine kinase (CK-MM) and the SH3 domain of STAM2 protein, in the free and complexed forms. CK-MM is an active homodimeric enzyme which belongs to the guanidino-phosphagen-kinase family. This enzyme is involved in energetic process in the cell. The aim of this study is to elucidate the functional mode of the CK-MM. For this purpose, we measured R1 and R2 relaxation rates and chemical shit perturbation experiments on the substrate-free CK-MM, the CK-MM/MgADP complex, and the inhibitory ternary complex CK-MM/MgADP-creatine-nitrate. The experiments show that the loop 320s, specific recognition of the substrates, possesses a fast dynamic in absence of substrates (in the order of nano-picosecond) and a slower dynamic in presence of creatine-MgADP-nitrate ion. The binding of the substrate in the two active sites induces of significant conformational modification of the CK-MM. STAM2 protein consists in two ubiquitin binding domains (VHS and UIM) and a SH3 domain which interacts with deubiquinating enzymes AMSH and UBPY. This protein is involved in the lysosomal degradation pathway. The aim of this study is the characterization of the interaction between SH3 domain of STAM2 and ubiquitin. For this, we recorded the R1, R2, nOes relaxation experiments and chemical shift perturbation experiments on the UIM-SH3/ubiquitin complex. These experiments show that SH3 and UIM domains interact each with a single ubiquitin, with affinity of the order of hundred micromolars. The interface between these UBDs and ubiquitin, involves mainly hydrophobic and conserved amino-acids
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Thomauske, Nathalie saskia. "Des constructions de "speechlessness" : une étude comparative Allemagne-France sur les rapports sociaux langagiers de pouvoir dans le domaine de l'éducation de la petite enfance". Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD050/document.

Texto completo
Resumen
L'Allemagne et la France se trouvent en matière d’immigration face à des défis semblables. Les deux pays sont des États-nations dans lesquels la société majoritaire est convaincue que le peuple doit être unifié à travers une langue commune. Cette conception d'État est pourtant fortement contestée par des personnes plurilingues (of Color). L’objectif de la thèse est d’analyser comment la discrimination des enfants plurilingues est construite et légitimée au quotidien dans le domaine de l'éducation de la petite enfance.À cette fin, des entretiens collectifs avec des enseignant-e-s et des parents ont été menés et ont été analysés suivant une approche constructiviste de la « grounded theory ». Les résultats montrent, entre autres, que les enseignant-e-s ne savent pas comment se comporter avec des enfants qui ne parlent pas la langue cible ou se sentent incertain-e-s face à ces enfants. La plupart d’entre elles / eux réagissent face à cette situation en exigeant des enfants de s’adapter et d'apprendre la langue cible par leurs propres moyens à travers une submersion dans cette langue. Les langues «Autres» des enfants et de leurs parents sont relégués au contexte privé et leurs locutrices / locuteurs sont réduit-e-s au silence dans le cadre de l’école maternelle. De cette façon le capital symbolique des enfants parlant une langue « Autre » est exclu de l’institution préscolaire, ce qui contribue à une restriction de leur participation égalitaire aux processus de l'éducation. D'autres enseignant-e-s critiquent ces politiques linguistiques de facto et décrivent en revanche comment ils contribuent à aider les enfants à s’exprimer dans leur(s) langue(s) préférée(s)
Germany and France face similar challenges concerning questions of immigration. Both countries are nation states, in which the majoritarian society is convinced that the people should be unified through speaking a common language. This conception of the nation-state is nevertheless strongly opposed by plurilingual people (of Color). The aim of the thesis is to analyze how a discrimination of plurilingual children is constructed and legitimized in daily life in the domain of early childhood education.To this end, focus group discussions with practitioners and parents have been conducted and analyzed following a constructionist “grounded theory” approach. Findings show, among others, that practitioners do not know or are insecure of how to deal with children who do not speak the target language. Some of them react by expecting children to adapt and to learn the language on their own through "language submersion". The “Other” languages of the children and their parents are relegated to the private context and their speakers are silenced in the ECEC setting. Other practitioners criticize these de facto language policies and describe how they contribute to support children in expressing themselves in their favorite language(s)
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Hadjem, Abdelhamid. "Analyse de l' influence de la morphologie sur le SAR induit dans les tissus de tête d' enfant". Paris 6, 2005. http://www.theses.fr/2005PA066411.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Silly-Carette, Jessica. "Modélisation avancée de l'absorption des ondes électromagnétiques dans les tissus biologiques : schémas en temps, approches adjointe et stochastique". Paris 6, 2008. http://www.theses.fr/2008PA066368.

Texto completo
Resumen
Ce manuscrit présente les différentes sources d'incertitudes courantes lors des simulations des effets des ondes sur et dans le corps humain. Ainsi, même si les programmes utilisés en bio électromagnétisme de nos jours sont très performants (méthode FDTD, méthode One-Step limitée dans les cas à pertes), il reste des paramètres non maitrisables ou inconnus pouvant avoir un rôle sur le Débit d'Absorption Spécifique (DAS ou SAR) obtenu lors des simulations. La modélisation de la source, de sa position, mais aussi les propriétés diélectriques et la géométrie du modèle de tête ou de corps utilisés, sont autant d'incertitudes qu'il faut pouvoir quantifier. Dans ce but, des méthodes numériques permettant le calcul d'incertitudes et de sensibilités sont évaluées. La méthode de l'adjoint associée à la FDTD permet ainsi de connaître les sensibilités locales et peut être introduite dans un processus d'optimisation permettant ainsi de réduire les erreurs lors des études d'homogénéisation de structures multicouches. Les méthodes de collocation stochastiques permettent d'avoir une évaluation des moyennes, des variances, et des sensibilités globales. Les approches nodales et spectrales de collocation sont utilisées afin de déterminer l'influence des incertitudes des angles de propagation d'une onde plane sur l’évaluation du DAS, ainsi que l'influence des incertitudes concernant les propriétés diélectriques de deux modèles : le fantôme homogène SAM et la tête hétérogène d'enfant de 15ans.
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Ngwaba, Chidinma. "Les termes de la gynécologie obstétrique en igbo : enquête sur un domaine tabou dans une langue sans documents écrits". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE2107/document.

Texto completo
Resumen
La présente étude porte sur la terminologie de la gynécologie-obstétrique en langue igbo. L’objectif principal est double : d’une part, recenser et classer les termes de la gynécologie-obstétrique en igbo et examiner l’adéquation entre la terminologie igbo et la terminologie internationale des langues de grande diffusion comme l’anglais et le français ; d’autre part, tenter de dégager les procédés à l’œuvre dans la création terminologique du domaine. Des vides ayant été constatés dans la terminologie igbo du domaine par rapport au français et à l’anglais, nous avons essayé de les combler, validant ainsi l’idée selon laquelle la langue igbo, à l’instar de toutes les langues, a bel et bien la capacité de désigner tout concept, quel qu’en soit le domaine. Notre recherche vise spécifiquement à recueillir les termes igbo de la gynécologie-obstétrique autant pour permettre les types de jugement théorique que nous nous sommes engagée à faire que pour les fins utilitaires d’un tel recueil. La méthode utilisée pour étudier la terminologie de la gynécologie-obstétrique en igbo devait convenir à l’étude d’un domaine tabou dans une langue sans documents écrits. Nous avons donc dû tenter de recueillir oralement les termes recherchés, en utilisant des techniques permettant de contourner la réticence de nombreux locuteurs igbo à s’exprimer sur le sujet.Pour constituer la nomenclature du domaine, nous avons mené une enquête sur le terrain auprès d’un groupe de locuteurs igbo constitué de 57 professionnels de santé soit 20 gynécologues-obstétriciens, 10 sages-femmes, 3 infirmiers, 15 médecins traditionnels, 5 sages-femmes traditionnelles, deux chefs de village et deux personnes âgées. Notre démarche s’est inspirée de la socioterminologie de Gaudin (2003, 2005) et de la méthodologie d’enquête d’Halaoui (1990, 1991), auxquelles nous avons emprunté l’aspect méthodologique de la recherche en terminologie des langues africaines. Au vu des résultats de notre enquête, nous avons constaté des vides terminologiques que nous avons tenté de combler à partir des propositions des personnes rencontrées et en nous inspirant de la démarche proposée par Diki-Kidiri (2008). Les matrices terminologiques sous-jacentes aux termes proposés ont été dégagées et analysées. Elles témoignent des tendances générales de l’igbo en la matière. Ce travail aboutit donc à la création d’un lexique trilingue anglais-français-igbo des termes de la gynécologie-obstétrique. Ce lexique contient les termes désignant l’anatomie du bassin féminin et parties génitales, l’anatomie des parties génitales internes femelles, l’anatomie de l’organe sexuel masculin, la physiologie du système reproducteur, le développement de l’embryon, la physiologie de la nutrition pendant la lactation et la grossesse, la surveillance fœtale, le travail/accouchement, le nouveau-né, les maladies liées aux organes reproducteurs, les maladies sexuellement transmissibles, les anomalies structurales, le cancer du système reproducteur et les maladies du système urinaire. Notre travail comprend trois parties. La première partie intitulée « La langue igbo du Nigeria » est composée de trois chapitres. Le chapitre 1 : « le Nigeria Terre de diversité ethnique et Linguistique », le chapitre 2 : « Description de la langue Igbo » et le chapitre 3 : « Problèmes Terminologiques igbo ». La deuxième partie intitulé « Un domaine Terminologique particulier : La médecine » comporte deux chapitres. Le chapitre 4 : « La maladie et la santé chez les igbo », et le chapitre 5 : « La pratique de la médecine au Nigeria ». La troisième partie : « La terminologie igbo de la gynécologie-obstétrique : Etat des lieux » comprends deux chapitres. Le chapitre 6 : « L’enquête sur le terrain » et Le chapitre 7 : « La création Terminologique en igbo : Le cas de la gynécologie-obstétrique »
This study focuses on gynaecology-obstetrics terminology in Igbo. Our main objective is to take an inventory of Igbo terms in the area of gynaecology-obstetrics and classify them. This will enable us to examine and evaluate the adequacy of Igbo terms in relation to English and French terms. A second objective involves exposing the methodology used in Igbo term creation in the gynaecology-obstetrics domain.In our research we noticed that gaps exist in the area of gynaecology-obstetrics of the Igbo language when compared to English and French languages. We tried to fill in the gaps thereby validating the idea whereby the Igbo language like all other languages, is capable of naming concepts in any area. Our research specifically aims at collecting Igbo terms from the domain of gynaecology-obstetrics in a way that enables us explain or give information on the method of collection of such terms.The method used in the terminological study of the gynaecology-obstetrics domain in Igbo, should be suitable in studying a taboo domain of a language without written documents. An oral documentary research became necessary. Thus the Igbo terms were compiled by means oral documentation research using techniques that helped us bypass the hesitation or reluctance of many Igbo speakers to express themselves on our area of research.To constitute the nomenclature of the domain, we carried out field work. This involved the observation of and interviews with Igbo speakers namely: traditional doctors, orthodox doctors, midwives both traditional and orthodox, nurses, local chiefs and elderly persons. We thus interviewed 57 resource-persons and experts: 20 doctors, 3 nurses and 10 midwives (for the orthodox medicine component), 15 traditional doctors, 5 traditional midwives, 2 local chiefs and 2 elderly persons (for the traditional medicine component). We were equally inspired by socioterminology as exposed by Gaudin (2003, 2005) and the methodology of research as outlined in Halaoui (1990, 1991) from which we borrowed the methodology of research in terminology of African languages.Looking at our field work result, we noticed terminological gaps which we tried to fill using proposals from the people we interviewed. The work also involved the creation of terms for concepts and objects not already named in Igbo. This naming drew principally on the method described in Diki-Kidiri (2008). An analysis of the process underlying each coinage is included. The result obtained is a clear indication that the Igbo language can be used to name things.This work equally proposes a trilingual glossary: English-French-Igbo. The glossary covers such areas as: Anatomy of the female pelvis and the external genitalia, Anatomy of the internal genital organs – female, Anatomy of the male reproductive system, Physiology of the reproductive system, Development of the embryo, Physiology and nutrition in pregnancy and lactation, Foetal surveillance, Labour, The new born infant, Infections of the reproductive organs, Infections of the reproductive tract, Sexually transmitted diseases, Structural anomalies, Cancers of the reproductive system and Disorders of the urinary system.Our work comprises three parts. Part 1: “The Igbo Language of Nigeria” consists of three chapters. Chapter 1: “Nigeria a Land with ethnicity and Linguistic diversity”, Chapter 2: “Description of the Igbo Language” and Chapter 3: “Problems of Igbo Terminology”. Part 2: entitled “A Distinctive Terminological Domain: Medicine” is made up of two chapters. Chapter 4: “Sickness and Heath among the Igbos” and Chapter 5: “Practicing Medicine in Nigeria”. Part 3 comprises two chapters. Chapter 6: “Field Work” and Chapter 7: “Creating Terms in Igbo: the Gynaecology-Obstetrics Domain”
Nnyọcha anyị a dabere n’ihe gbasara amụmamụ maka ọmụmụ nwa na nwa ohụụ n’asụsụ igbo.Ebum n’obi anyị nke mbụ bụ ịchọpụta ma hazie aha dị iche iche e nwere n’asụsụ igbo gbasaraọmụmụ nwa na nwa ohụụ na ngalaba amụmamụ maka ọmụmụ nwa na nlekọta nwa ohụụ. Nkea ga-eme ka anyị nwalee aha ndịa e nwere n’asụsụ igbo na ngalaba amụmamụ maka ọmụmụnwa na nlekọta nwa ohụụ na aha ndi e nwere na olu bekee m’obụ frenchi. Ebum n’obi anyị nkeabụọ bụ ikwupụta otu anyị si nwete ma depụta aha gbasara ọmụmụ nwa na nlekọta nwa ohụụn’asụsụ igbo. Anyị kwadoro usoro mkpụrụ edemede nke igbo izugbe.Mgbe anyi n’eme nnyocha a, anyị chọpụtara n’oghere dị n’asụsụ igbo n’ihe metutara mkpọpụtaaha ihe. Nke a mere n’enwere ọtụtụ ihe ndi n’enweghị aha n’asụsụ igbo na ngalaba amụmamụmaka ọmụmụ nwa na nlekọta nwa ohụụ. Ihe ndia nwechara aha n’asụsụ ndi ọzọ. Anyị gbalịrịịfachisi oghere ndia dị n’asụsụ igbo iji gosi n’asụsụ a bụ asụsụ igbo nwekwara ike ịkpọpụta ahaihe ndi ha aka akpọbeghị aha.Usoro anyị kwesiri ịgbaso mgbe anyị na-amụ gbasara mkpọ aha n’asụsụ igbo na ngalabaamụmamụ maka ọmụmụ nwa na nlekọta nwa ohụụ, kwesiri ka ọ bụrụ nke ga-adaba na ọmụmụihe gbasara asụsụ n’enweghị ihe ndeda gbasara ngalaba amụmamụ a na kwa ngalaba nwereọtụtụ nsọ ala. Nke a mere oji dị mkpa na anyị gara mee nchọpụta n’obodo jụọ ajụjụ ọnụ iji mataaha ndi a n’agbanyeghị na ọ dịghịrị ndi mmadụ mfe ikwu maka ngalaba ihe ọmụmụ a.viNdi anyị gakwuru maka ajụjụ ọnụ a bụ ndi dibịa bekee, ndi nọọsụ, ndi dibịa ọdịnala, ndi ọghọnwa, ndi nchịkọta obodo na ndi okenye. N’ihe niile, anyị na ihe dịka mmadụ 57 kparịtara ụka.Nke a gụnyere ndi ọkachamara. N’ime ha e nwere ndi dibịa bekee 20, ndi nọọsụ 3 na ndi ọghọnwa bekee 10 n’otu akụkụ. N’akụkụ nke ọzọ, e nwere ndi dibịa ọdịnala 15, ndi ọghọ nwaọdịnala 5, ndi nchịkọta obodo 2 na ndi okenye 2. Anyị dabekwara na sosioteminọlọjị nkeGaudin (2003, 2005) na kwa usoro Halaoui (1990, 1991). Usoro a gbasara ịjụ ndi igbo ụfọdụajụjụ ọnụ na iso ha nọrọ mgbe ha na-arụ ọrụ.Nchọcha anyị gụnyekwara ịkpọpụta aha dị iche iche n’asụsụ igbo nke sistemu njiamụnwa nkenwoke na nwaanyị, aha gbasara nwa e bu n’afọ na nke nwa a mụrụ ọhụụ. Anyị gbasoro usoroDiki-Kidiri (2008) maka mkpọpụta aha. Anyị mekwara nkọwa iji gosipụta otu anyị si kpọọ ahandịa. N’ikpe azụ anyị depụtara aha ndi niile anyị ji rụọ ọrụ na asụsụ bekee, frenchi na kwa igbo.Aha ndi anyị depụtara gbasara : Amụmamụ ọkpụkpụ ukwu nwaanyị na njiamụnwa, Amụmamụime njiamụnwa kenwaanyị, Amụmamụ ọganụ njiamụnwa kenwoke, Fiziọlọjị sistemunjiamụnwa, Ntolite nwa nọ n’afọ, Fiziọlọjị kenri na mmiriara n’afọ ime, Nledo nwa nọ n’afọna kwa nwaọhụụ, Imeomume, Mbido ndụ nwaọhụụ, Ọrịa ọganụ njiamụnwa, Ọrịa nwaanyị,Nkwarụ, Kansa njiamụnwa na kwa Ọrịa akpamamịrị
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

El, Boukkouri Hicham. "Domain adaptation of word embeddings through the exploitation of in-domain corpora and knowledge bases". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG086.

Texto completo
Resumen
Il existe, à la base de la plupart des systèmes de TAL, des représentations numériques appelées « plongements lexicaux » qui permettent à la machine de traiter, d'interagir avec et, dans une certaine mesure, de comprendre le langage humain. Ces plongements lexicaux nécessitent une quantité importante de textes afin d'être entraînés correctement, ce qui conduit souvent les praticiens du TAL à collecter et fusionner des textes provenant de sources multiples, mélangeant souvent différents styles et domaines (par exemple, des encyclopédies, des articles de presse, des articles scientifiques, etc.). Ces corpus dits du « domaine général » sont aujourd'hui la base sur laquelle s'entraînent la plupart des plongements lexicaux, limitant fortement leur utilisation dans des domaines plus spécifiques. En effet, les « domaines spécialisés » comme le domaine médical manifestent généralement assez de spécificités lexicales, sémantiques et stylistiques (par exemple, l'utilisation d'acronymes et de termes techniques) pour que les plongements lexicaux généraux ne soient pas en mesure de les représenter efficacement. Dans le cadre de cette thèse, nous explorons comment différents types de ressources peuvent être exploités afin soit d’entraîner de nouveaux plongements spécialisés, soit de spécialiser davantage des représentations préexistantes. Plus précisément, nous étudions d'abord comment des corpus de textes peuvent être utilisés à cette fin. En particulier, nous montrons que la taille du corpus ainsi que son degré de similarité au domaine d’intérêt jouent un rôle important dans ce processus puis proposons un moyen de tirer parti d'un petit corpus du domaine cible afin d’obtenir de meilleurs résultats dans des contextes à faibles ressources. Ensuite, nous abordons le cas des modèles de type BERT et observons que les vocabulaires généraux de ces modèles conviennent mal aux domaines spécialisés. Cependant, nous montrons des résultats indiquant que des modèles formés à l'aide de tels vocabulaires peuvent néanmoins être comparables à des systèmes entièrement spécialisés et utilisant des vocabulaires du domaine du domaine, ce qui nous amène à la conclusion que le ré-entraînement de modèles du domaine général est une approche tout à fait efficace pour construire des systèmes spécialisés. Nous proposons également CharacterBERT, une variante de BERT capable de produire des représentations de mots entiers en vocabulaire ouvert via la consultation des caractères de ces mots. Nous montrons des résultats indiquant que cette architecture conduit à une amélioration des performances dans le domaine médical tout en étant plus robuste aux fautes d'orthographe. Enfin, nous étudions comment des ressources externes sous forme de bases de connaissances et ontologies du domaine peuvent être exploitées pour spécialiser des représentations de mots préexistantes. Dans ce cadre, nous proposons une approche simple qui consiste à construire des représentations denses de bases de connaissances puis à combiner ces ``vecteurs de connaissances’’ avec les plongements lexicaux cibles. Nous généralisons cette approche et proposons également des Modules d'Injection de Connaissances, de petites couches neuronales permettant l'intégration de représentations de connaissances externes au sein des couches cachées de modèles à base de Transformers. Globalement, nous montrons que ces approches peuvent conduire à de meilleurs résultats, cependant, nous avons l'intuition que ces performances finales dépendent en fin de compte de la disponibilité de connaissances pertinentes pour la tâche cible au sein des bases de connaissances considérées. Dans l'ensemble, notre travail montre que les corpus et bases de connaissances du domaine peuvent être utilisés pour construire de meilleurs plongements lexicaux en domaine spécialisé. Enfin, afin de faciliter les recherches futures sur des sujets similaires, nous publions notre code et partageons autant que possible nos modèles pré-entraînés
There are, at the basis of most NLP systems, numerical representations that enable the machine to process, interact with and—to some extent—understand human language. These “word embeddings” come in different flavours but can be generally categorised into two distinct groups: on one hand, static embeddings that learn and assign a single definitive representation to each word; and on the other, contextual embeddings that instead learn to generate word representations on the fly, according to a current context. In both cases, training these models requires a large amount of texts. This often leads NLP practitioners to compile and merge texts from multiple sources, often mixing different styles and domains (e.g. encyclopaedias, news articles, scientific articles, etc.) in order to produce corpora that are sufficiently large for training good representations. These so-called “general domain” corpora are today the basis on which most word embeddings are trained, greatly limiting their use in more specific areas. In fact, “specialized domains” like the medical domain usually manifest enough lexical, semantic and stylistic idiosyncrasies (e.g. use of acronyms and technical terms) that general-purpose word embeddings are unable to effectively encode out-of-the-box. In this thesis, we explore how different kinds of resources may be leveraged to train domain-specific representations or further specialise preexisting ones. Specifically, we first investigate how in-domain corpora can be used for this purpose. In particular, we show that both corpus size and domain similarity play an important role in this process and propose a way to leverage a small corpus from the target domain to achieve improved results in low-resource settings. Then, we address the case of BERT-like models and observe that the general-domain vocabularies of these models may not be suited for specialized domains. However, we show evidence that models trained using such vocabularies can be on par with fully specialized systems using in-domain vocabularies—which leads us to accept re-training general domain models as an effective approach for constructing domain-specific systems. We also propose CharacterBERT, a variant of BERT that is able to produce word-level open-vocabulary representations by consulting a word's characters. We show evidence that this architecture leads to improved performance in the medical domain while being more robust to misspellings. Finally, we investigate how external resources in the form of knowledge bases may be leveraged to specialise existing representations. In this context, we propose a simple approach that consists in constructing dense representations of these knowledge bases then combining these knowledge vectors with the target word embeddings. We generalise this approach and propose Knowledge Injection Modules, small neural layers that incorporate external representations into the hidden states of a Transformer-based model. Overall, we show that these approaches can lead to improved results, however, we intuit that this final performance ultimately depends on whether the knowledge that is relevant to the target task is available in the input resource. All in all, our work shows evidence that both in-domain corpora and knowledge may be used to construct better word embeddings for specialized domains. In order to facilitate future research on similar topics, we open-source our code and share pre-trained models whenever appropriate
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Coupat, Raphaël. "Méthodologie pour les études d’automatisation et la génération automatique de programmes Automates Programmables Industrielssûrs de fonctionnement. Application aux Equipements d’Alimentation des Lignes Électrifiées". Thesis, Reims, 2014. http://www.theses.fr/2014REIMS019/document.

Texto completo
Resumen
Le projet de recherche présenté dans cette thèse a été réalisé avec la collaboration de la Direction de l'Ingénierie SNCF et le CReSTIC de l'Université de Reims Champagne-Ardenne (URCA). L'objectif de ce projet est de contribuer à l'amélioration des études de conception du contrôle/commande des projets d'électrification menées par les chargés d'études. Ce projet doit répondre à des objectifs humains, économiques et techniques exprimés par la SNCF, notamment appliqué au domaine des Equipements d'Alimentation des Lignes Electrifiées (EALE). Pour répondre à ces problématiques, une méthodologie pour les études d'automatisation est proposée. Elle intègre deux axes de recherche. Le premier axe est la génération automatique de livrables (codes, documents, schémas…). Celle-ci repose nécessairement sur une standardisation et une modélisation du « métier ». L'approche MDD (Model Driven Development) du génie logiciel et l'approche DSM (Domain Specific Modeling), apporte des éléments de solution reposant sur l'utilisation de « templates métiers ». Toutefois, il est fondamental de générer des livrables de qualité et du code API (Automates Programmables Industriels) sûr de fonctionnement. Le second axe de recherche s'intéresse à la commande sûre de fonctionnement. Trois approches de synthèse de la commande (la Supervisory Control Theory (SCT), la synthèse algébrique, la commande par contraintes logiques) permettant a priori de répondre à ces objectifs de sûreté sont présentées et discutées. La commande par contraintes logiques présente l'avantage majeur de séparer la sécurité (qui est vérifiée formellement hors ligne par model-checking) et le fonctionnel, et de pouvoir être utilisée avec des programmes API existants, ne remettant pas ainsi en cause la méthodologie de travail des chargés d'études
The research project presented in this thesis has been realized with the collaboration of the Engineer Department of the SNCF and the CReSTIC of the University of Reims Champagne-Ardenne. The goal of this project is to contribute to the improvement of the control studies of the electrification projects realized by the design engineers. This project must meet human, economic and technical aims expressed by the SNCF applied to the field of the Power Supply Equipments of the Electrified Lines (EALE in french). To answer these problems, a methodology for the automation studies is proposed. It integrates two research orientations were studied. The first axis is the automatic generation the deliverables (codes, documents, diagrams…). This axis is based on standardization and modeling of the “work”. MDD (Model Driven Development) and DSM (Domain Specific Modeling) approaches, brings suggestions for solution based on the use of “work templates”. However, it is fundamental to generate quality deliverables and safe PLC (Programmable Logic Controller) code. The second research orientation is interested in safe control. Three approaches of control synthesis (Supervisory Control Theory (SCT), the algebraic synthesis, the control by logical constraints) permitting a priori to reach these aims of safety are presented and discussed. The major advantage of the control by logical constraints is to separate the safety (which is checked formally off line by model-checking) and the functional parts. It can be used with existing PLC programs, which doesn't change thus the working methodology of the design engineers
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Peixoto, Paul. "Ciblage de l'ADN par de molécules antitumorales et modulation de l'activité des partenaires protéiques". Phd thesis, Université du Droit et de la Santé - Lille II, 2008. http://tel.archives-ouvertes.fr/tel-00322954.

Texto completo
Resumen
L'éventail thérapeutique utilisé en chimiothérapie antitumorale fait appel à des molécules ayant un indice thérapeutique limité dû à leur faible sélectivité d'action. C'est pourquoi nous développons au laboratoire de nouvelles approches pour guider la conception d'agents antitumoraux plus sélectifs. Cette approche s'intègre dans un design rationnel de ligands de l'ADN qui inhibent l'activité de liaison à l'ADN de facteurs de transcription afin de réguler l'expression de certains gènes.
Les dérivés DB, retenus pour cette étude, sont des molécules synthétisées par les Prs David Boykin et David Wilson (Atlanta) qui se fixent sur des séquences spécifiques dans le petit sillon de l'ADN. Ainsi, le composé diphényl-furane DB75 se lie en monomère à des séquences riches en paires de bases AT, alors que le dérivé phényl-furane-benzimidazole DB293 reconnaît la séquence 5'-ATGA en dimère. Cette reconnaissance «séquence-spécifique» pourrait cibler spécifiquement des interactions ADN-facteurs de transcription impliquées dans la régulation des gènes et la prolifération cellulaire.
Dans cette optique notre travail a été de déterminer la spécificité d'interaction à l'ADN de nouvelles molécules et d'en évaluer leur distribution cellulaire afin de pouvoir, dans un second temps, étudier la modulation de la liaison à l'ADN de facteur de transcription après fixation des dérivés.
Ainsi, nous nous sommes tout d'abord intéressés à la distribution cellulaire des composés DB dérivant du DB75 et du DB293 afin de déterminer s'ils pénètrent efficacement dans la cellule et se dirigent vers l'ADN nucléaire. Les résultats obtenus valident ceux publiés précédemment (Lansiaux et al., 2002a, 2002b) et montrent le faible impact des modifications du corps polycyclique sur la distribution des composés DB. Ainsi, les composés diphényl-furanes substitués sur le cycle furane, pénètrent efficacement dans le noyau alors que seules certaines substitutions sur les groupements phényles empêchent la molécule de pénétrer dans le noyau. Les conséquences cellulaires sont surprenantes puisque ces derniers composés présentent une très bonne cytotoxicité. Dans un second temps, nous avons étudié la spécificité et l'affinité de ces dérivés pour l'ADN. Nous avons ainsi découvert de nouveaux ligands des sites riches en paires de bases AT et des séquences ATGA qui ont permis de compléter nos connaissances des relations structure/affinité de ces composés.
Afin de déterminer si cette famille de ligands peut moduler sélectivement l'activité de liaison à l'ADN de facteurs de transcription, un criblage en mode compétitif de l'activité de 54 facteurs de transcription a été réalisé avec le DB293. Pour cela nous avons utilisé une approche innovante basée sur le principe des macroarrays : les membranes Transignal/Protein/DNA array I. Nous avons mis en évidence l'inhibition de la fixation de Pit-1 et Brn-3, deux facteurs de transcription à domaine POU dont les sites consensus contiennent un site riche en paires de bases AT et la séquence 5'-ATGA. Cependant, la seule présence d'un site 5'-ATGA ne prévient pas l'inhibition de l'activité de liaison à l'ADN par le DB293 puisque le facteur de transcription IRF-1 présentant aussi un site 5'-ATGA dans son site consensus n'est pas inhibé par le DB293. Nous avons montré que le DB293 interagit en dimère aux séquences 5'-ATGA des sites consensus Brn-3 et Pit-1 mais pas sur celui de IRF-1.
En parallèle, un ciblage de facteurs de transcription associés de manière privilégiée à un cancer donné et se liant au même type de séquence que les composés DB a orienté notre étude sur le complexe de transcription PBX/HoxA9. Ce complexe protéique se lie à une séquence nucléotidique à la fois riche en paire de base AT et contenant un site ATGA. Les membres de ce complexe sont sur-exprimés ou transloqués dans bon nombre de leucémies aiguës myéloïdes, lymphoïdes ou de syndromes myéloprolifératifs. Des tests d'interaction protéine/ADN nous ont permis de sélectionner des composés empêchant la fixation de HoxA9 sur sa séquence ADN cible. Les premiers résultats prometteurs dans la cellule montrent une toxicité induite par nos dérivés sur des cellules dont la prolifération est dépendante de l'activité de HoxA9 alors que cette toxicité est moindre dans des cellules n'exprimant pas HoxA9. Des tests clonogéniques effectués sur des cellules de moelle osseuse transformées par HoxA9 montrent un effet antiprolifératif du composé sélectionné qui est plus important sur les progéniteurs les moins engagés dans les voies de différentiation hématopoïétique.

De plus, le criblage de nouvelles séries de molécules dicationiques a permis d'identifier 3 nouveaux composés, les dérivés DB1255, DB1242 et RT-29 qui se lient à des séquences originales riches en paires de base GC. Il s'avère que le composé DB1255 inhibe efficacement la fixation du facteur de transcription Erg sur son site consensus EBS.

Cette étude montre pour la première fois l'inhibition de la fixation de facteurs de transcription par les composés DB et ouvre ainsi de nombreuses pistes prometteuses dans l'inhibition spécifiques de facteurs de transcription impliquées dans des processus de tumorogenèse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Piat, Guilhem Xavier. "Incorporating expert knowledge in deep neural networks for domain adaptation in natural language processing". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG087.

Texto completo
Resumen
Les Modèles de Langage (LMs) de pointe sont capables de converser, résumer, traduire, résoudre des problèmes inédits, raisonner, et manipuler des concepts abstraits à niveau quasi-humain. Cependant, pour acquérir ces capacités, et en particulier pour acquérir une forme de ``bon sens'' ou des connaissances spécifiques à un domaine, ils requièrent de vastes quantités de texte, qui ne sont pas disponibles pour toutes les langues ou tous les domaines. De surcroît, leurs besoins en puissance de calcul ne sont atteignables que par quelques organisations, limitant leur spécificité ainsi que leur applicabilité aux données sensibles.Les Graphes de Connaissances (GCs) sont des sources de connaissances structurées qui associent des concepts linguistiques entre eux par le biais de relations sémantiques. Ces graphes sont des sources de connaissances de haute qualité, préexistantes dans une variété de domaines même peu dotés en ressources, et plus denses en informations que du texte. En permettant aux LMs d'exploiter ces structures d'information, ils sont délestés de la responsabilité de mémoriser les informations factuelles, réduisant la quantité de ressources textuelles et calculatoires nécessaires à leur entraînement, et nous permettant de mettre à jour leur connaissances à moindre coût, élargissant leur cadre d'application et augmentant leur potentiel de démocratisation.Diverses approches pour l'amélioration de LMs par intégration de GCs ont démontré leur efficacité. Elles reposent cependant sur la supposition rarement vérifiée que le problème de Désambiguïsation d'Entités Nommées (DEN) est résolu en amont. Ce mémoire couvre les limitations de cette approche, puis explore l'apprentissage simultané de modélisation de langue et de DEN. Cette démarche s'avère viable mais échoue à réduire considérablement la dépendance du LM sur le texte issu du domaine. Enfin, ce mémoire aborde la stratégie de générer du texte à partir de GCs de manière à exploiter les capacités linguistiques des LMs. Il en ressort que même une implémentation naïve de cette approche peut se solder par de considérables progrès en modélisation de langue dans des domaines de spécialité
Current state-of-the-art Language Models (LMs) are able to converse, summarize, translate, solve novel problems, reason, and use abstract concepts at a near-human level. However, to achieve such abilities, and in particular to acquire ``common sense'' and domain-specific knowledge, they require vast amounts of text, which are not available in all languages or domains. Additionally, their computational requirements are out of reach for most organizations, limiting their potential for specificity and their applicability in the context of sensitive data.Knowledge Graphs (KGs) are sources of structured knowledge which associate linguistic concepts through semantic relations. These graphs are sources of high quality knowledge which pre-exist in a variety of otherwise low-resource domains, and are denser in information than typical text. By allowing LMs to leverage these information structures, we could remove the burden of memorizing facts from LMs, reducing the amount of text and computation required to train them and allowing us to update their knowledge with little to no additional training by updating the KGs, therefore broadening their scope of applicability and making them more democratizable.Various approaches have succeeded in improving Transformer-based LMs using KGs. However, most of them unrealistically assume the problem of Entity Linking (EL), i.e. determining which KG concepts are present in the text, is solved upstream. This thesis covers the limitations of handling EL as an upstream task. It goes on to examine the possibility of learning EL jointly with language modeling, and finds that while this is a viable strategy, it does little to decrease the LM's reliance on in-domain text. Lastly, this thesis covers the strategy of using KGs to generate text in order to leverage LMs' linguistic abilities and finds that even naïve implementations of this approach can result in measurable improvements on in-domain language processing
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Xue, Lin. "Aspects évolutifs de l’agir professoral dans le domaine de l’enseignement des langues : une étude à travers les discours de verbalisation de six enseignants de français langue étrangère et de chinois langue étrangère". Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCA148/document.

Texto completo
Resumen
Cette thèse s’attache à comprendre les dynamiques au sein du système de la pensée enseignante des enseignants de langues étrangères (LE) à l’aide d’un dispositif de suivi multimodal et longitudinal. Situé en didactique des langues et notamment en pensée enseignante, ce travail est inscrit dans un cadre théorique multidisciplinaire où est postulée une cohabitation du socioconstructivisme et de l’émergentisme. Dans le but de saisir les aspects évolutifs des représentations de six enseignants de français langue étrangère (FLE) et de chinois langue étrangère (CLE) en Chine et en France, des moyens d’observation et d’entretiens – semi-directifs et d’auto-confrontation – ont été mobilisés pour chacun des enseignants durant un semestre. Leurs discours de verbalisation ont été analysés selon une approche double conjuguant l’analyse de contenu et l’analyse du discours. A côté d’une image de soi pluri-identitaire et instable, se dessine un système de connaissances et de convictions dont la construction et le fonctionnement portent la marque de l’historicité, de la subjectivité, de la contextualité et des contradictions. La théorie de l’activité trouve sa validité dans la répartition du travail basée sur les profils des apprenants-collaborateurs typifiés ; le poids de l’action incorporée se traduit par l’effet envisagé que l’enseignant souhaite atteindre à l’issue de l’action. La non-linéarité de l’évolution contextuelle va de pair avec l’actualisation des pratiques et des représentations. La complexité de la pensée enseignante est articulée autour d’une dynamique entre l’intentionnalité, l’action incorporée et les contraintes contextuelles. La rupture de la réflexivité au cours de l’action, découverte en neurosciences, et validée ici par la mise en place de méthodologies en sciences humaines et sociales, constitue à ce titre la contribution majeure de ce travail
This dissertation is devoted to reconstructing the dynamics of foreign language teachers’ thinking by a multimodal and longitudinal approach. Focused on the field of Applied Linguistics and teacher cognition in particular, the present work is part of a multidisciplinary theoretical framework co-constructed of Social constructivism and Emergentism. This study involved six teachers of French as a foreign language (FFL) and Chinese as a foreign language (CFL) working in China and in France, each being followed up for one semester, through classroom observation and different kinds of interviews (semi-directive interviews and stimulated recall). Their verbalization was then analyzed by a mixed approach combining content analysis and discourse analysis. Besides an instable self-image characterized by multi-identity, emerge from each teacher’s discourse a knowledge and belief system and its historicity, subjectivity, contextuality and contradiction. The validity of Activity Theory is confirmed by a division of labour based on learners’ profiles that the teacher typifies. The importance of embodied action is dependent on the expected outcome. Teachers wish to not only complete their teaching activity but also reach an effect which is an integrated part of their thinking patterns. The non-linearity of context changing explains the updating of teacher’s thinking and practice. Teacher cognition’s complexity is structured around a dynamic between intentionality, embodied action and situational constraints. The break of reflexivity during action, discovered in neurosciences and validated here in a human and social sciences’ methodology, constitutes the key contribution of this work
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía