To see the other types of publications on this topic, follow the link: Intégration de connaissances externes.

Dissertations / Theses on the topic 'Intégration de connaissances externes'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Intégration de connaissances externes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Plesse, François. "Intégration de Connaissances aux Modèles Neuronaux pour la Détection de Relations Visuelles Rares." Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC1003.

Full text
Abstract:
Les données échangées en ligne ont un impact majeur sur les vies de milliards de personnes et il est crucial de pouvoir les analyser automatiquement pour en mesurer et ajuster l'impact. L'analyse de ces données repose sur l'apprentissage de réseaux de neurones profonds, qui obtiennent des résultats à l'état de l'art dans de nombreux domaines. En particulier, nous nous concentrons sur la compréhension des intéractions entre les objets ou personnes vivibles dans des images de la vie quotidienne, nommées relations visuelles.Pour cette tâche, des réseaux de neurones sont entraînés à minimiser une fonction d'erreur qui quantifie la différence entre les prédictions du modèle et la vérité terrain donnée par des annotateurs.Nous montrons dans un premier temps, que pour la détection de relation visuelles, ces annotations ne couvrent pas l'ensemble des vraies relations et sont, de façon inhérente au problème, incomplètes. Elle ne sont par ailleurs pas suffisantes pour entraîner un modèle à reconnaître les relations visuelles peu habituelles.Dans un deuxième temps, nous intégrons des connaissances sémantiques à ces réseaux pendant l'apprentissage. Ces connaissances permettent d'obtenir des annotations qui correspondent davantage aux relations visibles. En caractérisant la proximité sémantique entre relations, le modèle apprend ainsi à détecter une relation peu fréquente à partir d'exemples de relations plus largement annotées.Enfin, après avoir montré que ces améliorations ne sont pas suffisantes si le modèle annote les relations sans en distinguer la pertinence, nous combinons des connaissances aux prédictions du réseau de façon à prioriser les relations les plus pertinentes
Data shared throughout the world has a major impact on the lives of billions of people. It is critical to be able to analyse this data automatically in order to measure and alter its impact. This analysis is tackled by training deep neural networks, which have reached competitive results in many domains. In this work, we focus on the understanding of daily life images, in particular on the interactions between objects and people that are visible in images, which we call visual relations.To complete this task, neural networks are trained in a supervised manner. This involves minimizing an objective function that quantifies how detected relations differ from annotated ones. Performance of these models thus depends on how widely and accurately annotations cover the space of visual relations.However, existing annotations are not sufficient to train neural networks to detect uncommon relations. Thus we integrate knowledge into neural networks during the training phase. To do this, we model semantic relationships between visual relations. This provides a fuzzy set of relations that more accurately represents visible relations. Using the semantic similarities between relations, the model is able to learn to detect uncommon relations from similar and more common ones. However, the improved training does not always translate to improved detections, because the objective function does not capture the whole relation detection process. Thus during the inference phase, we combine knowledge to model predictions in order to predict more relevant relations, aiming to imitate the behaviour of human observers
APA, Harvard, Vancouver, ISO, and other styles
2

Racette, Nicole. "Intégration des connaissances théoriques et pratiques de l'analyse financière externe et interne dans le but d'un diagnostic de la situation financière." Mémoire, Université de Sherbrooke, 1990. http://hdl.handle.net/11143/9050.

Full text
Abstract:
L'analyse de la situation financière de l'entreprise sert à la prise de décision pour les parties intéressées à l'intérieur de l'entreprise, soit le gestionnaire et parfois le propriétaire et les autres qui se trouvent à l'extérieur, tels l'investisseur, le ministère du revenu, le banquier et le consultant. Dépendamment de l'utilisateur, l'information disponible n'est pas la même. L'investisseur, le banquier et le ministère du revenu doivent analyser l'entreprise à partir des données comptables publiées. Mais, les états financiers cachent parfois certaines réalités, tel un exercice financier ne représentant pas la saisonnalité des activités. De même les stocks de fin d'exercice ne représentent pas nécessairement le niveau du stock moyen. Les échéances de paiement surviennent peut-être au début plutôt qu'uniformément au cours de l'exercice. La signature de contrats importants pourra avoir des répercussions qu'au cours de l'exercice suivant. L'information interne seule peut répondre à ces questions. De plus, le résultat net publié dans les états financiers renferme certaines lacunes dont l'analyste doit tenir compte : 1- L'amortissement et l'évaluation des comptes-clients comportent une bonne part de subjectivité; 2- L'existence de plusieurs méthodes d'évaluation des stocks amène des problèmes de comparabilité, surtout lorsque ces postes ont une relative importance; 3- La dépréciation monétaire non prise en compte dans les états financiers diminue la comparabilité d'un exercice à l'autre et n'assure pas la préservation du patrimoine. Ainsi, les dividendes peuvent être versés au-delà de ce qu'il serait prudent de verser pour assurer la capacité de fonctionnement; 4- En période de prospérité, l'entreprise tentera de minimiser son bénéfice comptable afin de diminuer sa charge fiscale alors qu'en période de déficit, elle tentera de maximiser son bénéfice comptable pour rassurer les propriétaires et les prêteurs; 5- L'inflation accentue les difficultés de comparaison. Il faudra donc tenir compte de l'inflation pour apprécier l'évolution réelle du résultat; 6- La comparaison avec plusieurs entreprises est quelque peu biaisée dû au choix des pratiques comptables exercées sur plusieurs postes. Les critères de comparaison devront donc être le moins possible dépendants de choix de pratiques comptables. Malgré l'existence de ces déformations comptables, les états financiers demeurent une source importante d'informations. Mais les forces et les faiblesses de l'entreprise s'en trouvent plus ou moins cachées. Comme le gestionnaire et le consultant ont accès aux données non publiées par l'entreprise, les résultats des activités et les données sur la qualité de la gestion interne peuvent donc être plus détaillés, et plus proches de la réalité. L'information publique, ne permet que de détecter les grandes lignes de la situation financière de l'entreprise. Les ouvrages en finance ne traitent que très peu de ces facteurs internes et du lien entre l'information interne et l'information externe. Le but de notre étude a été de créer un modèle de diagnostic de la situation financière, dans un premier temps, issu de la théorie et reposant sur les données externes et internes à l'entreprise. Dans un deuxième temps, nous avons construit un modèle plus complet qui tienne compte des interrelations des postes des états financiers et de l'interprétation faite par les praticiens, et dont la théorie ne fait pas état. L'intégration des connaissances des praticiens au modèle théorique initial et l'utilisation des données internes à l'entreprise, devraient permettre de porter un diagnostic plus éclairé de la situation financière de l'entreprise.
APA, Harvard, Vancouver, ISO, and other styles
3

Villeneuve, Louise. "Les conditions internes et les évènements externes favorisant le processus d'intégration dans un contexte de supervision." Doctoral thesis, Université Laval, 1987. http://hdl.handle.net/20.500.11794/29302.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Chaibou, Salaou Mahaman Sani. "Segmentation d'image par intégration itérative de connaissances." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0140.

Full text
Abstract:
Le traitement d’images est un axe de recherche très actif depuis des années. L’interprétation des images constitue une de ses branches les plus importantes de par ses applications socio-économiques et scientifiques. Cependant cette interprétation, comme la plupart des processus de traitements d’images, nécessite une phase de segmentation pour délimiter les régions à analyser. En fait l’interprétation est un traitement qui permet de donner un sens aux régions détectées par la phase de segmentation. Ainsi, la phase d’interprétation ne pourra analyser que les régions détectées lors de la segmentation. Bien que l’objectif de l’interprétation automatique soit d’avoir le même résultat qu’une interprétation humaine, la logique des techniques classiques de ce domaine ne marie pas celle de l’interprétation humaine. La majorité des approches classiques d’interprétation d’images séparent la phase de segmentation et celle de l’interprétation. Les images sont d’abord segmentées puis les régions détectées sont interprétées. En plus, au niveau de la segmentation les techniques classiques parcourent les images de manière séquentielle, dans l’ordre de stockage des pixels. Ce parcours ne reflète pas nécessairement le parcours de l’expert humain lors de son exploration de l’image. En effet ce dernier commence le plus souvent par balayer l’image à la recherche d’éventuelles zones d’intérêts. Dans le cas échéant, il analyse les zones potentielles sous trois niveaux de vue pour essayer de reconnaitre de quel objet s’agit-il. Premièrement, il analyse la zone en se basant sur ses caractéristiques physiques. Ensuite il considère les zones avoisinantes de celle-ci et enfin il zoome sur toute l’image afin d’avoir une vue complète tout en considérant les informations locales à la zone et celles de ses voisines. Pendant son exploration, l’expert, en plus des informations directement obtenues sur les caractéristiques physiques de l’image, fait appel à plusieurs sources d’informations qu’il fusionne pour interpréter l’image. Ces sources peuvent inclure les connaissent acquises grâce à son expérience professionnelle, les contraintes existantes entre les objets de ce type d’images, etc. L’idée de l’approche présentée ici est que simuler l’activité visuelle de l’expert permettrait une meilleure compatibilité entre les résultats de l’interprétation et ceux de l’expert. Ainsi nous retenons de cette analyse trois aspects importants du processus d’interprétation d’image que nous allons modéliser dans l’approche proposée dans ce travail : 1. Le processus de segmentation n’est pas nécessairement séquentiel comme la plus part des techniques de segmentations qu’on rencontre, mais plutôt une suite de décisions pouvant remettre en cause leurs prédécesseurs. L’essentiel étant à la fin d’avoir la meilleure classification des régions. L’interprétation ne doit pas être limitée par la segmentation. 2. Le processus de caractérisation d’une zone d’intérêt n’est pas strictement monotone i.e. que l’expert peut aller d’une vue centrée sur la zone à vue plus large incluant ses voisines pour ensuite retourner vers la vue contenant uniquement la zone et vice-versa. 3. Lors de la décision plusieurs sources d’informations sont sollicitées et fusionnées pour une meilleure certitude. La modélisation proposée de ces trois niveaux met particulièrement l’accent sur les connaissances utilisées et le raisonnement qui mène à la segmentation des images
Image processing has been a very active area of research for years. The interpretation of images is one of its most important branches because of its socio-economic and scientific applications. However, the interpretation, like most image processing processes, requires a segmentation phase to delimit the regions to be analyzed. In fact, interpretation is a process that gives meaning to the regions detected by the segmentation phase. Thus, the interpretation phase can only analyze the regions detected during the segmentation. Although the ultimate objective of automatic interpretation is to produce the same result as a human, the logic of classical techniques in this field does not marry that of human interpretation. Most conventional approaches to this task separate the segmentation phase from the interpretation phase. The images are first segmented and then the detected regions are interpreted. In addition, conventional techniques of segmentation scan images sequentially, in the order of pixels appearance. This way does not necessarily reflect the way of the expert during the image exploration. Indeed, a human usually starts by scanning the image for possible region of interest. When he finds a potential area, he analyzes it under three view points trying to recognize what object it is. First, he analyzes the area based on its physical characteristics. Then he considers the region's surrounding areas and finally he zooms in on the whole image in order to have a wider view while considering the information local to the region and those of its neighbors. In addition to information directly gathered from the physical characteristics of the image, the expert uses several sources of information that he merges to interpret the image. These sources include knowledge acquired through professional experience, existing constraints between objects from the images, and so on.The idea of the proposed approach, in this manuscript, is that simulating the visual activity of the expert would allow a better compatibility between the results of the interpretation and those ofthe expert. We retain from the analysis of the expert's behavior three important aspects of the image interpretation process that we will model in this work: 1. Unlike what most of the segmentation techniques suggest, the segmentation process is not necessarily sequential, but rather a series of decisions that each one may question the results of its predecessors. The main objective is to produce the best possible regions classification. 2. The process of characterizing an area of interest is not a one way process i.e. the expert can go from a local view restricted to the region of interest to a wider view of the area, including its neighbors and vice versa. 3. Several information sources are gathered and merged for a better certainty, during the decision of region characterisation. The proposed model of these three levels places particular emphasis on the knowledge used and the reasoning behind image segmentation
APA, Harvard, Vancouver, ISO, and other styles
5

Bouzid, Marwa. "Intégration des informations et connaissances en Usine Numérique." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC010/document.

Full text
Abstract:
Au cours des dernières décennies, le Processus de Développement de nouveaux Produits (PDP) est devenu un processus de plus en plus complexe et itératif, dû à la diversification et la personnalisation des produits et leur complexification. De plus la conception des systèmes de production associés devient une tâche très complexe, sachant que cette phase est liée aux prises de décisions de la stratégie de production qui ont un impact à long terme et qui impliquent un engagement important de ressources financières. Ainsi, les entreprises doivent surmonter ces défis pour concevoir, développer et produire des produits plus rapides et moins chers avec une meilleure qualité. Dans ce contexte, l’Usine Numérique (UN) est une solution basée sur l’emploi de méthodeset outils numériques pour examiner, qualifier et comparer les systèmes de production complexes et ainsi aider la prise de décisions optimales. Cependant, les experts de simulation rencontrent toujours des difficultés lors de prises de décision, dû au manque d’organisation, informations et connaissances. Dans ce travail de recherche, nous nous concentrons sur ce dernier point et proposons un système de gestion des connaissances nommé « KSim » dédié à la gestion de toutes les connaissances pour le développement des projets d’UN et qui supporte la collaboration et la communication entre tous les acteurs de PDP pour faciliter la prise de bonnes décisions dans un temps restreint
In recent decades, the New Product Development Process (PDP) has become an increasingly complex and iterative process due to the diversification and customization of products and their complexity. Moreover, the design of the associated production systems becomes a very complex task, knowing that this phase is linked to the decision-making of the production strategy which have an impact on long-term and which involve an important commitment of financial resources. Thus, companies must overcome these challenges for design, develop and produce faster and cheaper products with better quality. In this context, the Digital Factory (DF) is a solutionbased on the use of numerical methods and tools to examine, qualify and compare the complex production systems and thus, help to make the optimal decisions. However, the experts of simulation still encounter difficulties in the decision-making due to the lack of organization, information and knowledge. In this research, we focus on this last point and we propose a knowledge management system called "KSim" dedicated to the management of all knowledge for the development of DF projects and which supports the collaboration and communication between all PDP actors to facilitate to make better decisions as soon as possible
APA, Harvard, Vancouver, ISO, and other styles
6

Seydoux, Florian. "Exploitation de connaissances sémantiques externes dans les représentations vectorielles en recherche documentaire /." [S.l.] : [s.n.], 2006. http://library.epfl.ch/theses/?nr=3654.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Barriot, Roland. "Intégration des connaissances biologiques à l'échelle de la cellule." Bordeaux 1, 2005. http://www.theses.fr/2005BOR13100.

Full text
Abstract:
Cette thèse dans le domaine de la bio-informatique porte sur la représentation et la confrontation des données biologiques. La disponibilité d'un nombre croissant de génomes complets et l'accumulation de résultats expérimentaux produits par des apprcohes post-séquençage à l'échelle de la cellule et à haut débit doivent permettre de mieux comprendre l'articulation entre les mécanismes moléculaires et les fonctions cellulaires. L'intégration de ces données volumineuses et hétérogènes permettra de progresser vers une meilleure connaissance du fonctionnement de la cellule. Nous présentons un cadre formel pour la présentation de ces données permettant leur intégration à l'échelle de la cellule en vue de leur confrontation et de leur recoupement afin d'établir des correspondances nouvelles entre les données. Notre approche repose sur la généralisation du concept de voisinage entre les objets biologiques et sa représentation en ensembles partiellement ordonnés. Nous définissons une mesure de similarité entre les ensemble qui nous permet de confronter des données hétérogènes en recherchant des ensembles similaires entre les ensembles composant différents voisinages. La mise en oeuvre de ces concepts est illustrée avec la conception du système BlastSets grâce auquel des résultats biologiques préliminaires ont permis de valider l'approche.
APA, Harvard, Vancouver, ISO, and other styles
8

Hassan, Sahar. "Intégration de connaissances anatomiques a priori dans des modèles géométriques." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00607260.

Full text
Abstract:
L'imagerie médicale est une ressource de données principale pour différents types d'applications. Bien que les images concrétisent beaucoup d'informations sur le cas étudié, toutes les connaissances a priori du médecin restent implicites. Elles jouent cependant un rôle très important dans l'interprétation et l'utilisation des images médicales. Dans cette thèse, des connaissances anatomiques a priori sont intégrées dans deux applications médicales. Nous proposons d'abord une chaîne de traitement automatique qui détecte, quantifie et localise des anévrismes dans un arbre vasculaire segmenté. Des lignes de centre des vaisseaux sont extraites et permettent la détection et la quantification automatique des anévrismes. Pour les localiser, une mise en correspondance est faite entre l'arbre vasculaire du patient et un arbre vasculaire sain. Les connaissances a priori sont fournies sous la forme d'un graphe. Dans le contexte de l'identification des sous-parties d'un organe représenté sous forme de maillage, nous proposons l'utilisation d'une ontologie anatomique, que nous enrichissons avec toutes les informations nécessaires pour accomplir la tâche de segmentation de maillages. Nous proposons ensuite un nouvel algorithme pour cette tâche, qui profite de toutes les connaissances a priori disponibles dans l'ontologie.
APA, Harvard, Vancouver, ISO, and other styles
9

Bissay, Aurélie. "Du déploiement d’un système PLM vers une intégration des connaissances." Thesis, Lyon 2, 2010. http://www.theses.fr/2010LYO20003/document.

Full text
Abstract:
Les systèmes PLM (Product Lifecycle Management) permettent une traçabilité de l'information et facilitent la réduction du cycle de développement des produits. Ils ont vocation à fédérer l'ensemble des données techniques nécessaires à l'élaboration de nouveaux produits et contribuent aussi à l'amélioration des processus de l'entreprise.Nos travaux de thèse proposent une méthodologie globale de déploiement d'un système PLM qui intègre la dimension spécifique de la capitalisation des connaissances. A partir d'une formalisation des processus métier, des éléments de connaissance sont extraits et permettent d'enrichir le modèle de données. Ce modèle s'articule autour de deux axes: un axe "information" et un axe "connaissance". Chaque axe est composé de quatre étapes : identifier, modéliser, utiliser et évaluer. L'étape d'identification permet de définir le modèle de données du système et de repérer les activités nécessitant des connaissances métier particulières. La phase de modélisation consiste à paramétrer le système pour intégrer le modèle défini dans le PLM mais également formaliser les connaissances tacites extraites. l'utilisateur intervient ensuite dans le cadre de l'utilisation du système paramétré. Enfin, nous proposons d'évaluer le système d'un point de vue de la modélisation Produit, Process, Organisation mais également d'un point de vue des connaissances générées au sein du système.L'étude de cas d'un processus d'appel d'offre de l'entreprise Marmillon SAS, sous-traitant de rang 2 dans le secteur de la plasturgie et spécialiste des processus d'injection et d'extrusion pour des pièces du secteur automobile, a permis de valider notre démarche
PLM (Product Lifecycle Management) Systems allow traceability of information and facilitate the reduction of products development cycle. Besides the aspect related to information management, they aim at bringing together all technical data needed to develop new products and also they contribute to improve business processes. Our PhD work define a methodology of PLM system deployment that incorporates the knowledge capitalization dimension. Based on a business processes formalization, elements of knowledge are extracted and used to enrich the data model. This model revolves around two axes: an "information" axis and a "knowledge"axis. Each axis is devided into four steps: identify, model, use and evaluate. The identification stage is to define the data model of the system and activities requiring specific business knowledge. The modeling phase is to configure the system to integrate the defined model in the PLM system but also to formalize extracted tacit knowledge. Then comes the user through the use of the system. Finally, we propose to evaluate the system from product, process and organization modeling but also from generated knowledge within the system. The case study of a process of bidding for the Marmillon SAS company which is a subcontractor in the field of plastics, specialist of injection and extrusion processes for automotive parts allow to validate our approach
APA, Harvard, Vancouver, ISO, and other styles
10

Yeh, Hui-Syuan. "Prompt-based Relation Extraction for Pharmacovigilance." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG097.

Full text
Abstract:
L'extraction de connaissances à jour à partir de sources textuelles diverses est importante pour la santé publique. Alors que les sources professionnelles, notamment les revues scientifiques et les notes cliniques, fournissent les connaissances les plus fiables, les observations apportées dans les forums de patients et les médias sociaux permettent d'obtenir des informations complémentaires pour certains thèmes. Détecter les entités et leurs relations dans ces sources variées est particulièrement précieux. Nous nous concentrons sur l'extraction de relations dans le domaine médical. Nous commençons par souligner l'incohérence de la terminologie utilisée dans la communauté et clarifions les configurations distinctes employées pour la construction et l'évaluation d'un système d'extraction de relations. Pour obtenir une comparaison fiable, nous comparons les systèmes en utilisant la même configuration. Nous effectuons également une série d'évaluations stratifiées afin d'étudier plus en détail les propriétés des données qui affectent les performances des modèles. Nous montrons que la performance des modèles tend à diminuer avec la densité des relations, la diversité des relations et la distance entre les entités. Par la suite, ce travail explore un nouveau paradigme d'entraînement pour l'extraction de relations biomédicales : les méthodes à base de prompt avec des modèles de langue masqués. Dans ce contexte, les performances dépendent de la qualité de la conception des prompts. Cela nécessite des efforts manuels et une connaissance du domaine, notamment dans la conception des mots étiquettes qui relient les prédictions du modèle aux classes de relations. Pour surmonter ce problème, nous introduisons une technique de génération automatique de mots étiquettes qui s'appuie sur un analyseur en dépendance et les données d'entraînement. Cette approche minimise l'intervention manuelle et améliore l'efficacité des modèles avec moins de paramètres à affiner. Notre approche a des performances similaires aux autres méthodes de verbalisation sans nécessiter d'entraînement supplémentaire. Ensuite, ce travail traite de l'extraction d'informations à partir de textes écrits par des auteurs non spécialistes sur les effets indésirables des médicaments. À cette fin, dans le cadre d'un effort conjoint, nous avons constitué un corpus trilingue en allemand, français et japonais collecté à partir de forums de patients et de plates-formes de médias sociaux. Le défi et les applications potentielles du corpus sont discutés. Nous présentons des expériences initiales sur le corpus en mettant en avant trois points : l'efficacité d'un modèle multilingue dans un contexte translingue, une préparation d'exemples négatifs pour l'extraction de relations qui tient compte de la coréférence et de la distance entre les entités, et des méthodes pour traiter la distribution hautement déséquilibrée des relations. Enfin, nous intégrons des informations provenant d'une base de connaissances médicales dans une approche à base de prompt avec des modèles de langue autorégressifs pour l'extraction de relations biomédicales. Notre objectif est d'utiliser des connaissances factuelles externes pour enrichir le contexte des entités impliquées dans la relation à classifier. Nous constatons que les modèles généraux bénéficient particulièrement des connaissances externes. Notre dispositif expérimental révèle que différents marqueurs d'entités sont efficaces dans différents corpus. Nous montrons que les connaissances pertinentes sont utiles, mais que le format du prompt a un impact plus important sur les performances que les informations supplémentaires elles-mêmes
Extracting and maintaining up-to-date knowledge from diverse linguistic sources is imperative for the benefit of public health. While professional sources, including scientific journals and clinical notes, provide the most reliable knowledge, observations reported in patient forums and social media can bring complementary information for certain themes. Spotting entities and their relationships in these varied sources is particularly valuable. We focus on relation extraction in the medical domain. At the outset, we highlight the inconsistent terminology in the community and clarify the diverse setups used to build and evaluate relation extraction systems. To obtain reliable comparisons, we compare systems using the same setup. Additionally, we conduct a series of stratified evaluations to further investigate which data properties affect the models' performance. We show that model performance tends to decrease with relation density, relation diversity, and entity distance. Subsequently, this work explores a new training paradigm for biomedical relation extraction: prompt-based methods with masked language models. In this context, performance depends on the quality of prompt design. This requires manual efforts and domain knowledge, especially when designing the label words that link model predictions to relation classes. To overcome this overhead, we introduce an automated label word generation technique leveraging a dependency parser and training data. This approach minimizes manual intervention and enhances model performance with fewer parameters to be fine-tuned. Our approach performs on par with other verbalizer methods without additional training. Then, this work addresses information extraction from text written by laypeople about adverse drug reactions. To this end, as part of a joint effort, we have curated a tri-lingual corpus in German, French, and Japanese collected from patient forums and social media platforms. The challenge and the potential applications of the corpus are discussed. We present baseline experiments on the corpus that highlight three points: the effectiveness of a multilingual model in the cross-lingual setting, preparing negative samples for relation extraction by considering the co-reference and the distance between entities, and methods to address the highly imbalanced distribution of relations. Lastly, we integrate information from a medical knowledge base into the prompt-based approach with autoregressive language models for biomedical relation extraction. Our goal is to use external factual knowledge to enrich the context of the entities involved in the relation to be classified. We find that general models particularly benefit from external knowledge. Our experimental setup reveals that different entity markers are effective across different corpora. We show that the relevant knowledge helps, though the format of the prompt has a greater impact on performance than the additional information itself
APA, Harvard, Vancouver, ISO, and other styles
11

Simler, Nadine. "Altérations du comportement alimentaire en environnements externes : intégration centrale : étude chez le rongeur." Lyon 1, 2006. http://www.theses.fr/2006LYO10258.

Full text
Abstract:
L’exposition à des environnements extrêmes est en général à l’origine de perturbations de la prise alimentaire, chez l’homme comme chez le rongeur. Nous avons étudié, chez le rat, l’implication de la leptine et de ses cibles centrales dans l’instauration des anorexies induites par le stress psychogène ou par l’exposition à l’altitude. Nos résultats ont montré que le stress psychogène induisait le facteur SOCS-3, modulait l’expression du récepteur de la leptine dans l’hypothalamus, et était, à long terme, susceptible d’altérer la régulation de l’homéostasie du poids corporel de l’organisme. En utilisant une souche de rats génétiquement déficients en signalisation de la leptine, les rats Zucker obèses, nous avons démontré de façon irréfutable que l’anorexie d’altitude n’était pas imputable à des signaux centraux anorexigènes induits par une augmentation de la production de leptine par le tissu adipeux. Enfin, une 3ème étude nous permet de suggérer que l’AMPKinase hypothalamique pourrait jouer un rôle déterminant dans l’initiation de l’anorexie d’altitude. L’implication de ce système dans d’autres situations anorexigènes, comme l’exercice physique exhaustif, serait à envisager
Exposure to extreme environments usually elicits alteration in feeding behavior in men and rodents. We studied the involvement of leptin and it’s central targets in the development of anorexia induced by psychogenic stress or altitude exposure. Our results suggested that restraint stress elicited SOCS-3 induction, modulated leptin signalling in hypothalamus, and was therefore likely to alter the regulation of body weight homeostasis. Using a rat model of genetic leptin receptor deficiency, the obese Zucker rat, we unequivocally demonstrated that altitude-induced anorexia could not be ascribed to anorectic signals triggered by enhanced leptin production. A third experiment suggested that the hypothalamic AMPKinase system may play a determinant role in the early stage of altitude-induced anorexia. The involvement of this system in other anorexigenic situations such as sustained exercise needs to be examined
APA, Harvard, Vancouver, ISO, and other styles
12

Rondeau, Fabien. "Analyse du degré d'intégration économique européen à partir des effets de transmission des échanges commerciaux." Rennes 1, 2006. http://www.theses.fr/2006REN1G005.

Full text
Abstract:
Cette thèse analyse les effets de l'intégration commerciale sur le degré d'intégration économique européen. Elle propose d'évaluer les externalités exercées par l'activité économique dans un pays européen sur les autres pays par le biais des relations commerciales. La thèse est articulée en deux parties : le degré d'intégration est tout d'abord appréhendé à court terme à travers la synchronisation conjoncturelle des économies européennes, puis, à long terme, à travers le degré de déformation du niveau de production d'un pays imputé au potentiel de croissance dans le reste de l'Europe
This thesis analyzes the effects of trade integration on the level of European economic integration. It proposes to evaluate externalities of economic activity in a country on the other European countries due to trade. This thesis is divided in two parts : first, the level of economic integration is analyzed in the short run through the business cycle synchronization of the European economies. Second, integration is considered through the long-run deformation degree of the level of production of a country due to the potential growth in the rest of Europe
APA, Harvard, Vancouver, ISO, and other styles
13

Morin, Marie-Pier. "Intégration des connaissances mathématiques et didactiques chez les futurs maîtres du primaire." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0021/NQ53302.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Quiniou, Solen. "Intégration de connaissances linguistiques pour la reconnaissance de textes manuscrits en-ligne." Phd thesis, Rennes, INSA, 2007. ftp://ftp.irisa.fr/techreports/theses/2007/quiniou.pdf.

Full text
Abstract:
L’objectif de ces travaux de thèse est de construire un système de reconnaissance de phrases, en se basant sur un système de reconnaissance de mots existant. Pour cela, deux axes de recherche sont abordés : la segmentation des phrases en mots ainsi que l'intégration de connaissances linguistiques pour prendre en compte le contexte des phrases. Nous avons étudié plusieurs types de modèles de langage statistiques, en comparant leurs impacts respectifs sur les performances du système de reconnaissance. Nous avons également recherché la meilleure stratégie pour les intégrer efficacement dans le système de reconnaissance global. Une des orginalités de cette étude est l'ajout d'une représentation des différentes hypothèses de phrases sous forme d'un réseau de confusion, afin de pouvoir détecter et corriger les erreurs de reconnaissance restantes. L'utilisation des technique présentées permet de réduire de façon importante le nombre d'erreurs de reconnaissance, parmi les mots des phrases
The aim of this thesis is to build a sentence regognition system based on an existing word regognition system. Two research axes are considered: the sentence segmentation int words as well as the integration of linguistic knowledge to take into account the context of the sentences. We studied several types of statistic language models by comparing their respective impact on the recognition system performances. We also tried to find the best strategy to introduce them efficiently into the whole recognition system. One of the originality of this study is the integration of a representation of the different sentence hypotheses in the form of a confusion network; which is then used to detect and correct the remaining regognition errors. Using the aforementioned techniques allowed us to considerably reduce the number of recognition errors among the words of the sentences
APA, Harvard, Vancouver, ISO, and other styles
15

Quiniou, Solen. "Intégration de connaissances linguistiques pour la reconnaissance de textes manuscrits en-ligne." Phd thesis, INSA de Rennes, 2007. http://tel.archives-ouvertes.fr/tel-00580623.

Full text
Abstract:
L'objectif de ces travaux de thèse est de construire un système de reconnaissance de phrases, en se basant sur un système de reconnaissance de mots existant. Pour cela, deux axes de recherche sont abordés : la segmentation des phrases en mots ainsi que l'intégration de connaissances linguistiques pour prendre en compte le contexte des phrases. Nous avons étudié plusieurs types de modèles de langage statistiques, en comparant leurs impacts respectifs sur les performances du système de reconnaissance. Nous avons également recherché la meilleure stratégie pour les intégrer efficacement dans le système de reconnaissance global. Une des orginalités de cette étude est l'ajout d'une représentation des différentes hypothèses de phrases sous forme d'un réseau de confusion, afin de pouvoir détecter et corriger les erreurs de reconnaissance restantes. L'utilisation des technique présentées permet de réduire de façon importante le nombre d'erreurs de reconnaissance, parmi les mots des phrases.
APA, Harvard, Vancouver, ISO, and other styles
16

Lovon, Melgarejo Jesus Enrique. "Évaluation et intégration des connaissances structurelles pour modèles de langue pré-entraînés." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://thesesups.ups-tlse.fr/6065/.

Full text
Abstract:
Le domaine de la représentation des connaissances est en constante évolution. Grâce aux récents progrès dans les réseaux neuronaux profonds, en particulier l'architecture Transformer, le domaine du traitement automatique du langage naturel (TALN) a été doté d'outils révolutionnaires conduisant à des performances améliorées sur de multiples tâches de TALN. Les modèles de langue pré-entraînés (PLM), tels que BERT et GPT, qui sont des modèles basés sur des Transformers entraînés sur d'importantes quantités de données textuelles, ont joué un rôle significatif dans ces avancées. Les PLMs peuvent produire des représentations contextualisées intégrant des motifs syntaxiques et sémantiques riches du langage. Cependant, ils ne fournissent pas de représentations structurées et factuelles des connaissances, essentielles pour une meilleure compréhension du langage. Pour remédier à ces problèmes, les chercheurs ont exploré la combinaison de PLMs classiques avec des ressources de connaissances externes, telles que les bases de connaissances (KB). Cette approche vise à compléter les PLMs en fournissant les composants structurels et factuels manquants inhérents aux KBs. En résulte l'émergence d'une nouvelle famille de PLM renforcés par la connaissance (KEPLM). Dans cette thèse, nous nous concentrons sur l'intégration des KBs dans les PLMs, avec un intérêt particulier pour leur structure ou hiérarchie. Nous explorons différentes orientations de recherche visant à améliorer ces PLMs, notamment (i) l'exploration des limitations et des méthodes pour intégrer implicitement les KBs et leur impact sur les tâches basées sur le raisonnement et (ii) la définition de méthodologies d'évaluation pour les signaux hiérarchiques explicites des PLMs et leur transférabilité à d'autres tâches de TALN. Dans une première contribution, nous proposons de revisiter les méthodes d'entraînement des PLMs pour les tâches basées sur le raisonnement. Les méthodes actuelles se limitent à généraliser cette tâche à différents niveaux de difficulté, traitant chaque niveau comme une tâche différente. Au lieu de cela, nous suggérons une approche incrémentielle d'apprentissage du raisonnement, où le raisonnement est appris progressivement, passant des niveaux de difficulté simples aux niveaux complexes. Cette approche tire parti de composants précédemment négligés qui ne participent pas à la chaîne de raisonnement principale, et nous évaluons si cela améliore la généralisation de cette tâche. Nous utilisons une méthodologie implicite qui transforme l'information structurée en texte non structuré avec un contenu taxonomique riche. Nous avons également mené des expériences sur des tâches liées au raisonnement, telles que la compréhension de lecture et la réponse aux questions, pour évaluer la pertinence de notre proposition. Pour notre deuxième contribution, nous visons à améliorer les performances des PLMs en incorporant des signaux hiérarchiques explicites en eux. Alors que diverses approches d'évaluation et d'intégration ont été développées pour les plongements lexicaux statiques, il y a une exploration limitée de ces méthodes pour les plongements lexicaux contextualisés. Les méthodes d'évaluation actuelles pour les PLMs héritent des limitations des évaluations des plongements statiques, telles que les biais des ensembles de données et les signaux hiérarchiques superficiels. Par conséquent, nous proposons une nouvelle méthodologie d'évaluation pour les PLMs qui prend en compte de multiples signaux hiérarchiques. Notre travail caractérise la représentation hiérarchique en la décomposant en distributions hiérarchiques de base que nous appelons propriétés hiérarchiques. Nous évaluons les connaissances hiérarchiques présentes dans les PLMs de pointe en utilisant ces propriétés et analysons si leur apprentissage vise à améliorer les représentations hiérarchiques internes des modèles et leur applicabilité aux tâches de TALN connexes
The field of knowledge representation is a constantly evolving domain. Thanks to recent advancements in deep neural networks, particularly the Transformer architecture, the natural language processing (NLP) field has been provided with groundbreaking tools leading to improved performance across multiple NLP tasks. Pre-trained language models (PLMs), such as BERT and GPT, which are Transformer-based models trained on extensive amounts of textual data, have played a significant role in this progress. PLMs can produce contextualized representations embedding rich syntactic and semantic patterns of language. However, they do not provide structured and factual knowledge representations, essential for a better understanding of language. To alleviate these issues, researchers explored combining classical PLMs with external knowledge resources, such as knowledge bases (KBs). This approach aims to complement PLMs by providing the missing structural and factual components inherently present in KBs. As a result, this approach has given rise to a new family of knowledge-enhanced PLMs (KEPLMs). In this thesis, we focus on integrating KBs into PLMs, with a particular interest in their structure or hierarchy. We explore different research directions towards enhancing these PLMs, which include (i) exploring the limitations and methods to implicitly integrate KBs and their impact on reasoning-based tasks and (ii) defining evaluation methodologies for explicit hierarchical signals for PLMs and their transferability to other NLP tasks. In a first contribution, we propose to revisit the training methods of PLMs for reasoning-based tasks. Current methods are limited to generalizing this task to different difficulty levels, treating each level as a separate task. Instead, we suggest an incremental learning reasoning approach, where reasoning is learned gradually from simple to complex difficulty levels. This approach takes advantage of previously overlooked components that do not participate in the main reasoning chain, and we evaluate whether it improves the generalization of this task. We use an implicit methodology that transforms structured information into unstructured text with rich hierarchical content. We further conducted experiments on reasoning-related tasks such as reading comprehension and question answering to assess the pertinence of our proposal. For our second contribution, we aim to improve the performance of PLMs by incorporating explicit hierarchical signals into them. While various evaluation and integration approaches have been developed for static word embeddings, there is limited exploration of these methods for contextualized word embeddings. The current evaluation methods for PLMs inherit limitations from static embedding evaluations, such as dataset biases and superficial hierarchical signals. Therefore, we propose a new evaluation methodology for PLMs that considers multiple hierarchy signals. Our work characterizes the hierarchical representation by decomposing it into basic hierarchical distributions that we call hierarchy properties. We evaluate the hierarchical knowledge present in state-of-the-art PLMs using these properties and analyze if learning them aims to improve inner hierarchical representations of the models and their applicability to related NLP tasks
APA, Harvard, Vancouver, ISO, and other styles
17

Foucard, Emmanuel. "Intégration de connaissances de technologie et de fabrication dans un contexte d'ingénierie simultanée." Troyes, 2002. http://www.theses.fr/2002TROY0005.

Full text
Abstract:
Le travail présenté entre dans le cadre de la conception de systèmes mécaniques et plus particulièrement dans le cadre de la prise en compte des connaissances "métiers" en conception. Le travail a consisté à analyser les données et les savoirs de conception et d'usinage pour définir les connaissances pertinentes. Partant des choix de solutions technologiques réalisées par les concepteurs, nous avons essayé de justifier un maximum de données du produit par des "connaissances". Dans ce cadre, nous avons mis en place les notions de QFS et de QFR pour intégrer une partie des connaissances. Nous avons aussi décrit une méthode de conception applicable aux montages de roulement. Celle-ci permet d'aider le concepteur lors du choix des butées axiales et des chaînes de dimensions. Nous avons enfin mis en place des fonctions pour lier les paramètres d'intervalle de tolérance, de qualité dimensionnelle et d'état de surface dans ce contexte d'intégration
Work presented enters within the framework of the design of mechanical systems and more particularly within the framework of the taking into account of knowledge "trades" in design. Work consisted in analyzing the data and the knowledge of design and machining. On the basis of the technological choices of solutions carried out by the designer, we tried to justify a maximum of the product data by "knowledge". Within this framework, we set up the concepts of QFS and QFR to integrate part of knowledge. We also described a method of design applicable to the bearing assemblies. This one allows to help the designer at the time of the choice of the axial thrusts and of the chains of dimensions. We finally set up functions to bind parameters of the tolerance range, of dimensional quality and roughness in this integration context
APA, Harvard, Vancouver, ISO, and other styles
18

Carbonnel, Sabine. "Intégration et modélisation de connaissances linguistiques pour la reconnaissance d'écriture manuscrite en-ligne." Rennes, INSA, 2005. http://www.theses.fr/2005ISAR0022.

Full text
Abstract:
La reconnaissance d'ecriture manuscrite est un probleme difficile qui ne peut se reduire a la reconnaissance de formes graphiques : il est primordial d'integrer des connaissances linguistiques pour guider la reconnaissance. Les objectifs de nos travaux sont d'integrer des connaissances lexicales pour ameliorer un systeme de reconnaissance de mots manuscrits en-ligne tout en tenant compte de contraintes (temps de calcul et encombrement memoire) en vue du portage du systeme sur des materiels a capacites reduites. Nous proposons un traitement lexical base sur un modele de langage de n-grammes de caracteres, une modelisation pour reduire l'espace des recherches dans un lexique ainsi qu'une modelisation automatique d'une distance d'edition specifique a l'ecriture. Ces modelisations ameliorent le systeme de reconnaissance sur lequel se basent nos travaux, limitent la duree du traitement lexical et sont de plus facilement adaptables aux evolutions du systeme et au contexte d'utilisation.
Handwriting recognition is a difficult problem which cannot be reduced to graphic shapes recognition: it is important to integrate linguistic knowledge to guide the recognition. The objectives of our work are to integrate lexical knowledge to improve a recognition system of on-line handwritten words, taking into account constraints of computing time and memory requirement with the intention of integrate the system on devices with limited capacities. We propose a lexical processing based on a language model of characters n-grams, a modeling to reduce the research space in a lexicon as well as an automatic modeling of an edit distance specific to handwriting. These modelings improve the recognition system on which our work is based, limit the duration of the lexical processing and moreover are easily adaptable to the system evolutions and the context of use
APA, Harvard, Vancouver, ISO, and other styles
19

Kedzierski, Pierre. "Intégration de connaissances sédimentologiques et stratigraphiques dans la caractérisation 3D des faciès sédimentaires marins." Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL030N.

Full text
Abstract:
Une méthode originale de modélisation 3D de faciès a été développée afin de prendre en compte simultanément les données de forage et sismiques disponibles, des règles sédimentologiques de répartition des sédiments ainsi que des principes de stratigraphie séquentielle génétique. Plusieurs champs de probabilité de faciès sont générés, intégrant chacun une ou plusieurs informations telles que les relations entre faciès et paléopaysage, les transitions latérales de faciès, le contrôle stratigraphique sur la migration des corps sédimentaires, le partitionnement volumétrique des sédiments, les diagénèses potentielles. Ces différents cubes de probabilités sont ensuite combinés en tenant compte de la redondance des informations qu’ils traduisent. La méthodologie proposée fournit ainsi un cadre extensible d’intégration et de combinaison d’informations d’origine et de type divers, parfois redondantes et dont le poids dans le modèle final peut être pondéré en fonction de leur incertitude
An original method for the generation of 3D facies model has been implemented. It simultaneously accounts for well and seismic data, sedimentological rules describing the spatial distribution of rock types, or sequence stratigraphy principles. Different probability cubes are computed by integrating one or several pieces of information controlling the facies occurrence: the relationship binding the facies to the paleolandscape, the lateral transitions of facies, the stratigraphic control of shoreline migration, the sediment volume partitioning or the diagenesis potential. The generated probability cubes can then be combined, considering the redundancy of the data they express. The suggested methodology provides therefore an extensible framework for the integration and the combination of data from diverse origins and types, sometimes redundant and whose weight in the final model can be balanced according to the data uncertainty
APA, Harvard, Vancouver, ISO, and other styles
20

Durand, Marie-Ange. "Caracterisation morphologique du contexte dans les images de teledetection : utilisation de connaissances externes pour la reconstruction de structures." Toulouse 3, 1986. http://www.theses.fr/1986TOU30180.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Durand, Marie-Ange. "Caractérisation morphologique du contexte dans les images de télédétection, utilisation de connaissances externes pour la reconstruction de structures." Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37597352t.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Gastaldi-Menager, Chrystelle. "Intégration des externalités dans l'évaluation économique des politiques publiques : l'exemple de la vaccination contre l'hépatite B." Paris 11, 1999. http://www.theses.fr/1999PA11T025.

Full text
Abstract:
Alors que la présence d'externalités est un des fondements traditionnellement invoqué pour légitimer une intervention publique et que la vaccination est l'exemple type de situation à l'origine d'externalités, les évaluations économiques de politiques vaccinales semblent ne pas en tenir compte. L'objet de la recherche consiste à analyser l'impact d'une non-intégration des externalités dans l'estimation des résultats d'une politique vaccinale. L'originalité de la méthode que nous proposons repose sur une modélisation de la dynamique de l'infection. Sont présentés (chapitre 1) à partir d'une étude de la littérature les différentes étapes de la conceptualisation des externalités et les débats qu'elles ont suscités : comment spécifier les externalités par rapport aux interdépendances ? Après avoir clarifié le concept d'externalité, nous proposons l'analyse des externalités de la vaccination (chapitre 2). Notre construction s'appuie sur une approche épidémiologique : il s'agit d'identifier les sources d'externalités. Sont mobilisés à ce stade de l'analyse les instruments et informations habituels dans les études relatives aux maladies transmissibles (concept d'immunité de groupe, force d'infection. . . ). Cette réflexion sur l'identification des sources d'externalités et de leur mesure est appliquée au cas de la politique vaccinale française contre le virus de l'hépatite B (chapitre 3). Elle débouche sur un certain nombre de propositions méthodologiques que nous développons dans le dernier chapitre : nous appuyons alors notre estimation des externalités sur une modélisation de la dynamique de l'infection. Nous proposons finalement une grille d'analyse des conditions favorables ou non à une prise en compte des externalités lors d'évaluations économiques de politiques vaccinales
Where as the presence of externalities is one of the bases traditionally called upon to legitimate a public intervention and that vaccination is the example-type of situation at the origin of externalities, the economic evaluations of vaccine policies seem not to hold account externalities. The aim of our research consists in analyzing the impact of a non-integration of the externalities in the estimate of the outcome of a vaccine policy. The originality of the method that we propose rests on a dynamic model of the infection. Starting from a study of the literature, are presented (chapter 1) the various stages of the conceptualization of the externalities and the debates which they caused: how to specify the externalities compared to the interdependencies? After having clarified the externality concept, we propose the analysis of vaccination externalities (chapter 2). Our construction is based on an epidemiologic approach: it is a question of identifying the sources of externalities. Are mobilized, at this stage in the analysis, the instrument and information usual in the study relative with transmitted disease (concepts of herd immunity, force of infection. . . ). This reflexion on the identification of source of externalities and of their measurement is applied with the case of the French vaccine policy against the virus of hepatitis B (chapter 3). Lt leads to a certain number of methodological proposals which we develop in the last chapter: we then support our estimate of the externalities on a dynamic model of the infection. We finally propose a grid of analysis of condition favorable, or not, with a taking into account of externalities at the time of an economic evaluation of a vaccine policy
APA, Harvard, Vancouver, ISO, and other styles
23

Rakoto, Holitiana. "Intégration du retour d'expérience dans les processus industriels : application à Alstom Transport." Phd thesis, Toulouse, INPT, 2004. https://hal.science/tel-04603898.

Full text
Abstract:
Aujourd'hui, la dynamique et la complexité des entreprises a engendré des nouvelles formes d'organisations avec l'orientation projet, les équipes distribuées, le turn over des personnels, etc. Dans ce contexte, il est difficile de conserver et de partager les connaissances et l'entreprise doit mettre en œuvre des méthodes de capitalisation et de gestion des connaissances pour conserver ses savoirs et savoir-faire. Pour répondre à cette problématique, nous avons proposé, dans nos travaux, d'intégrer l'expérience des acteurs comme élément central de la création de connaissances et utilisons le Retour d'Expérience comme support naturel pour la création de ces connaissances. A partir d'un état de l'art sur les modèles et systèmes existants, nous avons proposé une architecture qui met en relief les composantes génériques du Retour d'Expérience. Nous avons alors défini une méthodologie visant à implanter un système de Retour d'Expérience et avons appliqué nos résultats à Alstom Transport.
APA, Harvard, Vancouver, ISO, and other styles
24

Rakoto, Holitiana. "Intégration du retour d'expérience dans les processus industriels : application à Alstom Transport." Phd thesis, Toulouse, INPT, 2004. http://oatao.univ-toulouse.fr/7283/1/rakoto.pdf.

Full text
Abstract:
Aujourd'hui, la dynamique et la complexité des entreprises a engendré des nouvelles formes d'organisation avec l'orientation projet, les équipes distribuées, le turn over des personnels, etc.. Dans ce contexte, il est difficile de conserver et de partager les connaissances et l'entreprise doit mettre en oeuvre des méthodes de capitalisation et de gestion des connaissances pour conserver ses savoirs et savoir- faire. Pour répondre à cette problématique, nous avons proposé dans nos travaux, de considérer l'expérience mise en oeuvre lors de l'engagement des acteurs dans les processus. Nous utilisons alors le Retour d'Expérience (REx) comme support naturel pour la création des connaissances dans l'entreprise. A partir d'un état de l'art sur des systèmes de REx significatifs des pratiques actuelles et, de l'étude de modèles de REx existants, nous avons défini une architecture générique qui intègre l'ensemble des dimensions du REx. L'architecture proposée est basée sur l'approche processus, telle qu'elle est déclinée dans le cadre normatif de type ISO. Ainsi, nous considérons le REx comme un processus à part entière décomposé en un sous-processus Capitalisation, qui va conduire à la création des informations du REx et, un sous-processus Exploitation qui va permettre aux acteurs de réutiliser ces informations. Des composantes classiques de l'approche processus constituent des éléments support au REx : les activités, les micro-processus, les informations, les acteurs et les outils. Afin de faciliter l'implantation des différentes dimensions du REx, nous avons défini une méthodologie de mise en oeuvre des systèmes de REX. Nos résultats ont été appliqués dans le cas industriel d'Alstom Transport, site de Tarbes.
APA, Harvard, Vancouver, ISO, and other styles
25

Brisson, Laurent. "Intégration de connaissances expertes dans le processus de fouille de données pour l'extraction d'informations pertinentes." Phd thesis, Université Nice Sophia Antipolis, 2006. http://tel.archives-ouvertes.fr/tel-00211946.

Full text
Abstract:
L'extraction automatique de connaissances à partir des données peut être considérée comme la découverte d'informations enfouies dans de très grands volumes de données. Les approches Actuelles, pour évaluer la pertinence des informations extraites, se distinguent en deux catégories : les approches objectives qui mettent en oeuvre des mesures d'intérêt afin d'évaluer les propriétés statistiques des modèles extraits et les approches subjectives qui confrontent les modèles extraits à des connaissances exprimées sur le domaine et nécessitent généralement l'interrogation d'experts. Toutefois, le choix de modèles pertinents en regard de la connaissance métier d'un expert reste un problème ouvert et l'absence de formalisme dans l'expression des connaissances nuit à la mise au point de techniques automatiques de confrontation des modèles permettant d'exploiter toute la richesse sémantique des connaissances expertes. L'approche KEOPS que nous proposons dans ce mémoire, répond à cette problématique en proposant une méthodologie qui intègre les connaissances des experts d'un domaine tout au long du processus de fouille. Un système d'information dirigé par une ontologie (ODIS) joue un rôle central dans le système KEOPS en permettant d'organiser rationnellement non seulement la préparation des données mais aussi la sélection et l'interprétation des modèles générés. Une mesure d'intérêt est proposée afin de prendre en compte les centres d'intérêt et le niveau de connaissance des experts. Le choix des modèles les plus pertinents se base sur une évaluation à la fois objective pour évaluer la précision des motifs et subjective pour évaluer l'intérêt des modèles pour les experts du domaine. Enfin l'approche KEOPS facilite la définition de stratégies pour améliorer le processus de fouille de données dans le temps en fonction des résultats observés. Les différents apports de l'approche KEOPS favorisent l'automatisation du processus de fouille de données, et ainsi, une dynamique d'apprentissage peut être initiée pour obtenir un processus de fouille particulièrement bien adapté au domaine étudié. KEOPS a été mise en oeuvre dans le cadre de l'étude de la gestion des relations avec les allocataires au sein des Caisses d'Allocations Familiales. L'objectif de cette étude a été d'analyser la relation de service rendu aux allocataires afin de fournir aux décideurs des connaissances précises, pertinentes et utiles pour l'amélioration de ce service.
APA, Harvard, Vancouver, ISO, and other styles
26

Nikiema, Jean. "Intégration de connaissances biomédicales hétérogènes grâce à un modèle basé sur les ontologies de support." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0179/document.

Full text
Abstract:
Dans le domaine de la santé, il existe un nombre très important de sources de connaissances, qui vont de simples terminologies, classifications et vocabulaires contrôlés à des représentations très formelles, que sont les ontologies. Cette hétérogénéité des sources de connaissances pose le problème de l’utilisation secondaire des données, et en particulier de l’exploitation de données hétérogènes dans le cadre de la médecine personnalisée ou translationnelle. En effet, les données à utiliser peuvent être codées par des sources de connaissances décrivant la même notion clinique de manière différente ou décrivant des notions distinctes mais complémentaires.Pour répondre au besoin d’utilisation conjointe des sources de connaissances encodant les données de santé, nous avons étudié trois processus permettant de répondre aux conflits sémantiques (difficultés résultant de leur mise en relation) : (1) l’alignement qui consiste à créer des relations de mappings (équivalence et/ou subsumption) entre les entités des sources de connaissances, (2) l’intégration qui consiste à créer des mappings et à organiser les autres entités dans une même structure commune cohérente et, enfin, (3) l’enrichissement sémantique de l’intégration qui consiste à créer des mappings grâce à des relations transversales en plus de celles d’équivalence et de subsumption.Dans un premier travail, nous avons aligné la terminologie d’interface du laboratoire d’analyses du CHU de Bordeaux à la LOINC. Deux étapes principales ont été mises en place : (i) le prétraitement des libellés de la terminologie locale qui comportaient des troncatures et des abréviations, ce qui a permis de réduire les risques de survenue de conflits de nomenclature, (ii) le filtrage basé sur la structure de la LOINC afin de résoudre les différents conflits de confusion.Deuxièmement, nous avons intégré RxNorm à la sous-partie de la SNOMED CT décrivant les connaissances sur les médicaments afin d’alimenter la SNOMED CT avec les entités de RxNorm. Ainsi, les médicaments dans RxNorm ont été décrits en OWL grâce à leurs éléments définitionnels (substance, unité de mesure, dose, etc.). Nous avons ensuite fusionné cette représentation de RxNorm à la structure de la SNOMED CT, résultant en une nouvelle source de connaissances. Nous avons ensuite comparé les équivalences inférées (entre les entités de RxNorm et celles de la SNOMED CT) grâce à cette nouvelle structure avec les équivalences créées de manière morphosyntaxique. Notre méthode a résolu des conflits de nomenclature mais s’est confrontée à certains conflits de confusion et d’échelle, ce qui a mis en évidence le besoin d’améliorer RxNorm et SNOMED CT.Finalement, nous avons réalisé une intégration sémantiquement enrichie de la CIM10 et de la CIMO3 en utilisant la SNOMED CT comme support. La CIM10 décrivant des diagnostics et la CIMO3 décrivant cette notion suivant deux axes différents (celui des lésions histologiques et celui des localisations anatomiques), nous avons utilisé la structure de la SNOMED CT pour retrouver des relations transversales entre les concepts de la CIM10 et de la CIMO3 (résolution de conflits ouverts). Au cours du processus, la structure de la SNOMED CT a également été utilisée pour supprimer les mappings erronés (conflits de nomenclature et de confusion) et désambiguïser les cas de mappings multiples (conflits d’échelle)
In the biomedical domain, there are almost as many knowledge resources in health as there are application fields. These knowledge resources, described according to different representation models and for different contexts of use, raise the problem of complexity of their interoperability, especially for actual public health problematics such as personalized medicine, translational medicine and the secondary use of medical data. Indeed, these knowledge resources may represent the same notion in different ways or represent different but complementary notions.For being able to use knowledge resources jointly, we studied three processes that can overcome semantic conflicts (difficulties encountered when relating distinct knowledge resources): the alignment, the integration and the semantic enrichment of the integration. The alignment consists in creating a set of equivalence or subsumption mappings between entities from knowledge resources. The integration aims not only to find mappings but also to organize all knowledge resources’ entities into a unique and coherent structure. Finally, the semantic enrichment of integration consists in finding all the required mapping relations between entities of distinct knowledge resources (equivalence, subsumption, transversal and, failing that, disjunction relations).In this frame, we firstly realized the alignment of laboratory tests terminologies: LOINC and the local terminology of Bordeaux hospital. We pre-processed the noisy labels of the local terminology to reduce the risk of naming conflicts. Then, we suppressed erroneous mappings (confounding conflicts) using the structure of LOINC.Secondly, we integrated RxNorm to SNOMED CT. We constructed formal definitions for each entity in RxNorm by using their definitional features (active ingredient, strength, dose form, etc.) according to the design patterns proposed by SNOMED CT. We then integrated the constructed definitions into SNOMED CT. The obtained structure was classified and the inferred equivalences generated between RxNorm and SNOMED CT were compared to morphosyntactic mappings. Our process resolved some cases of naming conflicts but was confronted to confounding and scaling conflicts, which highlights the need for improving RxNorm and SNOMED CT.Finally, we performed a semantically enriched integration of ICD-10 and ICD-O3 using SNOMED CT as support. As ICD-10 describes diagnoses and ICD-O3 describes this notion according to two different axes (i.e., histological lesions and anatomical structures), we used the SNOMED CT structure to identify transversal relations between their entities (resolution of open conflicts). During the process, the structure of the SNOMED CT was also used to suppress erroneous mappings (naming and confusion conflicts) and disambiguate multiple mappings (scale conflicts)
APA, Harvard, Vancouver, ISO, and other styles
27

Camus, Thomas. "Action et intégration : le rôle fonctionnel de la motricité dans la construction des connaissances sensori-motrices." Thesis, Montpellier 3, 2016. http://www.theses.fr/2016MON30076.

Full text
Abstract:
La mise en place d’un comportement semble en grande partie déterminée par la capacité du système cognitif à intégrer, au sein de représentations cohérentes, le flux continu d’informations provenant de l’environnement. Les travaux réalisés lors de cette thèse viennent modérer ce lien de causalité, et apportent des éléments en faveur d’une co-détermination de l’intégration des informations perceptives et de la mise en place d’un comportement moteur. En d’autres termes, cette thèse soutient l’idée que les actions effectuées par un individu ne sont pas seulement le produit d’une activité interne, mais sont aussi et surtout une condition de possibilité de la construction d’une représentation cohérente de nos interactions avec l’environnement.La première étude que nous avons réalisée a permis de mettre en évidence le rôle fonctionnel des réponses motrices dans le processus d’intégration. Dans une seconde étude, nous avons montré que les composants perceptifs et moteurs ne sont pas seulement co-activés lors de l’activité perceptive, mais bien intégrés les uns aux autres au sein d’une même représentation sensorimotrice. Enfin, notre dernière étude indique que la construction de telles représentations pourrait dépendre de l’intégration des conséquences sensorimotrices de nos actions. Pris dans une perspective plus large, l’ensemble de ces résultats souligne le rôle fondamental de l’action dans la cognition, et suggère finalement de reconsidérer la distinction stricte que nous opérons habituellement entre les éléments perceptifs et moteurs qui composent nos représentations
The ability to integrate the vast amount of information coming from the environmentinto a coherent representation is usually considered a necessary conditionfor any behavior to take place. In this Ph.D. thesis, our proposal is to moderatethis apparent causality, and to bring new elements that support the idea of a codeterminationof the building of sensorimotor representations and the execution ofmotor behavior. In other words, we propose that actions are not only adapted toexternal constraints through an internal activity, but also contribute to the buildingof coherent representations of the world. Therefore, we made a series of experimentsto highlight the role of motor activity in the process of binding perceptiveinformation. The first study examined the functional role of motor responses inthe integration process, which were found to be a necessary condition for an integrationto take place. The second study investigated the link between perceptiveand motor components. The results showed that both are indeed integrated into acommon sensorimotor representation. Our final study shed light on the fact thatbuilding sensorimotor representations seems to rely on the integration of sensorimotoraction-effects. Taken together, our results point toward the critical role of motoractivity in cognitive processes, and question the relevance of distinguishing motorcomponents from perceptive ones
APA, Harvard, Vancouver, ISO, and other styles
28

Penciuc, Diana. "Identification et intégration des éléments de connaissance tacite et explicite dans un processus de développement par solution de référence." Compiègne, 2012. http://www.theses.fr/2012COMP2016.

Full text
Abstract:
Cette thèse CIFRE a été réalisée dans le cadre d’une collaboration entre l’équipe ICI de l’UMR 7253 Heudiasyc et l’entreprise « Alstom Transport » porteur du sujet. Ce dernier fait suite à l’identification d’un besoin réel concernant la gestion des connaissances tacites au sein de l’entreprise engagée dans une démarche de développement par ligne de produits. Dans le cadre de notre thèse, nous apportons notre analyse à une réponse à la problématique générale de capitalisation des connaissances lors du processus de « réponse à l’appel d’offres » (RAO), la phase initiale dans le développement des produits. Nous avons constaté que le besoin de capitalisation existe à plusieurs niveaux : au niveau d’une offre en cours, entre des offres successives, tout au long de la chaîne de production et de manière transversale. Notre recherche prend en compte le besoin de capitalisation au cours d’une offre et entre offres successives (d’une offre à l’autre). L’étude préliminaire nous a amenés à prendre en compte une seule activité de ce processus (l’analyse technique du cahier des charges), au niveau de laquelle nous avons été confrontés à des problématiques plus précises : manque d’un outil dédié à l’analyse du cahier des charges et capitalisation incomplètes des connaissances. Pour répondre à ces problématiques, nous avons suivi une approche d’apprentissage organisationnel s’appuyant sur un référentiel commun à base d’ontologies. Nous avons ainsi proposé un modèle théorique de capitalisation des connaissances dont fait partie le modèle de l’annotation permettant l’externalisation des connaissances tacites et le recueil des connaissances explicites. Nous avons implémenté ce modèle théorique sous la forme d’un prototype informatique ayant comme support la plateforme E-MEMORAe2. 0 issue d’un projet de recherche de l’équipe ICI. Afin de valider nos réflexions, nous avons réalisé des expérimentations avec des experts de l’entreprise, ce qui nous a permis de mieux finaliser notre travail
The present work was conducted within the CIFRE framework, as collaboration between the ICI team (UMR 7253 Heudiasyc, UTC) and the « Alstom Transport » (AT) company. The subject was proposed by AT as a result of a real need for tacit knowledge management, which could bring important improvements in the product-line development. As part of our thesis, we provide an analysis and response to the general problem of knowledge management during the “Tendering” process, the initial phase of product development. First investigation results showed that knowledge management needs to be considered at several levels : during the “Tendering process, between successive tenders, all along the production chain and transversely (to improve the reference solution and the Tendering process). According to these observations, we decided to focus our research on providing knowledge management during tendering and between successive tenders (from one tender to another). The preliminary study has led us to consider a single activity of the Tendering process (the technical analysis of the Request For Proposal), in the context of which we propose to solve the following of drawbacks : lack of a dedicated tool for RFP analysis and incomplete knowledge management. To address these issues, we followed an organizational learning approach based on a common backbone represented by means of ontology. Thus, we proposed a theoretical model knowledge management, which includes the annotation model enabling tacit knowledge elicitation and explicit knowledge collection. Based on this theoretical model, we implemented a prototype on top of the E-MEMORAe2. 0 platform (platform issued from a research project of the ICI team). In order to validate our proposal, we carried out experiments with experts from AT, which enabled us to improve our first proposal
APA, Harvard, Vancouver, ISO, and other styles
29

Jalabert, Fabien. "Cartographie des connaissances : l'intégration et la visualisation au service de la biologie : application à l'ingénierie des connaissances et à l'analyse de données d'expression de gènes." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00207602.

Full text
Abstract:
Ce mémoire s'inscrit dans un axe stratégique du groupement des Ecoles des Mines : GEMBIO. Dans ce contexte, plusieurs collaborations ont été initiées, notamment avec des chercheurs de l'Institut Pasteur de Paris, de l'Inserm/Hôpitaux de Paris, et du CEA dans le cadre du programme ToxNuc-e. De ces échanges, est née notre problématique. Plus d'un millier de bases de données biologiques sont disponibles en ligne. Leur exploitation et le croisement de leurs contenus entraînent souvent ce constat des chercheurs biologistes : « J'ai souvent une vingtaine de fenêtres ouvertes sur mon écran : je m'y perds ». Souvent l'analyse et le croisement des données est fait par simple copier-coller dans un tableur. Si l'intégration de données à apporté des solutions ponctuelles à des problèmes particuliers, elle ne propose pas pour autant une réponse concrète à la multiplicité des fenêtres pour l'utilisateur, à la surcharge d'information, et à la difficulté de croiser l'information provenant de plusieurs sources hétérogènes. Nous proposons un environnement de cartographie des connaissances biologiques qui facilite l'intégration et la visualisation des données biologiques. Basé sur un métamodèle simple de graphe, I²DEE (Integrated and Interactive Data Exploration Environment) se veut souple et extensible afin de répondre aux besoins des différentes approches existantes de l'intégration. Il permet un accès homogène aux principales ressources biologiques et son adaptabilité offre des réponses visuelles personnalisées à des tâches spécifiques. Après une analyse des besoins des chercheurs biologistes et l'identification des problématiques de traitement de l'information sous-jacentes, un état de l'art de l'intégration de données hétérogènes est présenté. L'approche proposée reprend les principes existants en architecture des IHM et en cartographie géographique. L'environnement I2DEE est alors présenté à partir de son architecture et son métamodèle. Deux modules de l'environnement sont détaillés : l'entrepôt de données biologiques et la boîte à outils graphique permettant de construire rapidement des applications adaptées. Des résultats ont été obtenus dans deux contextes applicatifs distincts : l'ingénierie terminologique et ontologique, et l'analyse de données d'expression de gènes issues de puces à ADN. Ils sont discutés et analysés en regard des objectifs initialement fixés.
APA, Harvard, Vancouver, ISO, and other styles
30

Ghurbhurn, Rahee. "Intégration de données à partir de connaissances : une approche multi-agent pour la gestion des changements." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00785415.

Full text
Abstract:
Au sein des entreprises, un composant vital dans la prise de décision, qu'elle soit globale ou locale, est le système d'information. Celui-ci contient, en effet, les informations nécessaires pour décider, agir, apprendre, comprendre, prévoir et contrôler. Sa structure est généralement liée à l'histoire de l'entreprise dans le sens où cet ensemble s'est constitué d'éléments qui se sont juxtaposés au fil du temps au gré des choix stratégiques formant in fine un ensemble complexe et hétérogène. L'existence de plusieurs systèmes d'information, au sein de grande sociétés, pouvant rendre la recherche d'information difficile pour les utilisateurs métiers. 'objectif de nos travaux consiste à permettre aux utilisateurs d'explorer les connaissances, formulées en terme métier, contenues dans plusieurs systèmes d'informations et de récupérer les données qui leur sont associées. Il s'agit donc de mettre à disposition des utilisateurs une vue globale des connaissances disponibles liées à leurs domaines métiers, tout en dissimulant la diversité des sources d'informations et en garantissant que les données associées sont récupérables malgré les changements qui peuvent se produire au sein des différents systèmes. ans cette thèse nous proposons KRISMAS, une solution d'intégration de données basée une représentation des connaissances métiers et une architecture Multi-Agents. La représentation des connaissances prend la forme d'une ou plusieurs ontologies de domaine permettant aux utilisateurs d'explorer les connaissances des sources de données et de formuler des requêtes pour la récupération des données. Les agents sont utilisés pour l'exploitation de la représentation des connaissances métiers ainsi que pour la gestion des changements au sein d'un système d'intégration
APA, Harvard, Vancouver, ISO, and other styles
31

Adda, Mehdi. "Intégration des connaissances ontologiques dans la fouille de motifs séquentiels avec application à la personnalisation web." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00842475.

Full text
Abstract:
La fouille de données vise à extraire des connaissances à partir d'un grand volume de données. Lorsque les associations et l'ordre chronologique d'apparition des items sont recherchés, les connaissances extraites sont appelées motifs séquentiels. Les travaux de recherche existants ont porté principalement sur l'étude de motifs séquentiels composés d'objets et dans un certain nombre de cas, de catégories d'objets (concepts). Alors que les motifs d'objets sont trop spécifiques, et de ce fait peuvent être peu fréquents, les motifs de concepts ont divers niveaux d'abstraction et risquent d'être moins précis. La prise en compte d'une ontologie du domaine dans le processus de fouille de données permet de découvrir des motifs plus compacts et plus pertinents qu'en l'absence d'une telle source de connaissance. En outre, les objets peuvent non seulement être décrits par les concepts auxquels ils se rattachent mais aussi par les liens sémantiques qui existent entre concepts. Cependant, les approches de fouille existantes restent restrictives par rapport aux modes d'expression offerts par une ontologie. La contribution de ce travail est de définir la syntaxe et la sémantique d'un langage de motifs qui prend en considération les connaissances incorporées dans une ontologie lors de la fouille de motifs séquentiels. Ce langage offre un ensemble de primitives pour la description et la manipulation de motifs. La méthode de fouille sous-jacente procède au parcours de l'espace de motifs par niveau en se basant sur un ensemble de primitives de navigation. Ces primitives tiennent compte de la relation de généralisation/spécialisation qui existe entre les concepts (et les relations) des motifs. Afin de valider notre approche et analyser la performance et la mise à l'échelle de l'algorithme proposé, nous avons développé la plateforme OntoMiner. Tout au long de la thèse, le potentiel de notre approche de fouille a été illustré à travers un cas de recom- mandation Web. Il ressort que l'inclusion des concepts et des relations dans le processus de fouille permet d'avoir des motifs plus pertinents et de meilleures recommandations que les approches classiques de fouille de motifs séquentiels ou de recommandation.
APA, Harvard, Vancouver, ISO, and other styles
32

Fouquet, Dany. "Formalisation des connaissances d'usinage pour une intégration des logiciels de CFAO : application aux pièces structurales aéronautiques." Mémoire, École de technologie supérieure, 2009. http://espace.etsmtl.ca/44/1/FOUQUET_Dany.pdf.

Full text
Abstract:
Le passage direct et automatique d’un modèle CAO à une pièce usinée représente un rêve pour les entreprises manufacturières. Ceci implique nécessairement un module intermédiaire de génération automatique du procédé de fabrication. Des travaux dans ce domaine nous laissent croire que ce rêve pourrait se réaliser. Pour y parvenir, on doit déterminer les règles suivant lesquelles les gammistes raisonnent lors de la création du programme d’usinage. Cette recherche portera alors sur cet objectif de formalisation et de caractérisation des connaissances d’usinage. Pour y arriver, des experts sur les méthodes de fabrication ont été consultés afin de recueillir leur savoir-faire appliqué à l’usinage des pièces structurales aéronautiques, le tout jumelé à une revue de la littérature. L’exercice a permis de constater l’existence de deux catégories d’approches, soit les pièces usinées en un posage et celles usinées en deux posages. Les stratégies relatives à ces pièces sont présentées, notamment sur le choix des ressources, des opérations et leur ordonnancement. Les paramètres significatifs pouvant être exploités dans un contexte d’intelligence artificielle sont mis en évidence. Le projet complet vise l’intégration de ces informations à un outil d’assistance à la génération de gamme de fabrication de pièces par usinage utilisant des réseaux de neurones. Une architecture de l’outil est proposée.
APA, Harvard, Vancouver, ISO, and other styles
33

Adam, Sébastien. "Interprétation de Documents Techniques : des Outils à leur Intégration dans un Système à Base de Connaissances." Phd thesis, Université de Rouen, 2001. http://tel.archives-ouvertes.fr/tel-00671320.

Full text
Abstract:
Les travaux présentés dans ce mémoire abordent la problématique de l'interprétation de documents techniques. Dans ce contexte, ils se trouvent à la confluence de différentes thématiques de recherche telles que le traitement du signal et des images, la reconnaissance de formes, l'intelligence artificielle, la communication Homme/Machine et l'ingénierie des connaissances. En effet, si ces domaines scientifiques diffèrent dans leurs fondements, ils sont complémentaires et leurs apports respectifs sont indispensables pour la conception d'un système d'interprétation fiable et adaptable. Dans ce contexte pluridisciplinaire, le mémoire est organisé en deux parties. La première partie propose une méthodologie originale permettant la détection et la reconnaissance de formes (caractères et symboles) multi-orientées et multi-échelles. L'approche adoptée est basée sur la transformée de Fourier-Mellin. Elle permet la reconnaissance de formes isolées, mais aussi, dans une certaine mesure, de formes connectées. Son utilisation autorise en outre l'estimation des paramètres de mouvements des formes. Les outils développés sont évalués et comparés sur différentes bases de caractères et les résultats obtenus sont tout à fait compétitifs au regard des approches de la littérature. La seconde partie de ce mémoire aborde quant à elle la problématique de l'interprétation de documents techniques avec un point de vue orienté vers l'ingénierie des connaissances. Les réflexions proposées dans ce cadre permettent selon nous de montrer la faisabilité et la pertinence d'une démarche orientée connaissances pour la conception d'un système d'interprétation. Elles ont donné lieu à une implémentation conduisant à un système nommé NATALI v2. Une représentation explicite des connaissances, une architecture logicielle à base d'agents ainsi que différentes interfaces homme-machine offrent une bonne adaptabilité et une grande souplesse au système.
APA, Harvard, Vancouver, ISO, and other styles
34

Di, Martino Jean Claude. "Intégration de connaissances dans des systèmes distribués pour l'extraction de raies spectrales dans des images sonar." Nancy 1, 1995. http://www.theses.fr/1995NAN10008.

Full text
Abstract:
Nous présentons dans cette thèse un système complet d'extraction d'indices dans des images bruitées. L’objectif est de fournir des primitives robustes et limitées en nombre aux niveaux supérieurs d'un traitement de reconnaissance de formes. Dans le cadre des systèmes sonar qui ont servi d'application à ce travail, l'information pertinente est définie sous la forme de courbes correspondant à l'évolution spectrale du signal dans le temps. Une part importante de notre travail consiste à définir les connaissances qui caractérisent les structures recherchées et à étudier leur modélisation dans les différents traitements mis en œuvre pour extraire ces primitives. Cette étude montre l'intérêt de l'apport de connaissances globales d'ordre perceptuel pour renforcer des connaissances locales parfois insuffisantes. Nous analysons chaque étape de traitement et proposons pour chacune d'elle une solution originale à partir de techniques d'intelligence artificielle (réseaux de neurones, traitements distribués, programmation dynamique) mais également à partir de techniques de traitement d'images (filtrage, détection de contours). Il ressort de cette étude que les traitements proposes de détection et d'association d'indices permettent de trouver de manière efficace les structures recherchées au détriment parfois d'une précision quant à leur localisation. Ceci nous a amène à compléter ce schéma de traitement en introduisant une étape supplémentaire originale de suivi guidée par les indices déjà extraits. Les résultats obtenus avec cette méthode montrent un gain significatif des performances en localisation des courbes extraites, pour un coût supplémentaire négligeable en temps d'exécution
APA, Harvard, Vancouver, ISO, and other styles
35

Koenig, Joel. "Connaissances et compétences pour la performance industrielle : intégration des compétences culturelles en production de machines UGV." Strasbourg, 2009. http://www.theses.fr/2009STRA6229.

Full text
Abstract:
Nous avons suivi et construit en temps réel et pendant trois années le développement organisationnel des activités de collaborations Sino-française ainsi que le développement de connaissances et compétences afm d'assurer une continuité de fabrication dans un processus clairement distribué. L'enjeu industriel est d'améliorer la performance de production se déroulant en Asie (action préventive sur l'assemblage des machines-outils) ainsi que de répondre à une continuité de qualité de fabrication de machines outils UGV, dans le temps et l'espace géographique. Les résultats de notre thèse imposent une méthode d'exploitation basée sur : des résultats de tests bail bar sur une fonction du système qualifié, l'élément de structure impliqué et la non conformité du partenaire (sur un composant ou une activité du processus délocalisé). Notre thèse permet de relier les effets extraits des résultats de tests de qualification à des causes correspondant à des défaillances sur le processus délocalisé, par l'intermédiaire de la procédure d'assemblage. L'exploitation des résultats se traduit par une évaluation quantitative du coût des phases nécessaires à l'amélioration du processus délocalisé et du potentiel d'amélioration stratégique de la Joint Venture Intemationale
We built in real time and during three years the organizational development activities of Sino-French cooperation and the development of knowledge and skills to ensure the manufacturing process. The industrial challenge is to improve the performance of production occurring in Asia (preventive action on the assembly of machine tools) and assure a continuity of quality manufacturing of machine tools UGV. The aim is a method of operation based on the triptych: results of ball bar tests, qualified structural element involved and failure of the partner. Our theory allows relating the effects of extracts results of qualification tests to causes related to failures on the outsourced process, through the assembly process. The operating results reflected a quantitative estimate cost of phases, needed to process improvement and outsourced the potential for strategic improvement of the International Joint Venture
APA, Harvard, Vancouver, ISO, and other styles
36

Le, Tan. "Intégration de l'inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes." Phd thesis, Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2337/.

Full text
Abstract:
Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d'observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d'un ensemble d'observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d'un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l'analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l'ADN. Pour implémenter l'abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l'ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d'intégrer les données biomoléculaires
Diagnostic reasoning (abductive) and predictive reasoning (inductive) are two methods of reasoning that enable the discovery of new knowledge. When abductive reasoning is the process of finding the best explanation (hypothesis) for a set of observations (Josephson, 1994), the inductive reasoning is the process of predicting, from a set of observations, to find all possible results. These observations may be symptoms of a patient, experiments on genomic and metabolic networks, etc. In this PhD thesis, we are interested in the representation, analysis and synthesis of genomic signaling networks using hypothetical logic. In fact, this thesis focuses on modeling of signaling pathways in response to the DNA double stranded break. To implement the abduction, we use algorithms of production. Then, the default logic is used to build models of minimum representation. These algorithms are proven knowledge discovery on the map of DNA double-strand break. This map is minimal as biological causality graph and allows integrating bio-molecular data
APA, Harvard, Vancouver, ISO, and other styles
37

Le, Tan. "Intégration de l'inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes." Phd thesis, Université Paul Sabatier - Toulouse III, 2014. http://tel.archives-ouvertes.fr/tel-00996894.

Full text
Abstract:
Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d'observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d'un ensemble d'observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d'un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l'analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l'ADN. Pour implémenter l'abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l'ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d'intégrer les données biomoléculaires.
APA, Harvard, Vancouver, ISO, and other styles
38

Bascans, Jérémy. "Modèles de mémoires d'entreprise avec intégration automatique d'informations." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30144.

Full text
Abstract:
Aujourd'hui, les entreprises manipulent de gros volumes d'information qui ne cessent d'augmenter, toujours plus complexes et hétérogènes, autant dans leurs contenus que dans leurs structures. Ces informations, vitales pour le fonctionnement de ces entreprises, représentent aussi un capital de connaissances qui est souvent peu exploité. De ce fait, une attention particulière est portée aux systèmes de Mémoire d'Entreprise (ME). Ces mémoires ont pour objectif de capitaliser les informations produites et échangées par tous les acteurs internes et externes (Système d'Information (SI), employés, clients, fournisseurs, etc...) de l'entreprise dans le but de les représenter, de les partager et d'aider à la prise de décision collaborative. Les informations organisées, partagées et réutilisées, deviennent ainsi des connaissances organisationnelles. L'implantation d'une telle mémoire demande une forte implication de tous les acteurs en impactant directement leurs tâches et en nécessitant des modifications de leur SI. Dans ce contexte, l'objectif de cette thèse est de permettre la capitalisation automatique des informations en organisant, représentant et contextualisant automatiquement au mieux les informations, afin qu'elles puissent être partagées puis exploitées tout en limitant au maximum l'effort des acteurs. En plus d'impliquer les acteurs, les recherches actuelles se limitent souvent à des solutions spécifiques aux types d'entreprises et de mémoires. Afin de contribuer à lever ces limitations, nous proposons une approche de " Mémoire d'Entreprise Adaptative avec Intégration Automatique des Informations ", basée sur un réseau hétérogène étendu. Un premier niveau de cette approche propose un méta-modèle de ME corrélé à un processus d'intégration automatique des informations indépendant du type d'entreprise, du métier et ses acteurs. Afin d'aider tout type d'entreprise à construire sa ME à partir du méta- modèle, nous proposons, à un second niveau, un modèle générique et extensible lié à un algorithme d'intégration automatique des informations, nommé MEIAI pour Mémoire d'Entreprise avec Intégration Automatique des Informations. Ce modèle MEIAI a été implémenté et validé dans sa capacité à intégrer automatiquement de nouvelles informations d'une manière pertinente. Parce que Wikipédia est un important vecteur de connaissance basé sur la création collaborative véhiculant des valeurs de partage très fortes, nous avons choisi d'évaluer la capacité de notre prototype à organiser l'information de la même manière que lui. L'évaluation concerne le processus d'appariement automatique d'informations dont l'objectif est d'associer de manière intelligible, dans un cadre général non déterministe, les informations entre elles dans la mémoire. Pour ce faire, nous avons dans un premier temps évalué et comparé notre approche en liant des documents à des sujets d'intérêts de manière similaire à Wikipédia pour comparer les similarités et dissimilarités entre eux. Dans un second temps, nous avons procédé à une étude détaillée des dissimilarités au travers d'une évaluation par l'homme de l'organisation de l'information au sein de notre ME et de son intégration automatique
Today, companies manipulate large volumes of information that are constantly increasing, always more complex and heterogeneous, in their content and their structures. This information, necessary for these enterprises' operation, represents a knowledge capital often not exploited. As a result, special attention is given to Organizational Memory (OM) systems. The purpose of these memories is to capitalize the information produced and exchanged by the internal and external actors (Information System (IS), employees, customers, suppliers, etc.) of the company with the aim of representing and sharing them while helping collaborative decision-making. Thereby organized, shared and reused information becomes organizational knowledge. The implementation of this memory requires a strong involvement of all stakeholders by directly impacting their tasks and requiring changes to their IS. In this context, this thesis objective is to enable the automatic capitalization of information by automatically organizing, representing and contextualizing the information so that they can be shared and exploited while minimizing the stakeholders' effort. In addition to involving stakeholders, current research is often limited to solutions specific to the companies and memories types. To help overcome these limitations, we propose an " Adaptive Organizational Memory with Automatic Integration of Information process ", based on an extended heterogeneous network. A first level of this approach proposes a meta-model of OM correlated to a process of automatic integration of information independent of the company type, the job and its stakeholders. In order to help any type of company to build its OM from the meta-model, we propose, at a second level, a generic and extensible model linked to an algorithm of automatic integration of the information, named OMAII for Organizational Memory with Automatic Integration of Information process. This OMAII model has been implemented and validated in its ability to automatically integrate new information in a relevant way. Because Wikipedia is an important vector of knowledge based on the collaborative creation based on very strong values of sharing, we chose to evaluate the capacity of our prototype to organize the information in the same way. The evaluation concerns the automatic information matching process of which the purpose is to intelligibly associate the information with each other in the memory in a non-deterministic general framework. To do this, we first evaluated and compared our approach by linking documents to interest subjects in a similar way to Wikipedia to compare similarities and dissimilarities between them. In a second step, we conducted a detailed study of the dissimilarities through a human evaluation of the information organization within our OM and its automatic integration
APA, Harvard, Vancouver, ISO, and other styles
39

Bobbo, Amadou. "Externalités budgétaires et Policy mix dans une union monétaire : le cas des pays de la communauté économique et monétaire de l'Afrique centrale (CEMAC)." Université Robert Schuman (Strasbourg) (1971-2008), 2006. http://www.theses.fr/2006STR30016.

Full text
Abstract:
Cette thèse s'intéresse aux externalités budgétaires et aux interactions budgétaires et monétaires dans la CEMAC, justifiant les règles budgétaires de la Surveillance multilatérale. Le recours à l'économétrie des séries temporelles permet de montrer que les politiques budgétaires révèlent une capacité à induire des modifications de la structure des termes de l'échange bilatéraux, mais ont cependant, du mal à se transmettre au commerce régional. Malgré la difficulté qu'elle éprouve à stimuler les économies de la CEMAC, la baisse régulière du taux d'intérêt de la BEAC en réponse aux ajustements budgétaires décrit la dimension financière de ces externalités. La coordination macroéconomique recherchée n'a pas réussi à assurer la convergence des actions publiques. Enfin, la très grande sensibilité du niveau des prix aux actions publiques valide l'hypothèse de la dominance budgétaire dans la CEMAC. Ces résultats traduisent la nature inappropriée des critères de la Surveillance multilatérale
This thesis addresses the spillover effects of fiscal policies as well as the fiscal and monetary interactions which rise from macroeconomic policies, justifying Multilateral monotoring criteria in use in the CAEMC. Applying time series analysis to the CAEMC reveals the capacity of fiscal policies to induce modifications of the bilatéral terms of trade structure, but however, these variations are not transmitted to the regional trade. Despite the difficulty met when stimulating CAEMC economies, the regular fall of the interest rate of the BEAC in response to fiscal adjustments, shows the financial dimension of these spillovers. Required macroeconomic coordination had not succeed in ensuring convergence of the public actions. Lastly, the very high sensitiveness of the price level to public actions is the evidence of fiscal dominance in the CAEMC. These results provide an indication of the inappropriate nature of the Multilateral monitoring fiscal rules
APA, Harvard, Vancouver, ISO, and other styles
40

Gesbert, Nils. "Étude de la formalisation des spécifications de bases de données géographiques en vue de leur intégration." Université de Marne-la-Vallée, 2005. http://www.theses.fr/2005MARN0261.

Full text
Abstract:
Objectif : faciliter l’utilisation conjointe de plusieurs bases de données géographiques, et en particulier leur intégration dans un système de bases de données fédérées, grâce à une description homogène entre les différentes bases et autant que possible formelle de la sémantique précise des données, c’est-à-dire des spécifications de contenu. Méthode : Les spécifications papier ont le défaut d’être structurées conformément aux schémas des bases de données, qui sont hétérogènes et influencés par des choix d’implémentation. Pour s’affranchir de ce problème, on fait l’hypothèse qu’on peut trouver dans les spécifications un certain nombre de termes consensuels correspondant à des concepts géographiques partagés. Ces concepts formeraient ce qu’on appelle une ontologie du domaine. L’idée n’est pas de créer cette ontologie de façon exhaustive mais de créer une ontologie partielle ad hoc, qu’on étendra au fur et à mesure qu’on rencontrera de nouveaux concepts dans les spécifications. Les spécifications sont alors représentées sous la forme de procédures de représentation qui à une entit géographique (instance d’un concept donné) associent une ou plusieurs représentations dans les différentes bases, en fonction de la nature et des propriétés de l’entité ; elles font donc le lien entre l’ontologie et les schémas des différentes bases. Résultats : sur les thèmes hydrographie de la BDCarto et de la BDTopo, deux bases de données de l’IGN, il semble que l’hypothèse soit vérifiée (on arrive assez facilement à une ontologie commune). On a pu d’autre part déterminer les principaux types de règles élémentaires nécessaires à la construction des procédures de représentation. Un langage formel dont la grammaire, définie en BNF, s’appuie sur ces règles élémentaires a alors été proposé pour décrire les procédures de représentation. Enfin, un prototype logiciel muni d’un parseur pour ce langage a été réalisé pour saisir, stocker et manipuler les spécifications formelle
Integrating them into a federated database system, by describing the precise data meaning in a way both homogeneous between databases and as formal as possible. This precise data meaning is contained in the databases’ content specifications (surveying rules). Method : The general organization of the present specifications follows that of the databases’ schemata, but these schemas are heterogeneous and influenced by implementation problems. To overcome this problem, we suppose that it will be possible to find, in the specifications’ text, a number of common terms referring to shared geographical concepts. All these concepts would constitute what is called a domain ontology. Our idea is not to create a complete ontology but rather a partial, ad hoc one, which would be extended to take new concepts into account as needed. The specifications would then be represented as a bundle of what we call representation procedures, which describe how, given a geographic entity (instance of some geographical concept), one or more representations of this entity are built up into the different databases depending on the nature and the properties of the entity. Thus these procedures describe the links between the ontology and the schemata of the databases. Results : For the example of hydrography in two different IGN databases, BDCarto and BDTopo, our hypothesis seems confirmed : a common ontology could rather easily be defined. Concerning the representation procedures, we were able to establish the main kinds of elementary rules from which they can be constructed. To describe formally these procedures, we then defined a formal language whose grammar has been described in BNF and is based on these elementary rules. Finally, we have made a software prototype, containing a parser for this language, for entering, saving and handling the formal specifications
APA, Harvard, Vancouver, ISO, and other styles
41

Jalabert, Fabien. "Cartographie des connaissances : l'intégration et la visualisation au service de la biologie : application à l'ingénierie des connaissances et à l'analyse de données d'expression de gènes." Phd thesis, Montpellier 2, 2007. http://www.theses.fr/2007MON20172.

Full text
Abstract:
Ce mémoire s'inscrit dans un axe stratégique du groupement des Ecoles des Mines : GEMBIO. Dans ce contexte, plusieurs collaborations ont été initiées, notamment avec des chercheurs de l'Institut Pasteur de Paris, de l'Inserm/Hôpitaux de Paris, et du CEA dans le cadre du programme ToxNuc-e. De ces échanges, est née notre problématique. Plus d'un millier de bases de données biologiques sont disponibles en ligne. Leur exploitation et le croisement de leurs contenus entraînent souvent ce constat des chercheurs biologistes : « J'ai souvent une vingtaine de fenêtres ouvertes sur mon écran : je m'y perds ». Souvent l'analyse et le croisement des données est fait par simple copier-coller dans un tableur. Si l'intégration de données à apporté des solutions ponctuelles à des problèmes particuliers, elle ne propose pas pour autant une réponse concrète à la multiplicité des fenêtres pour l'utilisateur, à la surcharge d'information, et à la difficulté de croiser l'information provenant de plusieurs sources hétérogènes. Nous proposons un environnement de cartographie des connaissances biologiques qui facilite l'intégration et la visualisation des données biologiques. Basé sur un métamodèle simple de graphe, I²DEE (Integrated and Interactive Data Exploration Environment) se veut souple et extensible afin de répondre aux besoins des différentes approches existantes de l'intégration. Il permet un accès homogène aux principales ressources biologiques et son adaptabilité offre des réponses visuelles personnalisées à des tâches spécifiques. Après une analyse des besoins des chercheurs biologistes et l'identification des problématiques de traitement de l'information sous-jacentes, un état de l'art de l'intégration de données hétérogènes est présenté. L'approche proposée reprend les principes existants en architecture des IHM et en cartographie géographique. L'environnement I2DEE est alors présenté à partir de son architecture et son métamodèle. Deux modules de l'environnement sont détaillés : l'entrepôt de données biologiques et la boîte à outils graphique permettant de construire rapidement des applications adaptées. Des résultats ont été obtenus dans deux contextes applicatifs distincts : l'ingénierie terminologique et ontologique, et l'analyse de données d'expression de gènes issues de puces à ADN. Ils sont discutés et analysés en regard des objectifs initialement fixés.
APA, Harvard, Vancouver, ISO, and other styles
42

Jacqueson, Loïc. "Intégration de l'environnement en entreprise : proposition d'un outil de pilotage du processus de création de connaissances environnementales." Phd thesis, Paris, ENSAM, 2002. http://tel.archives-ouvertes.fr/tel-00005627.

Full text
Abstract:
Ces travaux portent sur les aspects environnement produits et plus particulièrement sur leur intégration dans l'entreprise. Le but visé par notre approche est de réduire l'important déficit de connaissances environnementales contextualisées existant au sein des entreprises, pour créer situations possibles d'intégration.
Malgré leur grande diversité, les approches existantes ne répondent que partiellement au besoin d'intégration de l'environnement. Notre vision de cette problématique, est que l'intégration de l'environnement est un processus à long terme conditionné par :
- la création par l'entreprise de nouvelles connaissances propres à ses activités,
- l'implication de l'ensemble des services de l'entreprise,
- le choix d'une approche managériale intermédiaire entre Top-down et Bottom-Up.
Dans ce sens, nous proposons un outil de pilotage du processus de création de connaissances environnementales composé d'un référentiel à trois dimensions permettant de caractériser les connaissances environnementales dans l'entreprise, d'une stratégie de progression et d'une typologie d'actions, et qui permet de piloter le processus (outil de suivi, d'analyse et de régulation).
La première partie du document s'attachera à détailler la construction de l'outil de pilotage qui sera évalué à l'aide d'expérimentations réalisée au sein de l'entreprise FAURECIA-Sièges d'automobile.
Les résultats de ces travaux portent d'une part sur la capacité de l'outil à piloter le processus de création de connaissances environnementales et d'autre part sur son rôle en tant que moyen de gestion des projets liés à l'environnement dans les entreprises.
APA, Harvard, Vancouver, ISO, and other styles
43

Lenseigne, Boris. "Intégration de connaissances linguistiques dans un système de vision : application à l'étude de la langue des signes." Toulouse 3, 2004. http://www.theses.fr/2004TOU30304.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Durupt, Alexandre. "Définition d'un processus de rétro-conception de produit par intégration des connaissances de son style de vie." Troyes, 2010. http://www.theses.fr/2010TROY0009.

Full text
Abstract:
Cette thèse porte sur la rétro-conception (RC) d’un objet mécanique. Cette activité consiste, à partir d’un objet et du nuage de points issu de sa numérisation, à générer un modèle CAO de cet objet. L’état de l’art sur la reconnaissance de formes dans un nuage de points propose des approches qui permettent d’obtenir un modèle CAO quasi inexploitable (paramétrage géométriques et non métier) pour une activité de re-conception. Cette thèse définit une méthodologie de RC visant à fournir un modèle CAO paramétré incluant les vues métier comme la fabrication et les aspects fonctionnels. Ainsi, l’activité de reconception pourra être accélérée car les vues métier, autrement dit, les intentions de conception, auront été mises en lumière. En conception de produit, des solutions telles que les systèmes d’information technique visant à assurer la gestion des vues métier (connaissances sur le produit) existent. Cette thèse propose d’adapter cette solution à la RC. Une méthode nommée Knowledge Based Reverse Engineering a été créée. Elle permet d’analyser l’objet mécanique selon des vues métier. Ces vues sont incarnées par des entités géométriques dont les paramètres métier sont extraits du nuage de points. En sortie, une CAO paramétrée incluant les vues métier (fonctionnelle, fabrication etc. ) peut être créée. Ce travail est validé par des exemples industriels et implémenté dans un démonstrateur : KBRE system
This thesis concerns the reverse engineering (RE) of a mechanical object. This activity consists in generating a CAD model of this object from the 3D points cloud from its digitalisation. The state of the art on the geometrical recognition in a point cloud suggests approaches which allow obtaining an almost unusable CAD model (geometrical parameters with not design intents) for a redesign activity. This thesis defines a methodology of RE that provides a parameterised CAD model that includes design intents such as the manufacturing and the functional aspects. So, an activity of redesign can be accelerated because the design intents will have been brought to light. In design product domain, solutions like Knowledge Based Engineering ensure the de-sign intents management. This thesis suggests adapting these solutions to RE. A method called Knowledge Based Reverse Engineering was created. It allows analysing the mechanical object according to the design intents. These design intents are embodied by geometrical features. Their parameters are extracted from the 3D points cloud. A CAD model including design intents (manufacturing, functional requirements) can be created. This work is illustrated by industrial examples and implemented in a viewer called KBRE sys-tem
APA, Harvard, Vancouver, ISO, and other styles
45

Mrabet, Yassine. "Approches hybrides pour la recherche sémantique de l'information : intégration des bases de connaissances et des ressources semi-structurées." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00737282.

Full text
Abstract:
La recherche sémantique de l'information a connu un nouvel essor avec les nouvelles technologies du Web sémantique. Des langages standards permettent aujourd'hui aux logiciels de communiquer par le biais de données écrites dans le vocabulaire d'ontologies de domaine décrivant une sémantique explicite. Cet accès ''sémantique'' à l'information requiert la disponibilité de bases de connaissances décrivant les instances des ontologies de domaine. Cependant, ces bases de connaissances, bien que de plus en plus riches, contiennent relativement peu d'information par comparaison au volume des informations contenu dans les documents du Web.La recherche sémantique de l'information atteint ainsi certaines limites par comparaison à la recherche classique de l'information qui exploite plus largement ces documents. Ces limites se traduisent explicitement par l'absence d'instances de concepts et de relations dans les bases de connaissances construites à partir des documents du Web. Dans cette thèse nous étudions deux directions de recherche différentes afin de permettre de répondre à des requêtes sémantiques dans de tels cas. Notre première étude porte sur la reformulation des requêtes sémantiques des utilisateurs afin d'atteindre des parties de document pertinentes à la place des faits recherchés et manquants dans les bases de connaissances. La deuxième problématique que nous étudions est celle de l'enrichissement des bases de connaissances par des instances de relations.Nous proposons deux solutions pour ces problématiques en exploitant des documents semi-structurés annotés par des concepts ou des instances de concepts. Un des points clés de ces solutions est qu'elles permettent de découvrir des instances de relations sémantiques sans s'appuyer sur des régularités lexico-syntaxiques ou structurelles dans les documents. Nous situons ces deux approches dans la littérature et nous les évaluons avec plusieurs corpus réels extraits du Web. Les résultats obtenus sur des corpus de citations bibliographiques, des corpus d'appels à communication et des corpus géographiques montrent que ces solutions permettent effectivement de retrouver de nouvelles instances relations à partir de documents hétérogènes tout en contrôlant efficacement leur précision.
APA, Harvard, Vancouver, ISO, and other styles
46

Merhej, Dany. "Intégration de connaissances a priori dans la reconstruction des signaux parcimonieux : Cas particulier de la spectroscopie RMN multidimensionnelle." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00782465.

Full text
Abstract:
Les travaux de cette thèse concernent la conception d'outils algorithmiques permettant l'intégration de connaissances a priori dans la reconstruction de signaux parcimonieux. Le but étant principalement d'améliorer la reconstruction de ces signaux à partir d'un ensemble de mesures largement inférieur à ce que prédit le célèbre théorème de Shannon-Nyquist. Dans une première partie nous proposons, dans le contexte de la nouvelle théorie du " compressed sensing " (CS), l'algorithme NNOMP (Neural Network Orthogonal Matching Pursuit), qui est une version modifiée de l'algorithme OMP dans laquelle nous avons remplacé l'étape de corrélation par un réseau de neurones avec un entraînement adapté. Le but est de mieux reconstruire les signaux parcimonieux possédant des structures supplémentaires, i.e. appartenant à un modèle de signaux parcimonieux particulier. Pour la validation expérimentale de NNOMP, trois modèles simulés de signaux parcimonieux à structures supplémentaires ont été considérés, ainsi qu'une application pratique dans un arrangement similaire au " single pixel imaging ". Dans une deuxième partie, nous proposons une nouvelle méthode de sous-échantillonnage en spectroscopie RMN multidimensionnelle (y compris l'imagerie spectroscopique RMN), lorsque les spectres des acquisitions correspondantes de dimension inférieure, e.g. monodimensionnelle, sont intrinsèquement parcimonieux. Dans cette méthode, on modélise le processus d'acquisition des données et de reconstruction des spectres multidimensionnels, par un système d'équations linéaires. On utilise ensuite des connaissances a priori, sur les emplacements non nuls dans les spectres multidimensionnels, pour enlever la sous-détermination induite par le sous échantillonnage des données. Ces connaissances a priori sont obtenues à partir des spectres des acquisitions de dimension inférieure, e.g. monodimensionnelle. La possibilité de sous-échantillonnage est d'autant plus importante que ces spectres monodimensionnels sont parcimonieux. La méthode proposée est évaluée sur des données synthétiques et expérimentales in vitro et in vivo.
APA, Harvard, Vancouver, ISO, and other styles
47

Pavillet, Gabriel. "Des langages de programmation à objets à la représentation des connaissances à travers le MOP : vers une intégration." Montpellier 2, 2000. http://www.theses.fr/2000MON20072.

Full text
Abstract:
L'introduction du paradigme objet dans l'informatique a connu un succes et un essor considerable durant ces dix dernieres annees. L'objectif de nos travaux est d'etudier la possibilite et l'opportunite d'une integration de deux grands domaines de l'informatique, tous deux champs d'application de la notion d'objet : la programmation par objets (issue du genie logiciel) et la representation des connaissances par objets (issue de la representation des connaissances). La premiere partie de notre travail a consiste a etudier, a travers le probleme test de l'implementation des slots-booleens, divers langages a objets reflexifs, clos, power-classes et openc + +, extensibles grace a leur protocole de meta-objets (ou mop), dans le but de choisir le langage de programmation objet le plus adequat pour cette integration. En definitive, c'est le langage claire, ne possedant pas encore de mop, qui a ete retenu pour cette integration et nous avons specifie les diverses modifications a apporter a ce langage pour obtenir un mop extensible au-dessus de ce langage. Pour le systeme de representation de connaissances, c'est la logique de description fact, ayant un pouvoir d'expression important et d'excellentes performances qui a ete consideree pour l'integration. L'integration consiste a associer a chaque classe du langage, un concept de la logique de description, et a chaque objet un individu de la base de connaissances (et reciproquement). Elle se deroule en trois etapes : implementation de fact dans le langage claire, puis ajout d'une partie raisonnement de la abox sur cette implementation ; et finalement, a partir du systeme obtenu, specification des principes de l'integration en claire du systeme fact augmente d'une abox.
APA, Harvard, Vancouver, ISO, and other styles
48

Mayouf, Mouna Sabrine. "Intégration de connaissances de haut-niveau dans un système d'apprentissage par réseau de neurones pour la classification d'images." Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30341.

Full text
Abstract:
Les réseaux neuronaux ont fait preuve d'avancées remarquables dans des tâches réputées difficiles, comme la classification automatique d'images ou le traitement du langage naturel. Toutefois, leur nature de boîte noire limite leur explicabilité et entrave leur capacité à exploiter des connaissances extérieures aux données. Cette thèse a pour but d'explorer et de proposer des techniques d'intégration des connaissances de haut niveau dans les réseaux neuronaux afin d'améliorer les performances et l'interprétabilité. La première partie de la thèse est centrée sur l'intégration de connaissances aux données d'entrée d'un réseau. Son premier chapitre s'adresse à la préparation des données. On y propose une formalisation du prétraitement afin de garantir la transparence et la reproductibilité de cette étape. Cette formalisation nous permet d'étudier l'impact de la data-augmentation : pour caractériser ce qu'est une bonne préparation des données, et l'état informatif d'un dataset, un ensemble de mesures et de principes est proposé, ensuite des protocoles expérimentaux sont conçus afin d'évaluer ces principes sur le dataset BreakHis. Le deuxième chapitre de cette partie s'adresse à l'exploitation de connaissances haut-niveau pour l'établissement d'un ordre de présentation des données au réseau. Nous introduisons l'apprentissage par curriculum incrémental sur l'ordre de passage des données en entrée. Les résultats obtenus améliorent l'exactitude et la vitesse de convergence. Bien que cette étude soit menée sur le dataset BreakHis, nous pensons qu'elle est généralisable à n'importe quel autre dataset. La deuxième partie est centrée sur l'intégration de connaissances au sein de l'architecture du réseau et au niveau de sa sortie. Dans ce cadre, nous nous sommes intéressés à la classification multi-label hiérarchique, pour laquelle nous avons formalisé les connaissances représentant le lien hiérarchique. Pour cela nous avons introduit deux contraintes : l'une représentant le fait qu'un objet ne peut être affecté qu'à une seule classe à un niveau donné de la hiérarchie, et l'autre imposant que l'affectation globale d'un objet respecte la hiérarchie de classe (par exemple, on interdit de classer un élément comme abeille pour son sous-type et mammifère pour son sur-type). Nous avons conçu une architecture et une fonction de perte qui imposent ces deux contraintes durant l'apprentissage. L'architecture se distingue de l'état de l'art par le fait qu'un seul réseau est utilisé pour prédire simultanément les labels des différents niveaux : toutes les couches sont responsables de la prédiction du n-uplet des classes. Plusieurs variantes du réseau ont été expérimentées sur cinq jeux de données différents et les résultats confirment l'efficacité des contraintes hiérarchiques soutenant ainsi l'importance de la prise en compte de connaissances externes. Afin de raffiner les résultats de cette classification hiérarchique, nous avons introduit un mécanisme d'abstention, sous forme d'une troisième contrainte poussant le réseau à donner une prédiction au niveau de spécificité le plus précis possible sur lequel sa confiance est suffisante et s'abstenir sinon. Nous avons défini différents seuils de confiance et proposé différentes contraintes sur les seuils relativement à la hiérarchie des classes. Pour évaluer ce mécanisme, de nouvelles métriques de classification prenant en compte l'abstention ont été définies. Nous avons mené des expérimentations sur les mêmes jeux de données et les résultats ont montré l'intérêt de l'abstention, et la nécessité de définir un seuil empirique adapté à chaque dataset. Pour conclure, les travaux de cette thèse soulignent l'intérêt d'exploiter des connaissances externes dans le domaine des réseaux de neurones ceci au niveau des trois composantes de ce système d'apprentissage : en entrée pendant la préparation des données, dans la structure du réseau, et à la sortie lors de la prise de décision de classification
Neural networks have made remarkable improvements in challenging tasks such as automatic image classification and natural language processing. However, their black-box nature hinders explainability and limits their ability to leverage external knowledge. The purpose of this thesis is to explore and propose techniques for integrating knowledge into neural networks in order to improve their performance and interpretability. The first part of the thesis focuses on integrating knowledge at the input level. The first chapter deals with data preparation. A formalization of pre-processing is proposed to ensure the transparency and reproducibility of this step. This formalization enables us to study the impact of data augmentation: to characterize a good data preparation, and the informative state of a dataset, a set of measures and principles is proposed, then experimental protocols are designed to evaluate these principles on the BreakHis dataset. The second chapter of this part focuses on exploiting high-level knowledge to determine the order in which data should be inserted into the network. We introduce an incremental curriculum learning for ordering the input data. The results obtained show an improvement of accuracy and convergence speed. Although this study is carried out on the BreakHis dataset, we believe that it can be generalized to any other dataset. The second part is devoted to the integration of knowledge within the network architecture and at the output level. In this context, we focus on hierarchical multi-label classification, for which we formalize the knowledge representing the hierarchical link. For this aim, we introduce two constraints: one representing the fact that an object can only be assigned to one class at a given level of the hierarchy, and the other imposing that the global assignment of an object respects the class hierarchy (for example, we forbid classifying an element as a bee for its sub-type and a mammal for its super-type). We design an architecture and a loss function that impose these two constraints during learning. The architecture differs from the state of the art in that a single network is used to simultaneously predict the labels of the different levels: all layers are responsible for predicting the tuple of classes. Several variants of the network have been tested on five different datasets and the results confirm the efficiency of the hierarchical constraints, thus supporting the importance of taking external knowledge into account. In order to refine the results of this hierarchical classification, we introduce an abstention mechanism, in the form of a third constraint that enforces the network to give a prediction at the most precise level of specificity on which its confidence is sufficient and to abstain otherwise. We define different confidence thresholds and proposed different constraints on the thresholds accordingly to the class hierarchy. To evaluate this mechanism, new classification metrics that take abstention into account are defined. We carry out experiments on the same five datasets and the results show the interest of abstention, and the need to define empirical thresholds adapted to each dataset. In conclusion, the work in this thesis highlights the value of exploiting external knowledge, this is true for the three main components of a neural network: at the input level during data preparation, in the structure of the network, and at the output level when classification decisions are made
APA, Harvard, Vancouver, ISO, and other styles
49

El, amine Mehdi. "Intégration de la maturité des connaissances dans la prise de décision en conception mécanique : application à un système solaire." Thesis, Paris, ENSAM, 2015. http://www.theses.fr/2015ENAM0046/document.

Full text
Abstract:
La réussite du développement des produits industriels a un enjeu économique considérable pour l’entreprise. Les décisions sur les concepts et sur l’architecture du produit ont un impact considérable sur le coût global du cycle de vie du produit. Les industriels sont alors de plus en plus encouragés à adopter des méthodes permettant de rationaliser les décisions de conception. Ces méthodes doivent être en adéquation avec le niveau de connaissance acquis sur les alternatives de conception, la nature des décisions à prendre et les outils d’évaluation disponibles. Ainsi, deux méthodes d’aide à la décision ont été développées dans cette thèse en fonction de la phase de conception étudiée.Une première méthode est proposée pour la phase amont de conception dans laquelle l’objectif de l’entreprise est de réduire le nombre de concepts proposés initialement pour concentrer ses efforts et ses ressources sur les concepts les plus prometteurs. Durant cette phase, les produits sont définis d’une manière très imprécise. Les concepteurs doivent alors faire beaucoup d'hypothèses lorsqu’ils proposent des modèles de comportement destinés à évaluer les concepts. Ces modèles, qui expriment une connaissance de nature explicite, sont insuffisants pour faire des choix de concepts. Pour remédier à cette difficulté, nous nous orientons dans notre étude vers la connaissance implicite (ou subjective), obtenue au travers de l'expérience et du savoir-faire acquis par les concepteurs. Afin d’intégrer cette connaissance dans la prise de décision, elle est d’abord formalisée au travers d’outils comme les fonctions de préférence. La méthode globale d’aide à la décision proposé permet de combiner à la fois cette connaissance implicite et la connaissance explicite (représentée par les modèles de comportement) pour évaluer chaque concept en termes d’aptitude à respecter les exigences minimales de validation et du niveau d’adéquation avec les objectifs de conception. Les objectifs et préférences des décideurs sont, quant à eux, structurés et formalisés au travers du modèle OIA (Observation-Interprétation-Agrégation) développé auparavant dans le laboratoire I2M-IMC.Une deuxième méthode a été proposée pour la phase aval de conception qui a pour objectif de fixer les paramètres du produit final (choix des matériaux, dimensions, etc.) après que le concept ait été choisi. Durant cette phase, le produit est défini d’une manière plus précise et les modèles de comportement sont plus représentatifs des phénomènes physiques pertinents du concept étudié. Ces modèles restent cependant basés sur des hypothèses qui conduisent parfois à une remise en question de leur exactitude, surtout pour certains paramètres de conception. Fixer les paramètres du produit en se basant uniquement sur ces modèles de comportement nécessite la prise en compte de leur niveau exactitude. Nous avons donc développé un indicateur d’exactitude de ces modèles qui intègre, d’une part, une évaluation objective qui est la mesure d’écart entre le modèle et un comportement de référence (supposé exact) et, d’autre part, sur une évaluation subjectif qui se base sur la mesure de distance avec la solution de référence (solution prototypée) et sur des fonctions de confiances établies par les concepteurs. La combinaison d’une évaluation objective et subjective de l’exactitude permet d’obtenir à la fin un indicateur général d’exactitude capable de couvrir l’intégralité de l’espace de conception. L’indicateur ainsi obtenu est utilisé dans une méthode d’aide à la décision qui qualifie chaque solution candidate en terme de risque engendré par les l’exactitude des modèles et de degré de satisfaction des objectifs de conception (en se basant la modèle OIA)
The successful development of industrial products has a considerable economic challenge for the company. Decisions on concepts and product architecture have a significant impact on the overall cost of the product life cycle. Manufacturers are then increasingly encouraged to adopt methods to streamline design decisions. These methods must be consistent with the level of knowledge acquired on alternative design, the nature of decision making and assessment tools available. Thus, both methods of decision support have been developed in this thesis based on the study design phase.A first method is proposed for the upstream design stage in which the goal of the company is to reduce the number of concepts initially proposed to focus its efforts and resources on the most promising concepts. During this phase, the products are defined very loosely. Designers must then make a lot of assumptions when proposing role models to assess the concepts. These models, which express a knowledge of explicit nature, are insufficient to make choices concepts. To overcome this difficulty, we are moving in our study to the implicit knowledge (or subjective), obtained through the experience and expertise acquired by the designers. To integrate this knowledge in decision-making, it is first formalized through tools such as preferably functions. The overall approach to decision support proposed for combining both the implicit knowledge and explicit knowledge (represented by the role models) to assess each concept in terms of ability to meet the minimum requirements for validation and level fitness with the design goals. The objectives and preferences of decision makers are, in turn, structured and formalized through the OIA model (Observation-Interpretation-Aggregation) previously developed in the laboratory I2M-BMI.A second method was proposed for the downstream design phase that aims to set the parameters of the final product (choice of materials, dimensions, etc.) after the concept was chosen. During this phase, the product is defined in a more precise manner and behavior patterns are more representative of the relevant physical phenomena of the concept studied. These models are however based on assumptions which sometimes lead to a questioning their accuracy, especially for some design parameters. Fix the product parameters based solely on these patterns of behavior requires taking into account their accuracy level. We have therefore developed an accuracy indicator of these models that integrates on the one hand, an objective assessment which is the measure of difference between the model and a reference behavior (assumed correct) and, secondly, on a subjective assessment that is based on the distance measurement with the reference solution (prototyped solution) and trusts functions established by the designers. The combination of objective and subjective assessment of the accuracy provides at the end a general indicator of accuracy able to cover the entire design space. The indicator thus obtained is used in a method of decision support that qualifies each candidate solution in terms of risk posed by the accuracy of the models and level of satisfaction of design objectives (based the model OIA)
APA, Harvard, Vancouver, ISO, and other styles
50

Paul, Carolyne. "Formation en intégration scolaire, impact sur les connaissances d'une enseignante et sur le fonctionnement social d'élèves intégrés et ordinaires." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/mq21812.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography