Дисертації з теми "Ontologie génique"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Ontologie génique.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-24 дисертацій для дослідження на тему "Ontologie génique".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Bedhiafi, Walid. "Sciences de l'information pour l'étude des systèmes biologiques (exemple du vieillissement du système immunitaire)." Electronic Thesis or Diss., Paris 6, 2017. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2017PA066139.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le laboratoire i3 et le laboratoire LGIPH, utilisent des approches à haut débit pour l’étude du système immunitaire et ces disfonctionnements. Des limites ont été observées quant à l’utilisation des approches classiques pour l’annotation des signatures d’expression des gènes. L’objectif principal a été de développer une approche d’annotation pour répondre à ce besoin. L’approche que nous avons développée est une approche basée sur la contextualisation des gènes et de leurs produits puis sur la modélisation des voies biologiques pour la production de bases de connaissances pour l’étude de l’expression des gènes. Nous définissons ici un contexte d’expression des gènes comme suit : population cellulaire+compartiment anatomique+état pathologique. Pour connaitre ces contextes, nous avons opté pour la fouille de la littérature et nous avons développé un package Python, qui permet d’annoter les textes automatiquement en fonction de trois ontologies choisies en fonction de notre définition du contexte. Nous montrons ici que notre package a des performances meilleures que un outil de référence. Nous avons l’avons utilisé pour le criblage d’un corpus sur le vieillissement du système immunitaire dont on présente ici les résultats. Pour la modélisation des voies biologiques nous avons développé en collaboration avec le LIPAH une méthode de modélisation basée sur un algorithme génétique qui permet de combiner les résultats de mesure de la proximité sémantique sur la base des annotations des gènes et les données d’interactions. Nous avons réussis retrouver des réseaux de références avec un taux d’erreur de 0,47
High-throughput experimental approaches for gene expression study involve several processing steps for the quantification, the annotation and interpretation of the results. The i3 lab and the LGIPH, applies these approaches in various experimental setups. However, limitations have been observed when using conventional approaches for annotating gene expression signatures. The main objective of this thesis was to develop an alternative annotation approach to overcome this problem. The approach we have developed is based on the contextualization of genes and their products, and then biological pathways modeling to produce a knowledge base for the study of gene expression. We define a gene expression context as follows: cell population+ anatomical compartment+ pathological condition. For the production of gene contexts, we have opted for the massive screening of literature. We have developed a Python package, which allows annotating the texts according to three ontologies chosen according to our definition of the context. We show here that it ensures better performance for text annotation the reference tool. We used our package to screen an aging immune system text corpus. The results are presented here. To model the biological pathways we have developed, in collaboration with the LIPAH lab a modeling method based on a genetic algorithm that allows combining the results semantics proximity using the Biological Process ontology and the interactions data from db-string. We were able to find networks with an error rate of 0.47
2

Bedhiafi, Walid. "Sciences de l'information pour l'étude des systèmes biologiques (exemple du vieillissement du système immunitaire)." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066139/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le laboratoire i3 et le laboratoire LGIPH, utilisent des approches à haut débit pour l’étude du système immunitaire et ces disfonctionnements. Des limites ont été observées quant à l’utilisation des approches classiques pour l’annotation des signatures d’expression des gènes. L’objectif principal a été de développer une approche d’annotation pour répondre à ce besoin. L’approche que nous avons développée est une approche basée sur la contextualisation des gènes et de leurs produits puis sur la modélisation des voies biologiques pour la production de bases de connaissances pour l’étude de l’expression des gènes. Nous définissons ici un contexte d’expression des gènes comme suit : population cellulaire+compartiment anatomique+état pathologique. Pour connaitre ces contextes, nous avons opté pour la fouille de la littérature et nous avons développé un package Python, qui permet d’annoter les textes automatiquement en fonction de trois ontologies choisies en fonction de notre définition du contexte. Nous montrons ici que notre package a des performances meilleures que un outil de référence. Nous avons l’avons utilisé pour le criblage d’un corpus sur le vieillissement du système immunitaire dont on présente ici les résultats. Pour la modélisation des voies biologiques nous avons développé en collaboration avec le LIPAH une méthode de modélisation basée sur un algorithme génétique qui permet de combiner les résultats de mesure de la proximité sémantique sur la base des annotations des gènes et les données d’interactions. Nous avons réussis retrouver des réseaux de références avec un taux d’erreur de 0,47
High-throughput experimental approaches for gene expression study involve several processing steps for the quantification, the annotation and interpretation of the results. The i3 lab and the LGIPH, applies these approaches in various experimental setups. However, limitations have been observed when using conventional approaches for annotating gene expression signatures. The main objective of this thesis was to develop an alternative annotation approach to overcome this problem. The approach we have developed is based on the contextualization of genes and their products, and then biological pathways modeling to produce a knowledge base for the study of gene expression. We define a gene expression context as follows: cell population+ anatomical compartment+ pathological condition. For the production of gene contexts, we have opted for the massive screening of literature. We have developed a Python package, which allows annotating the texts according to three ontologies chosen according to our definition of the context. We show here that it ensures better performance for text annotation the reference tool. We used our package to screen an aging immune system text corpus. The results are presented here. To model the biological pathways we have developed, in collaboration with the LIPAH lab a modeling method based on a genetic algorithm that allows combining the results semantics proximity using the Biological Process ontology and the interactions data from db-string. We were able to find networks with an error rate of 0.47
3

Garcia, del Rio Diego Fernando. "Studying protein complexes for assessing the function of ghost proteins (Ghost in the Cell)." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. https://pepite-depot.univ-lille.fr/ToutIDP/EDBSL/2023/2023ULILS115.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le cancer de l'ovaire (OvCa) est le cancer le plus mortel parmi les cancers féminins. Il est souvent diagnostiqué tardivement ou mal diagnostiqué, ce qui le rend difficile à traiter. Les options de traitement incluent la chirurgie ou la chimiothérapie, toutefois la résistance à la chimiothérapie est un problème majeur. Il est donc urgent de trouver de nouvelles cibles et de développer de nouvelles stratégies pour surmonter cette résistance.Dans ce contexte le protéome fantôme est une source potentiellement riche de biomarqueurs. Le protéome fantôme, ou protéome alternatif, est composé de protéines traduites à partir de cadres de lecture ouverts alternatifs (AltORFs). Ces AltORFs proviennent de différents codons START issus de différente région de l'ARNm, tels qu'un décalage de cadre de lecture (+1, +2) dans la séquence codante de l'ADN (CDS), dans le 5'-UTR, 3'-UTR et éventuellement de la traduction d'ARN non codants (ncRNA).Les études sur les protéines alternatives (AltProts) sont souvent complexes et nécessite des études biomoléculaires coûteuses. Cependant, leurs fonctions peuvent être déduites en identifiant leurs partenaires d'interaction, la détection des interactions protéine-protéine (PPI) entre AltProts et protéines de référence (RefProts) peut aider à identifier leur fonction. La stratégie de pontage chimique (crosslink) combiné à la spectrométrie de masse (XL-MS) est un outil approprié à cet objectif. De plus, les outils bioinformatiques qui relient les informations fonctionnelles des RefProt et les analyses d'ontologie génique (GO) permettent la visualisation des voies de signalisation et le regroupement des RefProts en fonction de leur processus biologique, de leur fonction moléculaire ou de leur localisation cellulaire, et ainsi y placer certaine AltProt.Dans ce travail, nous avons développé une méthodologie combinant XL-MS et le fractionnement subcellulaire. L'étape de fractionnement subcellulaire nous a permis de réduire la complexité des échantillons analysés par chromatographie liquide et spectrométrie de masse (LC-HRMS/MS). Pour évaluer la validité des interactions, nous avons réalisé une modélisation moléculaire des structures 3D des AltProts, suivie d'une prédiction informatique de l'interaction et de mesure des distances de pontages identifiés expérimentalement. L'analyse a révélé des rôles d'AltProts dans les fonctions et les processus biologiques tel que la réparation de l'ADN ou encore la présentation d'antigène.La protéogénomique a été utilisée pour générer des bases de données protéiques personnalisées à partir des données de séquençage ARN afin d'étudier les protéomes de deux lignées cellulaires de cancer de l'ovaire (PEO-4 et SKOV-3) en comparaison avec une lignée cellulaire ovarienne normale (T1074). L'expression différentielle de plusieurs protéines a ainsi été identifiée entre les lignées cellulaires cancéreuses et normales, avec une association aux voies de signalisation connues pour le cancer. Des PPI ont également été identifiées dans les lignées cellulaires cancéreuses en utilisant la méthodologie XL-MS.Ce travail met en évidence le potentiel de l'approche protéogénomique pour découvrir de nouveaux aspects de la biologie du cancer de l'ovaire. Il nous permet d'identifier des protéines et des variants auparavant inconnus qui peuvent avoir une signification fonctionnelle. L'utilisation de bases de données protéiques personnalisées et de l'approche de réticulation a mis en lumière le "protéome fantôme", une vision du protéome restée inexplorée jusqu'à présent
Ovarian cancer (OvCa) has the highest mortality rate among female reproductive cancers worldwide. OvCa is often referred to as a stealth killer because it is commonly diagnosed late or misdiagnosed. Once diagnosed, OvCa treatment options include surgery or chemotherapy. However, chemotherapy resistance is a significant obstacle. Therefore, there is an urgent need to identify new targets and develop novel therapeutic strategies to overcome therapy resistance.In this context the ghost proteome is a potentially rich source of biomarkers. The ghost proteome, also known as the alternative proteome, consists of proteins translated from alternative open reading frames (AltORFs). These AltORFs originate from different start codons within mRNA molecules, such as the coding DNA sequence (CDS) in frameshifts (+1, +2), the 5'-UTR, 3'-UTR, and possible translation products from non-coding RNAs (ncRNA).Studies on alternative proteins (AltProts) are often limited due to their case-by-case occurrence and complexity. Obtaining functional protein information for AltProts requires complex and costly biomolecular studies. However, their functions can be inferred by profiling their interaction partners, known as "guilty by association" approaches. Indeed, assessing AltProts' protein-protein interactions (PPIs) with reference proteins (RefProts) can help identify their function and set them as research targets. Since there is a lack of antibodies against AltProts, crosslinking mass spectrometry (XL-MS) is an appropriate tool for this task. Additionally, bioinformatic tools that link protein functional information through networks and gene ontology (GO) analysis are also powerful. These tools enable the visualization of signaling pathways and the grouping of RefProts based on their biological process, molecular function, or cellular localization, thus enhancing our understanding of cellular mechanisms.In this work, we developed a methodology that combines XL-MS and subcellular fractionation. The key step of subcellular fractionation allowed us to reduce the complexity of the samples analyzed by liquid chromatography tandem mass spectrometry (LC-MS/MS). To assess the validity of crosslinked interactions, we performed molecular modeling of the 3D structures of the AltProts, followed by docking studies and measurement of the corresponding crosslink distances. Network analysis indicated potential roles for AltProts in biological functions and processes. The advantages of this workflow include non-targeted AltProt identification and subcellular identification.Additionally, a proteogenomic analysis was performed to investigate the proteomes of two ovarian cancer cell lines (PEO-4 and SKOV-3 cells) in comparison to a normal ovarian epithelial cell line (T1074 cell). Using RNA-seq data, customized protein databases for each cell line were generated. Differential expression of several proteins, including AltProts, was identified between the cancer and normal cell lines. The expression of some RefProts and their transcripts were associated with cancer-related pathways. Moreover, the XL-MS methodology described above was used to identify PPIs in the cancerous cell lines.This work highlights the significant potential of proteogenomics in uncovering new aspects of ovarian cancer biology. It enables us to identify previously unknown proteins and variants that may have functional significance. The use of customized protein databases and the crosslinking approach have shed light on the "ghost proteome," an area that has remained unexplored until now
4

Lalloz, Jean-Pierre. "Genie et verite. Ontologie de la verite et metaphysique des createurs." Lille 3, 1991. http://www.theses.fr/1991LIL30004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Toute pratique et toute theorie suppose une conception implicite de la verite, qu'il faut interroger non pas simplement sur son existence a cause du caractere juridique de sa notion, mais sur l'invention de son essence, et la legitimite de cette invention. Ce qui definit le genie. La question de la verite se confond donc avec celle de la genialite non pas comme realite positive, psychologique ou existentielle, mais comme necessite juridique. Apres une introduction qui pose la necessite pour la philosophie d'inventer la definition de la verite dont elle sera l'explicitation et par consequent d'etre elle-meme geniale, ainsi que son histoire en est l'attestation, on aborde la question de la nature du vrai a travers celle de la realite geniale, l'oeuvre. Celle-ci est interrogee quant a la vanite mondaine qu'elle suppose et a la legitimite a exister dont elle est l'institution. Le probleme du genie est ensuite de concilier la realite purement juridique de sa notion avec le caractere strictement ontologique du vrai, par definition substantiel. La seconde partie est consacree au developpement du savoir qui se trouve necessairement implique dans la genialite : le createur genial doit forcement posseder la reponse aux questions les plus fondamentales de l'ontologie et de la metaphysique. On precise chacune de ces questions, et on degage la reponse impliquee par la notion d'un enonciateur "absolument legitime". La conclusion porte sur la notion de personne, sujet de droit et non de fait, comme entierement constituee de la supposition "inconsciente" du vrai
Every practice and every theory suppose an implicite conception of trhuth which must be questionned not simply about his existence because of the juridical nature of this notion, but about the invention of its essence and the legityimacy of this invention. That gives a definition of the genius therefore the questions of truth and geniusity meet to gether, not as a positive reality but as a juridical necessity after the introduction which states the necessity for philosophy to create a definition of truth of which it will be the explication and therefore to be itself of genius, as tis history attests it, will be study the question of the nature of what is true by the creativity of genius, the works. These ones will be questionned about the worldly vanity they assume and about the legitimacy of its existence, the institution of which it is the next problem of the genius is to reconcile juridical relaity of its notion with the ontological nature of truth which is by definition substancial. The second part will be denoted to the development of knowledge which is necessasity involved geniusity the creator of genius must own the answer to the most fundamental questions of ontology and metaphysics we will clarify each question and we will bring out the answer involved by the notion of an absolutly legitimale speaker. The conclusion is about the notion of the person, subject of right and not of fact, as completely made of the "subconsqcious" supposition of what is truen and leads to a "psychianalysis of right"
5

Benabderrahmane, Sidahmed. "Prise en compte des connaissances du domaine dans l'analyse transcriptomique : Similarité sémantique, classification fonctionnelle et profils flous : application au cancer colorectal." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00653169.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse bioinformatique des données de transcriptomique a pour but d'identifier les gènes qui présentent des variations d'expression entre différentes situations, par exemple entre des échantillons de tissu sain et de tissu malade et de caractériser ces gènes à partir de leurs annotations fonctionnelles. Dans ce travail de thèse, je propose quatre contributions pour la prise en compte des connaissances du domaine dans ces méthodes. Tout d'abord je définis une nouvelle mesure de similarité sémantique et fonctionnelle (IntelliGO) entre les gènes, qui exploite au mieux les annotations fonctionnelles issues de l'ontologie GO ('Gene Ontology'). Je montre ensuite, grâce à une méthodologie d'évaluation rigoureuse, que la mesure IntelliGO est performante pour la classification fonctionnelle des gènes. En troisième contribution je propose une approche différentielle avec affectation floue pour la construction de profils d'expression différentielle (PED). Je définis alors un algorithme d'analyse de recouvrement entre classes fonctionnelles et ensemble des références, ici les PEDs, pour mettre en évidence des gènes ayant à la fois les mêmes variations d'expression et des annotations fonctionnelles similaires. Cette méthode est appliquée à des données expérimentales produites à partir d'échantillons de tissus sains, de tumeur colo-rectale et de lignée cellulaire cancéreuse. Finalement, la mesure de similarité IntelliGO est généralisée à d'autres vocabulaires structurés en graphe acyclique dirigé et enraciné (rDAG) comme l'est l'ontologie GO, avec un exemple d'application concernant la réduction sémantique d'attributs avant la fouille.
6

Laadhar, Amir. "Local matching learning of large scale biomedical ontologies." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30126.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les larges ontologies biomédicales décrivent généralement le même domaine d'intérêt, mais en utilisant des modèles de modélisation et des vocabulaires différents. Aligner ces ontologies qui sont complexes et hétérogènes est une tâche fastidieuse. Les systèmes de matching doivent fournir des résultats de haute qualité en tenant compte de la grande taille de ces ressources. Les systèmes de matching d'ontologies doivent résoudre deux problèmes: (i) intégrer la grande taille d'ontologies, (ii) automatiser le processus d'alignement. Le matching d'ontologies est une tâche difficile en raison de la large taille des ontologies. Les systèmes de matching d'ontologies combinent différents types de matcher pour résoudre ces problèmes. Les principaux problèmes de l'alignement de larges ontologies biomédicales sont: l'hétérogénéité conceptuelle, l'espace de recherche élevé et la qualité réduite des alignements résultants. Les systèmes d'alignement d'ontologies combinent différents matchers afin de réduire l'hétérogénéité. Cette combinaison devrait définir le choix des matchers à combiner et le poids. Différents matchers traitent différents types d'hétérogénéité. Par conséquent, le paramétrage d'un matcher devrait être automatisé par les systèmes d'alignement d'ontologies afin d'obtenir une bonne qualité de correspondance. Nous avons proposé une approche appele "local matching learning" pour faire face à la fois à la grande taille des ontologies et au problème de l'automatisation. Nous divisons un gros problème d'alignement en un ensemble de problèmes d'alignement locaux plus petits. Chaque problème d'alignement local est indépendamment aligné par une approche d'apprentissage automatique. Nous réduisons l'énorme espace de recherche en un ensemble de taches de recherche de corresondances locales plus petites. Nous pouvons aligner efficacement chaque tache de recherche de corresondances locale pour obtenir une meilleure qualité de correspondance. Notre approche de partitionnement se base sur une nouvelle stratégie à découpes multiples générant des partitions non volumineuses et non isolées. Par conséquence, nous pouvons surmonter le problème de l'hétérogénéité conceptuelle. Le nouvel algorithme de partitionnement est basé sur le clustering hiérarchique par agglomération (CHA). Cette approche génère un ensemble de tâches de correspondance locale avec un taux de couverture suffisant avec aucune partition isolée. Chaque tâche d'alignement local est automatiquement alignée en se basant sur les techniques d'apprentissage automatique. Un classificateur local aligne une seule tâche d'alignement local. Les classificateurs locaux sont basés sur des features élémentaires et structurelles. L'attribut class de chaque set de donne d'apprentissage " training set" est automatiquement étiqueté à l'aide d'une base de connaissances externe. Nous avons appliqué une technique de sélection de features pour chaque classificateur local afin de sélectionner les matchers appropriés pour chaque tâche d'alignement local. Cette approche réduit la complexité d'alignement et augmente la précision globale par rapport aux méthodes d'apprentissage traditionnelles. Nous avons prouvé que l'approche de partitionnement est meilleure que les approches actuelles en terme de précision, de taux de couverture et d'absence de partitions isolées. Nous avons évalué l'approche d'apprentissage d'alignement local à l'aide de diverses expériences basées sur des jeux de données d'OAEI 2018. Nous avons déduit qu'il est avantageux de diviser une grande tâche d'alignement d'ontologies en un ensemble de tâches d'alignement locaux. L'espace de recherche est réduit, ce qui réduit le nombre de faux négatifs et de faux positifs. L'application de techniques de sélection de caractéristiques à chaque classificateur local augmente la valeur de rappel pour chaque tâche d'alignement local
Although a considerable body of research work has addressed the problem of ontology matching, few studies have tackled the large ontologies used in the biomedical domain. We introduce a fully automated local matching learning approach that breaks down a large ontology matching task into a set of independent local sub-matching tasks. This approach integrates a novel partitioning algorithm as well as a set of matching learning techniques. The partitioning method is based on hierarchical clustering and does not generate isolated partitions. The matching learning approach employs different techniques: (i) local matching tasks are independently and automatically aligned using their local classifiers, which are based on local training sets built from element level and structure level features, (ii) resampling techniques are used to balance each local training set, and (iii) feature selection techniques are used to automatically select the appropriate tuning parameters for each local matching context. Our local matching learning approach generates a set of combined alignments from each local matching task, and experiments show that a multiple local classifier approach outperforms conventional, state-of-the-art approaches: these use a single classifier for the whole ontology matching task. In addition, focusing on context-aware local training sets based on local feature selection and resampling techniques significantly enhances the obtained results
7

Fortineau, Virginie. "Contribution à une modélisation ontologique des informations tout au long du cycle de vie du produit." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-01064598.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux de recherche de cette thèse portent sur la modélisation sémantique des informations industrielles, dans une approche og cycle de vie fg , de gestion des informations. Dans ce type d'approche, lever le verrou lié à l'interopérabilité des modèles d'information est une condition sine qua non à un échange d'information sans perte de flux sémantique. Jusqu'alors, des méthodes d'unification étaient envisagées, reposant sur l'utilisation mutuelle de modèles standards, tels que la norme STEP par exemple. Cependant, l'unification fait face à des limites en termes d'expressivité des modèles, de rigidité, et de perte de sémantique. Afin de lever ces limites, les paradigmes de modélisation évoluent et se tournent vers les ontologies d'inférence, outils du web sémantique.Dans cette thèse, nous proposons un cadre de modélisation sémantique général et une méthodologie de mise en place de ce cadre, qui reposent sur l'utilisation d'ontologies d'inférence. L'application du cadre de modélisation à un cas d'étude industriel, issu de l'ingénierie nucléaire (plus particulièrement l'expression et l'exécution des règles métier), permet alors d'évaluer les apports et limites des ontologies en tant que paradigme de modélisation. Les limites les plus importantes que nous identifions sur l'Open World Assumption, le manque de langage de règles performant et le manque d'outils d'implémentation robustes pour des applications à large échelle. Le développement d'un démonstrateur pour le cas d'étude industriel permet finalement de tendre vers une solution mixte, où les ontologies sont utilisées localement, afin d'en exploiter les divers avantages de manière optimale.
8

Pham, Tuan Anh. "OntoApp : une approche déclarative pour la simulation du fonctionnement d’un logiciel dès une étape précoce du cycle de vie de développement." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4075/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions plusieurs modèles de collaboration entre l’ingénierie logiciel et le web sémantique. À partir de l’état de l’art, nous proposons une approche d’utilisation de l’ontologie dans la couche de métier d’une application. L’objectif principal de notre travail est de fournir au développeur des outils pour concevoir la matière déclarative une couche de métier "exécutable" d’une application afin de simuler son fonctionnement et de montrer ainsi la conformité de l’application par rapport aux exigences du client au début du cycle de vie du logiciel. Un autre avantage de cette approche est de permettre au développeur de partager et de réutiliser la description de la couche de métier d’une application dans un domaine en utilisant l’ontologie. Celle-ci est appelée "patron d’application". La réutilisation de la description de la couche de métier d’une application est un aspect intéressant à l'ingénier logiciel. C’est le point-clé que nous voulons considérer dans cette thèse. Dans la première partie de notre travail, nous traitons la modélisation de la couche de métier. Nous présentons d’abord une approche fondée sur l’ontologie pour représenter les processus de métiers et les règles de métiers et nous montrons comment vérifier la cohérence du processus et de l’ensemble des règles de métier. Puis, nous présentons le mécanisme de vérification automatique de la conformité d’un processus de métier avec un ensemble de règles de métier. La deuxième partie de cette thèse est consacrée à définir une méthodologie, dite de personnalisation, de création une application à partir d'un "patron d’application". Cette méthode permettra à l'utilisateur d'utiliser un patron d'application pour créer sa propre application en évitant les erreurs de structures et les erreurs sémantiques. Nous introduisons à la fin de cette partie, la description d’une plateforme expérimentale permettant d’illustrer la faisabilité des mécanismes proposés dans cette thèse. Cette plateforme est réalisée sur un SGBD relationnel
In this thesis, we study several models of collaboration between Software Engineering and Semantic Web. From the state of the art, we propose an approach to the use of ontology in the business application layer. The main objective of our work is to provide the developer with the tools to design, in the declarative manner, a business "executable" layer of an application in order to simulate its operation and thus show the compliance of the application with the customer requirements defined at the beginning of the software life cycle. On the other hand, another advantage of this approach is to allow the developer to share and reuse the business layer description of a typical application in a domain using ontology. This typical application description is called "Application Template". The reuse of the business layer description of an application is an interesting aspect of software engineering. That is the key point we want to consider in this thesis. In the first part of this thesis, we deal with the modeling of the business layer. We first present an ontology-based approach to represent business process and the business rules and show how to verify the consistency of business process and the set of business rules. Then, we present an automatic check mechanism of compliance of business process with a set of business rules. The second part of this thesis is devoted to define a methodology, called personalization, of creating of an application from an "Application Template". This methodology will allow the user to use an Application Template to create his own application by avoiding deadlock and semantic errors. We introduce at the end of this part the description of an experimental platform to illustrate the feasibility of the mechanisms proposed in the thesis. This platform s carried out on a relational DBMS.Finally, we present, in a final chapter, the conclusion, the perspective and other annexed works developed during this thesis
9

Benabderrahmane, Sidahmed. "Prise en compte des connaissances du domaine dans l'analyse transcriptomique : Similarité sémantique, classification fonctionnelle et profils flous : application au cancer colorectal." Electronic Thesis or Diss., Nancy 1, 2011. http://www.theses.fr/2011NAN10097.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse bioinformatique des données de transcriptomique a pour but d'identifier les gènes qui présentent des variations d'expression entre différentes situations, par exemple entre des échantillons de tissu sain et de tissu malade et de caractériser ces gènes à partir de leurs annotations fonctionnelles. Dans ce travail de thèse, je propose quatre contributions pour la prise en compte des connaissances du domaine dans ces méthodes. Tout d'abord je définis une nouvelle mesure de similarité sémantique et fonctionnelle (IntelliGO) entre les gènes, qui exploite au mieux les annotations fonctionnelles issues de l'ontologie GO ('Gene Ontology'). Je montre ensuite, grâce à une méthodologie d'évaluation rigoureuse, que la mesure IntelliGO est performante pour la classification fonctionnelle des gènes. En troisième contribution je propose une approche différentielle avec affectation floue pour la construction de profils d'expression différentielle (PED). Je définis alors un algorithme d'analyse de recouvrement entre classes fonctionnelles et ensemble des références, ici les PEDs, pour mettre en évidence des gènes ayant à la fois les mêmes variations d'expression et des annotations fonctionnelles similaires. Cette méthode est appliquée à des données expérimentales produites à partir d'échantillons de tissus sains, de tumeur colo-rectale et de lignée cellulaire cancéreuse. Finalement, la mesure de similarité IntelliGO est généralisée à d'autres vocabulaires structurés en graphe acyclique dirigé et enraciné (rDAG) comme l'est l'ontologie GO, avec un exemple d'application concernant la réduction sémantique d'attributs avant la fouille
Bioinformatic analyses of transcriptomic data aims to identify genes with variations in their expression level in different tissue samples, for example tissues from healthy versus seek patients, and to characterize these genes on the basis of their functional annotation. In this thesis, I present four contributions for taking into account domain knowledge in these methods. Firstly, I define a new semantic and functional similarity measure which optimally exploits functional annotations from Gene Ontology (GO). Then, I show, thanks to a rigorous evaluation method, that this measure is efficient for the functional classification of genes. In the third contribution, I propose a differential approach with fuzzy assignment for building differential expression profiles (DEPs). I define an algorithm for analyzing overlaps between functional clusters and reference sets such as DEPs here, in order to point out genes that have both similar functional annotation and similar variations in expression. This method is applied to experimental data produced from samples of healthy tissue, colorectal tumor and cancerous cultured cell line. Finally the similarity measure IntelliGO is generalized to another structured vocabulary organized as GO as a rooted directed acyclic graph, with an application concerning the semantic reduction of attributes before mining
10

Perry, Nicolas. "INDUSTRIALISATION DES CONNAISSANCES : APPROCHES D'INTEGRATION POUR UNE UTILISATION OPTIMALE EN INGENIERIE (CAS DE L'EVALUATION ECONOMIQUE)." Habilitation à diriger des recherches, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00204563.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif du Génie Industriel est d'améliorer les performances industrielles. Ce champ très large est abordé dans notre équipe par le développement d'outils et de méthodes basés sur l'utilisation d'environnements d'ingénierie virtuelle. Ces derniers sont conçus pour assister, accélérer et donc améliorer les démarches d'ingénierie liées à la conception et la réalisation de produits, mais aussi la gestion des projets associés.
Nous développons ainsi des environnements que nous voulons interactifs, pour l'aide à la prise de décision (SIAD).
Dès lors, et indépendamment du domaine abordé, la connaissance des experts d'un métier devient une ressource que l'on voudrait partager au maximum, voir faire fonctionner de manières semi-automatiques. Or ces connaissances sont immatérielles, souvent non formalisées et échangées au travers de flux d'informations dont la quantité, la qualité et la véracité ne sont pas toujours assurées ou certifiées.
Il importe donc de s'intéresser aux approches de gestion des connaissances ou Knowledge Management, pour spécifier des environnements virtuels les plus riches possibles (sémantiquement parlant) dans lesquels on peut espérer intégrer une partie des connaissances d'experts. Certaines actions d'ingénierie, dont les processus et les règles ont été formalisés puis modélisés, sont alors partiellement automatisables, laissant la place à l'utilisateur pour décider dans des situations non gérées par l'expertise automatique, de critiquer, révoquer ou faire évoluer les choix et alternatives proposées.
Un pan important des études et recherches faites dans les domaines des sciences de l'information et de la communication font la part belle à l'intelligence artificielle. Mais les domaines d'application restent souvent très loin des cas d'utilisation ou d'application d'ingénierie (ingénierie mécanique en particulier).
Il nous importe donc de nous imprégner des approches, méthodes et outils existants pour nous les approprier tout en les faisant évoluer pour les adapter à nos besoins. Il faut donc pouvoir maîtriser ces méthodes et leurs solutions techniques pour pouvoir être porteur d'évolutions et requêtes et attirer ces thématiques de recherches vers nos problématiques.
En conséquences, mes travaux se sont inscrits dans cette démarche d'appropriation des approches de gestion et d'automatisation des connaissances qui relève d'une thématique d'ingénierie des connaissances. Nous avons donc cherché à développer des environnements à base de connaissances supportant les démarches d'ingénierie.
Cette position (ingénieur des connaissances) se place en interface entre l'expert (réceptacle et source des connaissances à partager), l'informaticien (qui va développer l'environnement virtuel à base de connaissances) et l'utilisateur (qui va utiliser et faire vivre l'outil).
Dès lors différents points de vue se confrontent, et il devient tout aussi important de maîtriser les aspects techniques (méthodes et solutions existantes pour formaliser et modéliser des connaissances, développer les applications, valider l'intégrité et la cohérence des éléments intégrés et à intégrer, faire vivre les bases de connaissances, etc...) que les aspects de gestion de projet, puisqu'il reste très difficile d'évaluer le retour sur investissement direct de tels projets. Un échec conduisant généralement à l'abandon de ce type d'approches, longues, lourdes et souvent opaques pour l'expert ou l'utilisateur.
Cette première partie de mes activités de recherches a donc participé à l'enrichissement d'aspects de modélisation (d'objets d'entreprise : information, connaissances ...), de structuration de ces modèles (méthode de modélisation) et d'intégration dans le cycle de développement d'applications informatiques.
En analysant les démarches d'ingénierie en mécanique (au sens large), il est ressorti que nous continuons à approfondir et affiner des modèles et calculs sur les solutions techniques qui répondent à des fonctions et des besoins clients. Cependant, le critère de coût ou de valeur reste très peu évalué ou abordé. Or, dans le contexte mondial et concurrentiel actuel il importe d'assurer l'équilibre entre les fonctions techniques et économiques des produits qui sont devenus de plus en plus complexes.
Ainsi nous essayons d'aborder la performance au travers des aspects économiques le long du cycle de vie du produit. Ceci nous donne un domaine d'application de nos travaux sur l'intégration et la mise à disposition d'expertise(s) issue(s) des sciences économiques et de gestion dans les démarches d'ingénierie.
Ces travaux ont initialement abordé l'adéquation entre les outils et méthodes d'évaluation économique au regard du cycle de vie produit. Les problèmes d'information partielle ou de passage de modèles se posent alors à chaque étape charnière.
De plus, nos réflexions et échanges avec les chercheurs en sciences de gestion nous ont porté vers la prise en compte du concept de valeur englobant le coût. Il est ainsi possible d'évaluer les alternatives de chaînes de valeurs et d'envisager d'aborder la conception conjointe de produits et de processus à valeur ajoutée maîtrisée. Ainsi l'environnement d'aide à la décision complète les contextes de décisions en intégrant les différents points de vus d'acteurs et leurs visions sur la valeur à prendre en compte.
L'ensemble de ces travaux et réflexions m'ont conduit au néologisme d'Industrialisation des Connaissances, au sens de la mise à disposition fiable, évolutive et objectivée, des connaissances d'experts d'entreprise. Ces travaux ont été alimentés par 4 thèses soutenues (une en cours), 7 DEA et Masters, des implications dans un Réseau Thématique du FP5 et deux Réseaux d'Excellence du FP6, ainsi qu'une collaboration soutenue depuis 2003 avec une équipe de recherche Sud Africaine.
11

Ayllón-Benítez, Aarón. "Development of new computational methods for a synthetic gene set annotation." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0305.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les avancées dans l'analyse de l'expression différentielle de gènes ont suscité un vif intérêt pour l'étude d'ensembles de gènes présentant une similarité d'expression au cours d'une même condition expérimentale. Les approches classiques pour interpréter l'information biologique reposent sur l'utilisation de méthodes statistiques. Cependant, ces méthodes se focalisent sur les gènes les plus connus tout en générant des informations redondantes qui peuvent être éliminées en prenant en compte la structure des ressources de connaissances qui fournissent l'annotation. Au cours de cette thèse, nous avons exploré différentes méthodes permettant l'annotation d'ensembles de gènes.Premièrement, nous présentons les solutions visuelles développées pour faciliter l'interprétation des résultats d'annota-tion d'un ou plusieurs ensembles de gènes. Dans ce travail, nous avons développé un prototype de visualisation, appelé MOTVIS, qui explore l'annotation d'une collection d'ensembles des gènes. MOTVIS utilise ainsi une combinaison de deux vues inter-connectées : une arborescence qui fournit un aperçu global des données mais aussi des informations détaillées sur les ensembles de gènes, et une visualisation qui permet de se concentrer sur les termes d'annotation d'intérêt. La combinaison de ces deux visualisations a l'avantage de faciliter la compréhension des résultats biologiques lorsque des données complexes sont représentées.Deuxièmement, nous abordons les limitations des approches d'enrichissement statistique en proposant une méthode originale qui analyse l'impact d'utiliser différentes mesures de similarité sémantique pour annoter les ensembles de gènes. Pour évaluer l'impact de chaque mesure, nous avons considéré deux critères comme étant pertinents pour évaluer une annotation synthétique de qualité d'un ensemble de gènes : (i) le nombre de termes d'annotation doit être réduit considérablement tout en gardant un niveau suffisant de détail, et (ii) le nombre de gènes décrits par les termes sélectionnés doit être maximisé. Ainsi, neuf mesures de similarité sémantique ont été analysées pour trouver le meilleur compromis possible entre réduire le nombre de termes et maintenir un niveau suffisant de détails fournis par les termes choisis. Tout en utilisant la Gene Ontology (GO) pour annoter les ensembles de gènes, nous avons obtenu de meilleurs résultats pour les mesures de similarité sémantique basées sur les nœuds qui utilisent les attributs des termes, par rapport aux mesures basées sur les arêtes qui utilisent les relations qui connectent les termes. Enfin, nous avons développé GSAn, un serveur web basé sur les développements précédents et dédié à l'annotation d'un ensemble de gènes a priori. GSAn intègre MOTVIS comme outil de visualisation pour présenter conjointement les termes représentatifs et les gènes de l'ensemble étudié. Nous avons comparé GSAn avec des outils d'enrichissement et avons montré que les résultats de GSAn constituent un bon compromis pour maximiser la couverture de gènes tout en minimisant le nombre de termes.Le dernier point exploré est une étape visant à étudier la faisabilité d'intégrer d'autres ressources dans GSAn. Nous avons ainsi intégré deux ressources, l'une décrivant les maladies humaines avec Disease Ontology (DO) et l'autre les voies métaboliques avec Reactome. Le but était de fournir de l'information supplémentaire aux utilisateurs finaux de GSAn. Nous avons évalué l'impact de l'ajout de ces ressources dans GSAn lors de l'analyse d’ensembles de gènes. L'intégration a amélioré les résultats en couvrant d'avantage de gènes sans pour autant affecter de manière significative le nombre de termes impliqués. Ensuite, les termes GO ont été mis en correspondance avec les termes DO et Reactome, a priori et a posteriori des calculs effectués par GSAn. Nous avons montré qu'un processus de mise en correspondance appliqué a priori permettait d'obtenir un plus grand nombre d'inter-relations entre les deux ressources
The revolution in new sequencing technologies, by strongly improving the production of omics data, is greatly leading to new understandings of the relations between genotype and phenotype. To interpret and analyze data grouped according to a phenotype of interest, methods based on statistical enrichment became a standard in biology. However, these methods synthesize the biological information by a priori selecting the over-represented terms and focus on the most studied genes that may represent a limited coverage of annotated genes within a gene set. During this thesis, we explored different methods for annotating gene sets. In this frame, we developed three studies allowing the annotation of gene sets and thus improving the understanding of their biological context.First, visualization approaches were applied to represent annotation results provided by enrichment analysis for a gene set or a repertoire of gene sets. In this work, a visualization prototype called MOTVIS (MOdular Term VISualization) has been developed to provide an interactive representation of a repertoire of gene sets combining two visual metaphors: a treemap view that provides an overview and also displays detailed information about gene sets, and an indented tree view that can be used to focus on the annotation terms of interest. MOTVIS has the advantage to solve the limitations of each visual metaphor when used individually. This illustrates the interest of using different visual metaphors to facilitate the comprehension of biological results by representing complex data.Secondly, to address the issues of enrichment analysis, a new method for analyzing the impact of using different semantic similarity measures on gene set annotation was proposed. To evaluate the impact of each measure, two relevant criteria were considered for characterizing a "good" synthetic gene set annotation: (i) the number of annotation terms has to be drastically reduced while maintaining a sufficient level of details, and (ii) the number of genes described by the selected terms should be as large as possible. Thus, nine semantic similarity measures were analyzed to identify the best possible compromise between both criteria while maintaining a sufficient level of details. Using GO to annotate the gene sets, we observed better results with node-based measures that use the terms’ characteristics than with edge-based measures that use the relations terms. The annotation of the gene sets achieved with the node-based measures did not exhibit major differences regardless of the characteristics of the terms used. Then, we developed GSAn (Gene Set Annotation), a novel gene set annotation web server that uses semantic similarity measures to synthesize a priori GO annotation terms. GSAn contains the interactive visualization MOTVIS, dedicated to visualize the representative terms of gene set annotations. Compared to enrichment analysis tools, GSAn has shown excellent results in terms of maximizing the gene coverage while minimizing the number of terms.At last, the third work consisted in enriching the annotation results provided by GSAn. Since the knowledge described in GO may not be sufficient for interpreting gene sets, other biological information, such as pathways and diseases, may be useful to provide a wider biological context. Thus, two additional knowledge resources, being Reactome and Disease Ontology (DO), were integrated within GSAn. In practice, GO terms were mapped to terms of Reactome and DO, before and after applying the GSAn method. The integration of these resources improved the results in terms of gene coverage without affecting significantly the number of involved terms. Two strategies were applied to find mappings (generated or extracted from the web) between each new resource and GO. We have shown that a mapping process before computing the GSAn method allowed to obtain a larger number of inter-relations between the two knowledge resources
12

Guo, Jing. "Serious Games pour la e-Santé : application à la formation des médecins généralistes." Phd thesis, Toulouse 3, 2016. http://oatao.univ-toulouse.fr/17813/1/the%CC%80se_GUO.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les Jeux Sérieux (Serious Games) sont des jeux vidéo qui sont conçus avec un objectif premier qui n’est pas le divertissement. Les jeux sérieux sont de plus en plus utilisés dans le domaine de la santé en tant qu’outil éducatif dans le cadre de la formation à la médecine, ou pour aider au rétablissement des patients. Dans cette thèse, nous nous intéressons à la conception d’un jeu sérieux pour la formation des médecins généralistes, en nous intéressant tout particulièrement à l’apprentissage des compétences communicationnelles et interpersonnelles qui jouent un rôle très important dans le métier de médecin, et qui sont assez peu présentes dans les programmes des cursus de formation. Nous nous intéressons en particulier aux méthodologies de conception d’un tel jeu qui doit délivrer un contenu utilitaire tout en équilibrant apprentissage et divertissement. Afin de mener ce travail, nous présentons dans la première partie de la thèse une analyse des méthodes existantes de conception de jeux sérieux en étudiant en particulier les mécanismes permettant de motiver le joueur ainsi que les principaux design patterns de conception. Nous expliquons en quoi les jeux sérieux nécessitent une architecture particulière dont la principale caractéristique est de séparer clairement les concepts nécessaires à l’apprentissage de ceux liés à l’aspect ludique. Nous proposons ensuite une modélisation de la consultation médicale qui en plus de rendre compte du processus métier auquel elle correspond, permet de représenter les différents éléments nécessaires à l’implémentation algorithmique d’un moteur de dialogue entre un joueur et un patient virtuel. Cette modélisation utilise les ontologies pour décrire les connaissances impliquées et nous montrons comment un scénario de consultation médicale peut se décrire en termes d’instances de ces ontologies. Ces ontologies incluent quatre niveaux qui décrivent le profil du patient, le résultat de consultation, le scénario et la phrase. Cette description est accessible aux experts formateurs qui disposent donc d’un outil leur permettant de définir les objectifs pédagogiques que le joueur-apprenant doit atteindre au cours de la simulation. Ces analyses sont enfin appliquées au cas de la consultation médicale et nous décrivons l’architecture d’un jeu que nous avons conçu appelé AgileDoctor. Ce jeu a pour objectif de permettre à un apprenant de jouer le rôle d’un médecin qui mène des consultations médicales en accueillant des patients aux profils divers.
13

Hudelot, Céline. "Towards a Cognitive Vision Platform for Semantic Image Interpretation; Application to the Recognition of Biological Organisms." Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00328034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux de thèse ont pour but de faire des avancées dans le domaine de la vision cognitive en proposant une plate-forme fonctionnelle et logicielle pour le problème complexe de l'interprétation sémantique d'images. Nous nous sommes focalisés sur la proposition de solutions génériques et indépendantes de toute application. Plus qu'une solution à un problème spécifique, la plate-forme proposée est une architecture minimale qui fournit des outils réutilisables pour la conception de systèmes d'interprétation sémantique d'images.
Le problème de l'interprétation sémantique d'images est un problème complexe qui peut se séparer en 3 sous-problèmes plus faciles à résoudre en tant que problèmes indépendants: (1) l'interprétation sémantique, (2) la gestion des données visuelles pour la mise en correspondance des représentations abstraites haut niveau de la scène avec les données image issues des capteurs et (3) le traitement d'images. Nous proposons une architecture distribuée qui se base sur la coopération de trois systèmes à base de connaissances (SBCs).
Chaque SBC est spécialisé pour un des sous problèmes de l'interprétation d'images. Pour chaque SBC nous avons proposé un modèle générique en formalisant la connaissance et des stratégies de raisonnement dédiées. De plus, nous proposons d'utiliser deux ontologies pour faciliter l'acquisition de la connaissance et permettre l'interopérabilité entre les trois différents SBCs.
Un travail d'implémentation de la plate forme de vision cognitive a été fait à l'aide de la plate-forme de développement de systèmes à base de connaissances LAMA conçue par l'équipe ORION.
Les solutions proposées ont été validées sur une application concrète et difficile: le diagnostic précoce des pathologies végétales et en particulier des pathologies du rosier de serre. Ce travail a été effectué en coopération avec l'INRA (Institut National de la Recherche Agronomique).
14

Bouhours, Cédric. "Détection, Explications et Restructuration de défauts de conception : les patrons abîmés." Phd thesis, Toulouse 3, 2010. http://tel.archives-ouvertes.fr/tel-00457623.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'ingénierie des modèles considère les modèles comme des entités de première classe pour le développement logiciel. Les processus dirigés par les modèles se doivent d'être capables de prendre en compte le savoir-faire d'experts, généralement exprimé en termes de patrons, qu'ils soient d'analyse, de conception ou d'architecture. Choisir le bon patron et assurer sa bonne intégration au sein d'une modélisation constitue des freins à l'utilisation systématique des bonnes pratiques de conception. Afin d'alléger ces tâches, nous proposons une approche basée sur l'inspection automatique des modèles. De la même manière qu'il existe des revues de code visant à vérifier l'absence de mauvaises pratiques de codage dans un programme, nous avons outillé une activité de revue de conception identifiant, expliquant et corrigeant les mauvaises pratiques de conception dans un modèle. Un patron abîmé est comparable à un patron de conception, ses contextualisations résolvant les mêmes types de problèmes, mais avec une architecture différente et certainement améliorable. Des expérimentations ont été menées afin de collecter des patrons abîmés, nous amenant à proposer un catalogue de mauvaises pratiques, complémentaire au catalogue du GoF. La détection des contextualisations de patrons abîmés dans un modèle UML est apparentée à un morphisme de graphe étendu. Les graphes UML ayant des sommets typés, la détection s'appuie sur des particularités structurelles locales et globales permettant de résoudre ce problème NP-Complet par des filtrages successifs. Cet algorithme est ainsi capable de détecter toutes les contextualisations possibles d'un patron abîmé, en gérant de plus les arcs interdits et facultatifs. La sémantique d'un fragment de modèle est donnée par son intention et celle-ci est validée par le concepteur. L'intention des fragments détectés et les bénéfices d'un remplacement par le patron adéquat sont déduits par des requêtes sur une ontologie conçue à cet effet. La transformation des fragments en contextualisations de patrons de conception est réalisée grâce à des restructurations de modèles déduites automatiquement des différences structurelles entre un patron abîmé et un patron de conception.
15

Qasim, Lara. "System reconfiguration : A Model based approach; From an ontology to the methodology bridging engineering and operations Model-Based System Reconfiguration: A Descriptive Study of Current Industrial Challenges Towards a reconfiguration framework for systems engineering integrating use phase data An overall Ontology for System Reconfiguration using Model-Based System Engineering An Ontology for System Reconfiguration: Integrated Modular Avionics IMA Case Study A model-based method for System Reconfiguration." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST031.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les évolutions des systèmes doivent être gérées de manière à garantir l'efficacité et l'efficience du système tout au long de son cycle de vie, en particulier lorsqu'il s'agit de systèmes complexes qui nécessitent des années de développement et des dizaines d'années d'utilisation. La reconfiguration des systèmes est primordiale pour la gestion des systèmes complexes, car elle permet d'assurer la flexibilité et l'adaptabilité des systèmes en ce qui concerne leur évolution. La reconfiguration des systèmes assure l'efficacité opérationnelle et augmente les qualités des systèmes (par exemple, la fiabilité, la disponibilité, la sécurité, etc.).Cette thèse a été effectuée en partenariat avec une entreprise évoluant dans les domaines de l’aérospatial, de l’espace, du transport, de la défense et de la sécurité. Les entreprises portent un intérêt croissant sur la reconfiguration des systèmes afin de garantir leurs efficacités opérationnelles. L’objectif de cette thèse est de proposer une approche basée sur les modèles pour soutenir la reconfiguration de système.En effectuant une étude descriptive, basée sur une étude de terrain et l’analyse de l’état de l’art, le développement d’un support lié à la reconfiguration de système a été identifié comme enjeu industriel majeur. Le défi principal consiste à identifier les données relatives à la reconfiguration des systèmes et leurs mécanismes d’intégration afin d’atteindre cet objectif.Dans cette thèse, nous présentons une ontologie, que nous avons nommé OSysRec, qui intègre les données nécessaires pour la reconfiguration et gestion des systèmes. De plus, OSysRec agrège les trois aspects indispensables à la gestion des process de la reconfiguration de système: la structure, la dynamique, et la gestion.Nous présentons également une méthode basée sur les modèles (MBSysRec) qui intègre les données de reconfiguration et fait le lien entre les phases d’ingénierie et d’opération. Cette méthode est multidisciplinaire qui implique des générations combinatoires de configurations et des décisions multicritères pour leurs évaluations et sélections. Nous avons pu démontrer sur deux cas d’étude la validité de cette méthode pour trouver des solutions performantes et pertinentes.Cette thèse est un premier étape pour la mise en œuvre d’une approche basée sur les modèles pour la reconfiguration de système permettant leur flexibilité et leur adaptabilité
System evolutions have to be managed to ensure system effectiveness and efficiency through its whole lifecycle, particularly when it comes to complex systems that take years of development and dozens of years of usage. System Reconfiguration is key in complex systems management, as it is an enabler of system flexibility and adaptability regarding system evolutions. System reconfiguration ensures operational effectiveness and increases system qualities (e.g., reliability, availability, safety, and usability).This research has been conducted in the context of a large international aerospace, space, ground transportation, defense, and security company. This research aims at supporting system reconfiguration during operations.First, we conducted a descriptive study based on a field study and a literature review to identify the industrial challenges related to system reconfiguration. The main issue lies in the development of reconfiguration support. More specifically, challenges related to data identification and integration were identified.In this thesis, we present the OSysRec ontology, which captures and formalizes the reconfiguration data. The ontology synthesizes the structure, dynamics, and management aspects necessary to support the system reconfiguration process in an overall manner.Furthermore, we present a model-based method (MBSysRec) that integrates system reconfiguration data and bridges both the engineering and the operational phases. MBSysRec is a multidisciplinary method that involves combinatorial configuration generation and a multi-criteria decision-making method for configuration evaluation and selection.This thesis is a step towards a model-based approach for system reconfiguration of evolving systems, ensuring their flexibility and adaptability
16

Bennaceur, Amel. "Synthèse dynamique de médiateurs dans les environnements ubiquitaires." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00849402.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Assurer l'interopérabilité de manière dynamique et automatique demeure un enjeu majeur dans le développement et la mise en œuvre des systèmes logiciels modernes. En effet, ces systèmes comprennent souvent plusieurs composants qui fonctionnent conjointement afin de satisfaire aux exigences des utilisateurs. Toutefois, les disparités pouvant exister entre les interfaces et les comportements de ces composants les empêchent de fonctionner ensemble, c'est-à-dire d'interopérer. Les solutions existantes visent à concilier ces disparités à travers la mise en œuvre d'intergiciels ou la génération de médiateurs. La mise en œuvre d'intergiciels n'offre qu'une solution statique, inadaptée aux environnements fortement dynamiques, tels que les environnements ubiquitaires. Les approches pour la génération de médiateurs requièrent que les correspondances entre les interfaces des composants soient préalablement spécifiées, et n'offrent de ce fait qu'une solution partiellement automatique à l'interopérabilité. Ainsi, les solutions existantes se révèlent souvent insuffisantes, particulièrement dans les environnements où les composants devant interopérer ne sont connus qu'à l'exécution. Dans cette thèse, nous définissons une approche à l'interopérabilité basée sur la synthèse automatique de médiateurs. Tout d'abord, nous intégrons la programmation par contraintes et le raisonnement ontologique afin d'inférer les traductions nécessaires pour pallier les différences entre les interfaces des composants. Ces traductions servent de base à la synthèse de médiateurs qui coordonnent les comportements des composants afin de garantir l'absence d'interblocage lors de leurs interactions. Enfin, nous procédons à l'analyse et la génération des messages au niveau intergiciel de façon à implémenter ces médiateurs. Pour valider notre approche, nous avons développé un prototype, appelé MICS, qui effectue la synthèse dynamique de médiateurs afin d'assurer l'interopérabilité entre composants en dépit de leurs différences aussi bien au niveau applicatif qu'au niveau intergiciel. Nous avons également expérimenté MICS en considérant plusieurs cas d'études allant de la médiation entre messageries instantanées à la gestion de l'interopérabilité dans les systèmes de systèmes. Cela nous a permis d'une part de démontrer la viabilité de notre solution et d'autre part d'évaluer son efficacité.
17

Gravier, Christophe. "Vers la généralisation de manipulations distantes et collaboratives d'instruments de haute technologie." Phd thesis, Université Jean Monnet - Saint-Etienne, 2007. http://tel.archives-ouvertes.fr/tel-00287637.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Blondet, Gaëtan. "Système à base de connaissances pour le processus de plan d'expériences numériques." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2363/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le besoin de compétitivité des entreprises, dans un contexte économique mondialisé, repose sur l'amélioration de la qualité des produits et la réduction des coûts et du temps de mise sur le marché. Pour atteindre ces objectifs, la simulation numérique est couramment utilisée pour la conception de produits complexes et mobilise des expertises diverses. Les Plans d'Expériences Numériques (PEN) sont de plus en plus utilisés pour simuler les variabilités des propriétés et de l’environnement du produit. Un processus de PEN apporte des méthodes de planification et d'analyse d'un ensemble de simulations, pour mieux maîtriser les performances du produit. La problématique traitée repose sur deux points. D'une part, la définition d'un processus de PEN repose sur de nombreux choix et l'utilisation de méthodes complexes, nécessitant une expertise avancée. Cette définition est d'autant plus complexe que le modèle de simulation est complexe et coûteux à exécuter. D'autre part, l'utilisation de PEN conduit à une production de grands volumes de données en multipliant les simulations. Ces travaux portent sur l'obtention rapide de la configuration optimale du processus de PEN pour raccourcir la préparation et l’exécution d’un PEN. Ces travaux se sont orientés vers la réutilisation des connaissances en entreprise pour un système à base de connaissances, composé d'une ontologie spécifique, pour capitaliser et partager les connaissances, et d'un moteur d'inférences, basé sur les réseaux bayésiens, pour proposer aux concepteurs des configurations efficaces et innovantes. Cette proposition est illustrée par une application sur un produit industriel issue du secteur automobile
In order to improve industrial competitiveness, product design relies more and more on numerical tools, such as numerical simulation, to develop better and cheaper products faster. Numerical Design of Experiments (NDOE) are more and more used to include variabilities during simulation processes, to design more robust, reliable and optimized product earlier in the product development process. Nevertheless, a NDOE process may be too expensive to be applied to a complex product, because of the high computational cost of the model and the high number of required experiments. Several methods exist to decrease this computational cost, but they required expert knowledge to be efficiently applied. In addition to that, NDoE process produces a large amount of data which must be managed. The aim of this research is to propose a solution to define, as fast as possible, an efficient NDoE process, which produce as much useful information as possible with a minimal number of simulations, for complex products. The objective is to shorten both process definition and execution steps. A knowledge-based system is proposed, based on a specific ontology and a bayesian network, to capitalise, share and reuse knowledge and data to predict the best NDoE process definition regarding to a new product. This system is validated on a product from automotive industry
19

Nzetchou, Stéphane. "Méthodologie d'enrichissement sémantique de la CAO dans un environnement de continuité numérique." Thesis, Compiègne, 2021. http://www.theses.fr/2021COMP2642.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La transition numérique dans l’industrie manufacturière se caractérise par un passif de trois voire quatre décennies. Certains modèles 3D ou maquettes numériques accumulés durant cette période sont des solides morts, c’est-à-dire des modèles 3D dépourvus d’arbre de construction, qui se caractérisent par des géométries absentes, dû aux changements des logiciels ou à des versions de formats 3D qui n’ont pas subi de mise à jour. Des activités de rétro-conception des modèles 3D, visent à obtenir des modèles 3D sémantiquement riches, c’est-à-dire paramétriques et modifiables, constitués d’opérations de constructions, porteur d’attributs et de métadonnées, avec des règles et contraintes géométriques, etc., grâce à l’utilisation des outils d’ingénierie comme CATIA par exemple ou par des approches à base de nuages de points provenant d’une numérisation par exemple. Mais ce n’est toujours pas satisfaisant, car à l’issue de l’opération de rétro-conception, nous retrouvons souvent un solide avec une représentation sémantique faible ou un arbre de construction absent. Ce qui nous amène à proposer dans le cadre de ce travail de thèse, une méthodologie de gestion des informations liées aux modèles 3D afin d’intégrer à ces modèles 3D des informations expertes que nous qualifions de sémantique. Les solides morts manipulés sont généralement au format de bas niveau tels que STL, IGES ou STEP AP203. Ils sont utilisés comme données d’entrée pour notre méthodologie et ils peuvent aussi être associés à des données de définition du produit, telles qu’une mise en plan du produit ou des documents. Le traitement des modèles 3D exige une solution qui soit capable de gérer d’une part, les maquettes numériques et les informations qu’elles pourraient éventuellement intégrer et d’autre part, l’incomplétude de certains modèles 3D qui est liée au format 3D ou à la limite de la technologie utilisée pour obtenir le modèle 3D (ex : limite logiciel, format 3D de représentation géométrique uniquement et qui ne supporte pas une représentation de l’arbre de construction ou bien qui ne peut pas représenter graphiquement des dimensions géométriques et des tolérances, etc.). Enfin, la pertinence des informations intégrées au modèle 3D, de nature non géométrique, lors de la phase de recouvrement sémantique devrait permettre, dans certains cas, de produire des modèles 3D paramétrés, propres à l’activité du domaine d’application. L’état de l’art, portant sur la représentation des informations contenues dans un modèle CAO et sur la gestion de ces informations, permet d’identifier les techniques et approches qui aident à l’enrichissement sémantique des modèles 3D à des niveaux de granularités diverses. Cette thèse propose une méthodologie nommée Vaquero For CAD Semantic Enrichment (VFCSE) et qui se décompose en trois étapes : l’accès, l’identification et l’annotation. Le but de cette méthodologie est d’intégrer aux solides morts des informations manquantes et standardisées, de nature non géométrique, comme par exemple des spécifications de produit, des tolérancements, des dimensions géométriques, etc. Ces informations seront issues des besoins de l’utilisateur intervenant sur le modèle 3D et proviendront d’un standard sémantiquement riche afin d’être utiles à de nombreuses opérations liées au cycle de vie du produit. Cet enrichissement grâce à ce standard sémantiquement riche, permettra une pérennisation des informations et une réutilisation efficace des informations du modèle 3D. Pour cela, un modèle 3D est récupéré dans un PDM (Product Data Management) grâce à une requête utilisateur. Il est visualisé dans une visionneuse 3D supportant le format STL, IGES et STEP AP203. Ensuite, suit une étape d’identification des composants du modèle 3D. Ces composants peuvent être des pièces ou des assemblages. Aux composants identifiés, est affectée une annotation métier liée à l’usage, basée sur le format STEP AP242 qui représente le standard sémantiquement riche
The digital transition in the manufacturing industry is characterised by a three or even four-decade liability. Some CAO models or digital mock-ups accumulated du ring this period are frozen, i.e. 3D models without a construction tree, which are characterised by missing geometries, due to software changes or versions of 3D formats that have not been updated Reverse engineering activities of CAO models, aiming at obtaining semantically rich 3D models, i.e. parametric and modifiable, made up of construction operations, carrying attributes and metadata, with geometric ru les and constraints, etc., thanks to the use of engineering tools such as CATIA for example, or by approaches based on point clouds coming from a scan for example. But, this is still not satisfactory, because at the end of the reverse engineering activities, we often obtain a solid with a weak semantic representation or an absent construction tree. This leads us to propose in the framework of this thesis work, a methodology for managing information linked to CAO models in order to integrate expert information that we call semantic into these CAO models. The frozen CAO models handled are usually in low-level formats such as STL, IGES or STEP AP203. They are used as input data for our methodology and they can be associated with product definition data, such as a product drawing or documents. The processing of CAO models requires a solution that is able to_manage the digital models and the information they couId possibly integrate. And also the incompleteness of some CAO models that is linked to the 3D format or to the limit of the technology used to obtain the CAO model (e.g. software li mit, 3D format for geometric representation only and that does not support a representation of the construction tree or that cannot graphically represent geometric dimensions and tolerances, etc.). Finally, the relevance of integrated information into CAO model, of a non-geometric nature, during the semantic overlay phase should make it possible, in certain cases, to produce parameterised CAO models, specific to the activity of the application domain. The state of the art, concerning the information representation contained in CAO model and the management of this information, makes it possible to identify techniques and approaches that help the semantic enrichment of CAO models at various levels of granularity. This thesis proposes a methodology named Vaquero For CAO Semantic Enrichment (VFCSE), which is made of three step access, identification and annotation. The aim of this methodology is to integrate missing and standardised information of a non-geometric nature, such as product specifications, tolerances, geometric dimensions, etc., into frozen CAO models. This information will be derived from user needs working on the CAO model and will corne from a semantically rich standard in order to be useful for many operations related to the product life cycle. The enrichment, thanks to this semantically rich standard, will allow for a perpetuation of the information and an efficient reuse of CAO model information. ln order to do this, a CAO model is retrieved from a PDM (Product Data Management) thanks to a user request. lt is visualised in a CAO viewer supporting STL, IGES and STEP AP203 formats. Then, follows a step of identifying components of CAO model. These components can be parts or assemblies. The identified components are annotated based on the STEP AP242 format, which represents the semantically rich standard. These annotations are stored in a standardised ontology, which serves as a minimal basis for carrying all the semantics to be integrated into the CAO mode in order to make the CAO model durable and reusable. The scientific contribution of this work is mainly based on the possibility of reverse engineering by using ontologies to annotate 3D models, according to user needs who has the CAO model at his disposal
20

Carloni, Olivier. "Introduction de raisonnement dans un outil industriel de gestion des connaissances." Phd thesis, Montpellier 2, 2008. http://www.theses.fr/2008MON20101.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de thèse porte sur la conception d'un service de validation et d'enrichissement d'annotations pour un outil industriel de gestion des connaissances basé sur le langage des Topic Maps (TM). Un tel service nécessitant la mise en oeuvre de raisonnements sur les connaissances, il a été nécessaire de doter le langage des TM d'une sémantique formelle. Ceci a été réalisé par l'intermédiaire d'une transformation réversible des TM vers le formalisme logique des graphes conceptuels qui permet une représentation graphique des connaissances. La solution a été mise en oeuvre dans deux applications, l'une conçue pour la veille médiatique et l'autre pour la promotion de ressources touristiques. Schématiquement, des annotations sont extraites automatiquement des documents selon le domaine concerné (économie ou tourisme) puis ajoutées à la base. Elles sont ensuite fournies au service de validation et d'enrichissement qui les complète de nouvelles connaissances et décide de leur validité
21

Carloni, Olivier. "Introduction de raisonnement dans un outil industriel de gestion des connaissances." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00387017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de thèse présenté dans ce document porte sur la conception d'un service de validation et d'enrichissement d'annotations pour un outil industriel de gestion des connaissances basé sur le langage des Topic Maps (TM). Un tel service nécessitant la mise en oeuvre de raisonnements sur les connaissances, il a été nécessaire de doter le langage des TM d'une sémantique formelle. Ceci a été réalisé par l'intermédiaire d'une transformation réversible des TM vers le formalisme logique des graphes conceptuels qui dispose d'une représentation graphique des connaissances (les TM pouvant facilement en être munie d'une). La solution a été mise en oeuvre dans deux applications, l'une conçue pour la veille médiatique et l'autre pour la promotion de ressources touristiques. Schématiquement, des annotations sont extraites automatiquement des documents selon le domaine concerné (actualité/économie ou tourisme) puis ajoutées à la base de connaissances. Elles sont ensuite fournies au service d'enrichissement et de validation qui les complète de nouvelles connaissances et décide de leur validité, puis retourne à la base de connaissance le résultat de l'enrichissement et de la validation.
22

Sarcevic, Lara. "Aporie du second degré : la forme à la quête d'une nouvelle autonomie : réflexions sur le rôle et le statut de la discursivité théorique dans l'art contemporain de la fin des années soixante à nos jours." Thesis, Lille 3, 2014. http://www.theses.fr/2014LIL30008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Qu’elle soit le fait des artistes, des institutions muséales ou des acteurs économiques, désormais une nouvelle discursivité s’ajoute à la production critique traditionnelle des historiens, théoriciens et philosophes de l’art, et accompagne de manière quasi systématique les propositions plastiques des artistes contemporains. A cet accroissement discursif correspond aussi une démultiplication des fonctions du discours théorique qui se trouve parfois être utilisé comme le matériau plastique même des œuvres. Empreintes d’une plasticité toute singulière, les œuvres contemporaines étendent les possibles, au point de pouvoir se manifester sous n’importe quelle forme, voire de complètement disparaître. Cette extrême diversité résulte de l’adhésion à un nouveau principe artistique, le « second degré », ou l’auto-réflexivité de l’œuvre d’art, qui attribue à l'idée de l’œuvre une importance aussi grande qu'à la formulation matérielle de celle-ci. Ce qui est devenu indéterminé dans la forme plastique semble être compensé, en retour, par l'exigence d'une détermination conceptuelle accrue. Nous nous sommes attachés, dans notre recherche, à mettre en lumière l’origine du primat discursif dans la nouvelle situation paradigmatique des arts plastiques. Ne se limitant pas à la seule logique de médiation et de légitimation sociale des œuvres, la discursivité ouvre aussi un espace créatif et herméneutique nouveau impliquant le discours théorique comme geste créatif complémentaire à la forme plastique
Whether by artists, museums or economic actors, now a new discursivity is added to the traditional critical production of historians, theoreticians and philosophers of art, and accompanies almost systematically the plastics works of contemporary artists. This discursive growth answers also to a proliferation of functions of the theoretical discourse, which is used, in some contemporary artistic practices, as the very plastic material of the work. Marked by a singular plasticity, contemporary art works extend the expressive possibilities to the point that the work can manifest itself in any form, and even completely disappear. This extreme diversity results from the adherence to a new artistic principle, the "second degree", or the self-reflexivity of the artwork, which attributes to the idea of the work, the same importance as its’ very material formulation. What became undetermined in the plastic form seems, in return, to be offset by the requirement for greater conceptual determination. We were committed, in our research, to highlight the origin of this discursive primacy in the new paradigmatic situation of visual arts. Not being limited only to the purpose of mediation and social legitimization of the art works, discursivity opens also a new creative and hermeneutic space, involving theoretical discourse as a creative act complementary to plastic form
23

Benaicha, Mohamed. "Identification des concepts pour la ré-ingénierie des ontologies." Thèse, 2017. http://constellation.uqac.ca/4231/1/Benaicha_uqac_0862N_10328.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des services élémentaires tels que la restructuration (Ang. refactoring), la fusion (Ang.merge), l’extraction de modules (Ang. modularization), etc., sont indispensables pour la mise en oeuvre d’une plateforme de génie ontologique dont l’un des objectifs essentiels est d’assurer la qualité d’une ontologie qui risque de se détériorer avec l’usage. INUKHUK est une plateforme de ré-ingénierie d’ontologies dont les services ci-haut sont basés sur un cadre formel, dit Analyse Relationnelle de Concepts (ARC). L’ARC a le pouvoir de créer de nouvelles abstractions sur n’importe quel type d’éléments ontologiques (concept, propriété, etc.). Ces abstractions factorisent des descriptions communes à plusieurs éléments et peuvent servir à corriger et/ou enrichir l’ontologie de façon à augmenter sa qualité. Toutefois, ces abstractions, qui sont le fruit d’un calcul mathématique, sont dépourvues de toute sémantique et par conséquent nécessitent un effort de conceptualisation afin d’être justifiées et intégrées à une ontologie. Le but de ce travail est de fouiller le bien fondé d’une abstraction et par la suite l’annoter avec un nom (En Anglais label) de concept. Les retombées sont multiples. D’abord, l’ontologie restructurée est beaucoup plus compréhensible par les experts et utilisateurs car l’enrichissement est autant structurel que sémantique. Ensuite, l’application des métriques de qualité basées sur l’analyse du vocabulaire ontologique pour l’estimation de la qualité de l’ontologie restructurée (Ang., refactored) est tout à fait justifiable. Pour ce faire, plusieurs méthodes de fouille ont été envisagées. La première méthode consiste à l’identification d’un nouveau concept ontologique à partir de la description de l’abstraction générée par l’ARC. La deuxième méthode consiste à confronter l’abstraction générée par l’ARC à des ressources linguistiques et/ou ontologiques existantes telles que WORDNET, structure catégorique de WIKIPEDIA, DBPEDIA, etc. Les deux approches ci-haut ont été implémentées au sein d’un outil, dit TOPICMINER, qui fait désormais partie de la plateforme INUKHUK. TOPICMINER a fait l’objet de plusieurs expérimentations et a retourné des résultats satisfaisants selon le protocole de validation mis en place.
24

Boily, Gino. "Identification de transcrits modulés par ETV6 : un gène candidat suppresseur de tumeur." Thèse, 2005. http://hdl.handle.net/1866/15576.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії