Academic literature on the topic 'Ontologie génique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Ontologie génique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Ontologie génique":

1

Raimbault, Benjamin. "Dans l’ombre du génie génétique : le génie métabolique." Natures Sciences Sociétés 29, no. 3 (July 2021): 262–73. http://dx.doi.org/10.1051/nss/2021063.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cet article se propose d’interroger la réduction du processus de molécularisation du vivant à sa dimension informationnelle à partir des années 1970-1980 en réintégrant une ontologie chimique du vivant qui se caractérise par la centralité des questions de production et une grande proximité avec l’industrie. La mise en visibilité et la caractérisation d’une molécularisation chimique du vivant sont enquêtées à partir de la naissance et la stabilisation d’un domaine scientifique peu connu : l’ingénierie métabolique. Pour cela, nous nous appuyons sur un travail associant analyse scientométrique d’un corpus de 6 288 articles scientifiques, traitement d’archives d’un centre de recherche ainsi qu’une série d’entretiens semi-directifs avec plusieurs figures fondatrices de l’ingénierie métabolique.
2

PROLE, DRAGAN. "LAJBNICOVA ONTOLOGIJA POMIRENJA." ARHE 12, no. 23 (June 16, 2016): 9. http://dx.doi.org/10.19090/arhe.2015.23.9-34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
U prvom delu rada autor interpretira Lajbnicovu fi lozofi ju kao pokušaj ponovnog obezbeđivanja naučnih prerogativa za prvu fi lozofi ju. Za razliku od Dekarta fi lozofske stranputice se kod njega ne mogu objašnjavati nekom transcendentnom, natprirodnom intervencijom (malin génie). Naprotiv, Lajbnic jednoznačno pokazuje da za naše greške u mišljenju nije odgovoran upliv natprirodnog nego prevelika bliskost onom prirodnom. U drugom delu, autor tvrdi da je promociju pomirenja kao središnje fi lozofske delatnosti Lajbnic proveo u delo polazeći od pretpostavke da su protivrečnosti rasute po fi lozofskoj tradiciji tek prividne. Svako partikularno stanovište može da zadobije svoje pravo važenje jedino ukoliko na izvestan način bude dovedeno u vezu sa ostalim stanovištima, uključujući i one koji mu izrekom oponiraju. Uspostavljanje takve veze Lajbnic poima kao pomirenje.

Dissertations / Theses on the topic "Ontologie génique":

1

Bedhiafi, Walid. "Sciences de l'information pour l'étude des systèmes biologiques (exemple du vieillissement du système immunitaire)." Electronic Thesis or Diss., Paris 6, 2017. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2017PA066139.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le laboratoire i3 et le laboratoire LGIPH, utilisent des approches à haut débit pour l’étude du système immunitaire et ces disfonctionnements. Des limites ont été observées quant à l’utilisation des approches classiques pour l’annotation des signatures d’expression des gènes. L’objectif principal a été de développer une approche d’annotation pour répondre à ce besoin. L’approche que nous avons développée est une approche basée sur la contextualisation des gènes et de leurs produits puis sur la modélisation des voies biologiques pour la production de bases de connaissances pour l’étude de l’expression des gènes. Nous définissons ici un contexte d’expression des gènes comme suit : population cellulaire+compartiment anatomique+état pathologique. Pour connaitre ces contextes, nous avons opté pour la fouille de la littérature et nous avons développé un package Python, qui permet d’annoter les textes automatiquement en fonction de trois ontologies choisies en fonction de notre définition du contexte. Nous montrons ici que notre package a des performances meilleures que un outil de référence. Nous avons l’avons utilisé pour le criblage d’un corpus sur le vieillissement du système immunitaire dont on présente ici les résultats. Pour la modélisation des voies biologiques nous avons développé en collaboration avec le LIPAH une méthode de modélisation basée sur un algorithme génétique qui permet de combiner les résultats de mesure de la proximité sémantique sur la base des annotations des gènes et les données d’interactions. Nous avons réussis retrouver des réseaux de références avec un taux d’erreur de 0,47
High-throughput experimental approaches for gene expression study involve several processing steps for the quantification, the annotation and interpretation of the results. The i3 lab and the LGIPH, applies these approaches in various experimental setups. However, limitations have been observed when using conventional approaches for annotating gene expression signatures. The main objective of this thesis was to develop an alternative annotation approach to overcome this problem. The approach we have developed is based on the contextualization of genes and their products, and then biological pathways modeling to produce a knowledge base for the study of gene expression. We define a gene expression context as follows: cell population+ anatomical compartment+ pathological condition. For the production of gene contexts, we have opted for the massive screening of literature. We have developed a Python package, which allows annotating the texts according to three ontologies chosen according to our definition of the context. We show here that it ensures better performance for text annotation the reference tool. We used our package to screen an aging immune system text corpus. The results are presented here. To model the biological pathways we have developed, in collaboration with the LIPAH lab a modeling method based on a genetic algorithm that allows combining the results semantics proximity using the Biological Process ontology and the interactions data from db-string. We were able to find networks with an error rate of 0.47
2

Bedhiafi, Walid. "Sciences de l'information pour l'étude des systèmes biologiques (exemple du vieillissement du système immunitaire)." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066139/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le laboratoire i3 et le laboratoire LGIPH, utilisent des approches à haut débit pour l’étude du système immunitaire et ces disfonctionnements. Des limites ont été observées quant à l’utilisation des approches classiques pour l’annotation des signatures d’expression des gènes. L’objectif principal a été de développer une approche d’annotation pour répondre à ce besoin. L’approche que nous avons développée est une approche basée sur la contextualisation des gènes et de leurs produits puis sur la modélisation des voies biologiques pour la production de bases de connaissances pour l’étude de l’expression des gènes. Nous définissons ici un contexte d’expression des gènes comme suit : population cellulaire+compartiment anatomique+état pathologique. Pour connaitre ces contextes, nous avons opté pour la fouille de la littérature et nous avons développé un package Python, qui permet d’annoter les textes automatiquement en fonction de trois ontologies choisies en fonction de notre définition du contexte. Nous montrons ici que notre package a des performances meilleures que un outil de référence. Nous avons l’avons utilisé pour le criblage d’un corpus sur le vieillissement du système immunitaire dont on présente ici les résultats. Pour la modélisation des voies biologiques nous avons développé en collaboration avec le LIPAH une méthode de modélisation basée sur un algorithme génétique qui permet de combiner les résultats de mesure de la proximité sémantique sur la base des annotations des gènes et les données d’interactions. Nous avons réussis retrouver des réseaux de références avec un taux d’erreur de 0,47
High-throughput experimental approaches for gene expression study involve several processing steps for the quantification, the annotation and interpretation of the results. The i3 lab and the LGIPH, applies these approaches in various experimental setups. However, limitations have been observed when using conventional approaches for annotating gene expression signatures. The main objective of this thesis was to develop an alternative annotation approach to overcome this problem. The approach we have developed is based on the contextualization of genes and their products, and then biological pathways modeling to produce a knowledge base for the study of gene expression. We define a gene expression context as follows: cell population+ anatomical compartment+ pathological condition. For the production of gene contexts, we have opted for the massive screening of literature. We have developed a Python package, which allows annotating the texts according to three ontologies chosen according to our definition of the context. We show here that it ensures better performance for text annotation the reference tool. We used our package to screen an aging immune system text corpus. The results are presented here. To model the biological pathways we have developed, in collaboration with the LIPAH lab a modeling method based on a genetic algorithm that allows combining the results semantics proximity using the Biological Process ontology and the interactions data from db-string. We were able to find networks with an error rate of 0.47
3

Garcia, del Rio Diego Fernando. "Studying protein complexes for assessing the function of ghost proteins (Ghost in the Cell)." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. https://pepite-depot.univ-lille.fr/ToutIDP/EDBSL/2023/2023ULILS115.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le cancer de l'ovaire (OvCa) est le cancer le plus mortel parmi les cancers féminins. Il est souvent diagnostiqué tardivement ou mal diagnostiqué, ce qui le rend difficile à traiter. Les options de traitement incluent la chirurgie ou la chimiothérapie, toutefois la résistance à la chimiothérapie est un problème majeur. Il est donc urgent de trouver de nouvelles cibles et de développer de nouvelles stratégies pour surmonter cette résistance.Dans ce contexte le protéome fantôme est une source potentiellement riche de biomarqueurs. Le protéome fantôme, ou protéome alternatif, est composé de protéines traduites à partir de cadres de lecture ouverts alternatifs (AltORFs). Ces AltORFs proviennent de différents codons START issus de différente région de l'ARNm, tels qu'un décalage de cadre de lecture (+1, +2) dans la séquence codante de l'ADN (CDS), dans le 5'-UTR, 3'-UTR et éventuellement de la traduction d'ARN non codants (ncRNA).Les études sur les protéines alternatives (AltProts) sont souvent complexes et nécessite des études biomoléculaires coûteuses. Cependant, leurs fonctions peuvent être déduites en identifiant leurs partenaires d'interaction, la détection des interactions protéine-protéine (PPI) entre AltProts et protéines de référence (RefProts) peut aider à identifier leur fonction. La stratégie de pontage chimique (crosslink) combiné à la spectrométrie de masse (XL-MS) est un outil approprié à cet objectif. De plus, les outils bioinformatiques qui relient les informations fonctionnelles des RefProt et les analyses d'ontologie génique (GO) permettent la visualisation des voies de signalisation et le regroupement des RefProts en fonction de leur processus biologique, de leur fonction moléculaire ou de leur localisation cellulaire, et ainsi y placer certaine AltProt.Dans ce travail, nous avons développé une méthodologie combinant XL-MS et le fractionnement subcellulaire. L'étape de fractionnement subcellulaire nous a permis de réduire la complexité des échantillons analysés par chromatographie liquide et spectrométrie de masse (LC-HRMS/MS). Pour évaluer la validité des interactions, nous avons réalisé une modélisation moléculaire des structures 3D des AltProts, suivie d'une prédiction informatique de l'interaction et de mesure des distances de pontages identifiés expérimentalement. L'analyse a révélé des rôles d'AltProts dans les fonctions et les processus biologiques tel que la réparation de l'ADN ou encore la présentation d'antigène.La protéogénomique a été utilisée pour générer des bases de données protéiques personnalisées à partir des données de séquençage ARN afin d'étudier les protéomes de deux lignées cellulaires de cancer de l'ovaire (PEO-4 et SKOV-3) en comparaison avec une lignée cellulaire ovarienne normale (T1074). L'expression différentielle de plusieurs protéines a ainsi été identifiée entre les lignées cellulaires cancéreuses et normales, avec une association aux voies de signalisation connues pour le cancer. Des PPI ont également été identifiées dans les lignées cellulaires cancéreuses en utilisant la méthodologie XL-MS.Ce travail met en évidence le potentiel de l'approche protéogénomique pour découvrir de nouveaux aspects de la biologie du cancer de l'ovaire. Il nous permet d'identifier des protéines et des variants auparavant inconnus qui peuvent avoir une signification fonctionnelle. L'utilisation de bases de données protéiques personnalisées et de l'approche de réticulation a mis en lumière le "protéome fantôme", une vision du protéome restée inexplorée jusqu'à présent
Ovarian cancer (OvCa) has the highest mortality rate among female reproductive cancers worldwide. OvCa is often referred to as a stealth killer because it is commonly diagnosed late or misdiagnosed. Once diagnosed, OvCa treatment options include surgery or chemotherapy. However, chemotherapy resistance is a significant obstacle. Therefore, there is an urgent need to identify new targets and develop novel therapeutic strategies to overcome therapy resistance.In this context the ghost proteome is a potentially rich source of biomarkers. The ghost proteome, also known as the alternative proteome, consists of proteins translated from alternative open reading frames (AltORFs). These AltORFs originate from different start codons within mRNA molecules, such as the coding DNA sequence (CDS) in frameshifts (+1, +2), the 5'-UTR, 3'-UTR, and possible translation products from non-coding RNAs (ncRNA).Studies on alternative proteins (AltProts) are often limited due to their case-by-case occurrence and complexity. Obtaining functional protein information for AltProts requires complex and costly biomolecular studies. However, their functions can be inferred by profiling their interaction partners, known as "guilty by association" approaches. Indeed, assessing AltProts' protein-protein interactions (PPIs) with reference proteins (RefProts) can help identify their function and set them as research targets. Since there is a lack of antibodies against AltProts, crosslinking mass spectrometry (XL-MS) is an appropriate tool for this task. Additionally, bioinformatic tools that link protein functional information through networks and gene ontology (GO) analysis are also powerful. These tools enable the visualization of signaling pathways and the grouping of RefProts based on their biological process, molecular function, or cellular localization, thus enhancing our understanding of cellular mechanisms.In this work, we developed a methodology that combines XL-MS and subcellular fractionation. The key step of subcellular fractionation allowed us to reduce the complexity of the samples analyzed by liquid chromatography tandem mass spectrometry (LC-MS/MS). To assess the validity of crosslinked interactions, we performed molecular modeling of the 3D structures of the AltProts, followed by docking studies and measurement of the corresponding crosslink distances. Network analysis indicated potential roles for AltProts in biological functions and processes. The advantages of this workflow include non-targeted AltProt identification and subcellular identification.Additionally, a proteogenomic analysis was performed to investigate the proteomes of two ovarian cancer cell lines (PEO-4 and SKOV-3 cells) in comparison to a normal ovarian epithelial cell line (T1074 cell). Using RNA-seq data, customized protein databases for each cell line were generated. Differential expression of several proteins, including AltProts, was identified between the cancer and normal cell lines. The expression of some RefProts and their transcripts were associated with cancer-related pathways. Moreover, the XL-MS methodology described above was used to identify PPIs in the cancerous cell lines.This work highlights the significant potential of proteogenomics in uncovering new aspects of ovarian cancer biology. It enables us to identify previously unknown proteins and variants that may have functional significance. The use of customized protein databases and the crosslinking approach have shed light on the "ghost proteome," an area that has remained unexplored until now
4

Lalloz, Jean-Pierre. "Genie et verite. Ontologie de la verite et metaphysique des createurs." Lille 3, 1991. http://www.theses.fr/1991LIL30004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Toute pratique et toute theorie suppose une conception implicite de la verite, qu'il faut interroger non pas simplement sur son existence a cause du caractere juridique de sa notion, mais sur l'invention de son essence, et la legitimite de cette invention. Ce qui definit le genie. La question de la verite se confond donc avec celle de la genialite non pas comme realite positive, psychologique ou existentielle, mais comme necessite juridique. Apres une introduction qui pose la necessite pour la philosophie d'inventer la definition de la verite dont elle sera l'explicitation et par consequent d'etre elle-meme geniale, ainsi que son histoire en est l'attestation, on aborde la question de la nature du vrai a travers celle de la realite geniale, l'oeuvre. Celle-ci est interrogee quant a la vanite mondaine qu'elle suppose et a la legitimite a exister dont elle est l'institution. Le probleme du genie est ensuite de concilier la realite purement juridique de sa notion avec le caractere strictement ontologique du vrai, par definition substantiel. La seconde partie est consacree au developpement du savoir qui se trouve necessairement implique dans la genialite : le createur genial doit forcement posseder la reponse aux questions les plus fondamentales de l'ontologie et de la metaphysique. On precise chacune de ces questions, et on degage la reponse impliquee par la notion d'un enonciateur "absolument legitime". La conclusion porte sur la notion de personne, sujet de droit et non de fait, comme entierement constituee de la supposition "inconsciente" du vrai
Every practice and every theory suppose an implicite conception of trhuth which must be questionned not simply about his existence because of the juridical nature of this notion, but about the invention of its essence and the legityimacy of this invention. That gives a definition of the genius therefore the questions of truth and geniusity meet to gether, not as a positive reality but as a juridical necessity after the introduction which states the necessity for philosophy to create a definition of truth of which it will be the explication and therefore to be itself of genius, as tis history attests it, will be study the question of the nature of what is true by the creativity of genius, the works. These ones will be questionned about the worldly vanity they assume and about the legitimacy of its existence, the institution of which it is the next problem of the genius is to reconcile juridical relaity of its notion with the ontological nature of truth which is by definition substancial. The second part will be denoted to the development of knowledge which is necessasity involved geniusity the creator of genius must own the answer to the most fundamental questions of ontology and metaphysics we will clarify each question and we will bring out the answer involved by the notion of an absolutly legitimale speaker. The conclusion is about the notion of the person, subject of right and not of fact, as completely made of the "subconsqcious" supposition of what is truen and leads to a "psychianalysis of right"
5

Benabderrahmane, Sidahmed. "Prise en compte des connaissances du domaine dans l'analyse transcriptomique : Similarité sémantique, classification fonctionnelle et profils flous : application au cancer colorectal." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00653169.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'analyse bioinformatique des données de transcriptomique a pour but d'identifier les gènes qui présentent des variations d'expression entre différentes situations, par exemple entre des échantillons de tissu sain et de tissu malade et de caractériser ces gènes à partir de leurs annotations fonctionnelles. Dans ce travail de thèse, je propose quatre contributions pour la prise en compte des connaissances du domaine dans ces méthodes. Tout d'abord je définis une nouvelle mesure de similarité sémantique et fonctionnelle (IntelliGO) entre les gènes, qui exploite au mieux les annotations fonctionnelles issues de l'ontologie GO ('Gene Ontology'). Je montre ensuite, grâce à une méthodologie d'évaluation rigoureuse, que la mesure IntelliGO est performante pour la classification fonctionnelle des gènes. En troisième contribution je propose une approche différentielle avec affectation floue pour la construction de profils d'expression différentielle (PED). Je définis alors un algorithme d'analyse de recouvrement entre classes fonctionnelles et ensemble des références, ici les PEDs, pour mettre en évidence des gènes ayant à la fois les mêmes variations d'expression et des annotations fonctionnelles similaires. Cette méthode est appliquée à des données expérimentales produites à partir d'échantillons de tissus sains, de tumeur colo-rectale et de lignée cellulaire cancéreuse. Finalement, la mesure de similarité IntelliGO est généralisée à d'autres vocabulaires structurés en graphe acyclique dirigé et enraciné (rDAG) comme l'est l'ontologie GO, avec un exemple d'application concernant la réduction sémantique d'attributs avant la fouille.
6

Laadhar, Amir. "Local matching learning of large scale biomedical ontologies." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30126.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les larges ontologies biomédicales décrivent généralement le même domaine d'intérêt, mais en utilisant des modèles de modélisation et des vocabulaires différents. Aligner ces ontologies qui sont complexes et hétérogènes est une tâche fastidieuse. Les systèmes de matching doivent fournir des résultats de haute qualité en tenant compte de la grande taille de ces ressources. Les systèmes de matching d'ontologies doivent résoudre deux problèmes: (i) intégrer la grande taille d'ontologies, (ii) automatiser le processus d'alignement. Le matching d'ontologies est une tâche difficile en raison de la large taille des ontologies. Les systèmes de matching d'ontologies combinent différents types de matcher pour résoudre ces problèmes. Les principaux problèmes de l'alignement de larges ontologies biomédicales sont: l'hétérogénéité conceptuelle, l'espace de recherche élevé et la qualité réduite des alignements résultants. Les systèmes d'alignement d'ontologies combinent différents matchers afin de réduire l'hétérogénéité. Cette combinaison devrait définir le choix des matchers à combiner et le poids. Différents matchers traitent différents types d'hétérogénéité. Par conséquent, le paramétrage d'un matcher devrait être automatisé par les systèmes d'alignement d'ontologies afin d'obtenir une bonne qualité de correspondance. Nous avons proposé une approche appele "local matching learning" pour faire face à la fois à la grande taille des ontologies et au problème de l'automatisation. Nous divisons un gros problème d'alignement en un ensemble de problèmes d'alignement locaux plus petits. Chaque problème d'alignement local est indépendamment aligné par une approche d'apprentissage automatique. Nous réduisons l'énorme espace de recherche en un ensemble de taches de recherche de corresondances locales plus petites. Nous pouvons aligner efficacement chaque tache de recherche de corresondances locale pour obtenir une meilleure qualité de correspondance. Notre approche de partitionnement se base sur une nouvelle stratégie à découpes multiples générant des partitions non volumineuses et non isolées. Par conséquence, nous pouvons surmonter le problème de l'hétérogénéité conceptuelle. Le nouvel algorithme de partitionnement est basé sur le clustering hiérarchique par agglomération (CHA). Cette approche génère un ensemble de tâches de correspondance locale avec un taux de couverture suffisant avec aucune partition isolée. Chaque tâche d'alignement local est automatiquement alignée en se basant sur les techniques d'apprentissage automatique. Un classificateur local aligne une seule tâche d'alignement local. Les classificateurs locaux sont basés sur des features élémentaires et structurelles. L'attribut class de chaque set de donne d'apprentissage " training set" est automatiquement étiqueté à l'aide d'une base de connaissances externe. Nous avons appliqué une technique de sélection de features pour chaque classificateur local afin de sélectionner les matchers appropriés pour chaque tâche d'alignement local. Cette approche réduit la complexité d'alignement et augmente la précision globale par rapport aux méthodes d'apprentissage traditionnelles. Nous avons prouvé que l'approche de partitionnement est meilleure que les approches actuelles en terme de précision, de taux de couverture et d'absence de partitions isolées. Nous avons évalué l'approche d'apprentissage d'alignement local à l'aide de diverses expériences basées sur des jeux de données d'OAEI 2018. Nous avons déduit qu'il est avantageux de diviser une grande tâche d'alignement d'ontologies en un ensemble de tâches d'alignement locaux. L'espace de recherche est réduit, ce qui réduit le nombre de faux négatifs et de faux positifs. L'application de techniques de sélection de caractéristiques à chaque classificateur local augmente la valeur de rappel pour chaque tâche d'alignement local
Although a considerable body of research work has addressed the problem of ontology matching, few studies have tackled the large ontologies used in the biomedical domain. We introduce a fully automated local matching learning approach that breaks down a large ontology matching task into a set of independent local sub-matching tasks. This approach integrates a novel partitioning algorithm as well as a set of matching learning techniques. The partitioning method is based on hierarchical clustering and does not generate isolated partitions. The matching learning approach employs different techniques: (i) local matching tasks are independently and automatically aligned using their local classifiers, which are based on local training sets built from element level and structure level features, (ii) resampling techniques are used to balance each local training set, and (iii) feature selection techniques are used to automatically select the appropriate tuning parameters for each local matching context. Our local matching learning approach generates a set of combined alignments from each local matching task, and experiments show that a multiple local classifier approach outperforms conventional, state-of-the-art approaches: these use a single classifier for the whole ontology matching task. In addition, focusing on context-aware local training sets based on local feature selection and resampling techniques significantly enhances the obtained results
7

Fortineau, Virginie. "Contribution à une modélisation ontologique des informations tout au long du cycle de vie du produit." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-01064598.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de recherche de cette thèse portent sur la modélisation sémantique des informations industrielles, dans une approche og cycle de vie fg , de gestion des informations. Dans ce type d'approche, lever le verrou lié à l'interopérabilité des modèles d'information est une condition sine qua non à un échange d'information sans perte de flux sémantique. Jusqu'alors, des méthodes d'unification étaient envisagées, reposant sur l'utilisation mutuelle de modèles standards, tels que la norme STEP par exemple. Cependant, l'unification fait face à des limites en termes d'expressivité des modèles, de rigidité, et de perte de sémantique. Afin de lever ces limites, les paradigmes de modélisation évoluent et se tournent vers les ontologies d'inférence, outils du web sémantique.Dans cette thèse, nous proposons un cadre de modélisation sémantique général et une méthodologie de mise en place de ce cadre, qui reposent sur l'utilisation d'ontologies d'inférence. L'application du cadre de modélisation à un cas d'étude industriel, issu de l'ingénierie nucléaire (plus particulièrement l'expression et l'exécution des règles métier), permet alors d'évaluer les apports et limites des ontologies en tant que paradigme de modélisation. Les limites les plus importantes que nous identifions sur l'Open World Assumption, le manque de langage de règles performant et le manque d'outils d'implémentation robustes pour des applications à large échelle. Le développement d'un démonstrateur pour le cas d'étude industriel permet finalement de tendre vers une solution mixte, où les ontologies sont utilisées localement, afin d'en exploiter les divers avantages de manière optimale.
8

Pham, Tuan Anh. "OntoApp : une approche déclarative pour la simulation du fonctionnement d’un logiciel dès une étape précoce du cycle de vie de développement." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4075/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions plusieurs modèles de collaboration entre l’ingénierie logiciel et le web sémantique. À partir de l’état de l’art, nous proposons une approche d’utilisation de l’ontologie dans la couche de métier d’une application. L’objectif principal de notre travail est de fournir au développeur des outils pour concevoir la matière déclarative une couche de métier "exécutable" d’une application afin de simuler son fonctionnement et de montrer ainsi la conformité de l’application par rapport aux exigences du client au début du cycle de vie du logiciel. Un autre avantage de cette approche est de permettre au développeur de partager et de réutiliser la description de la couche de métier d’une application dans un domaine en utilisant l’ontologie. Celle-ci est appelée "patron d’application". La réutilisation de la description de la couche de métier d’une application est un aspect intéressant à l'ingénier logiciel. C’est le point-clé que nous voulons considérer dans cette thèse. Dans la première partie de notre travail, nous traitons la modélisation de la couche de métier. Nous présentons d’abord une approche fondée sur l’ontologie pour représenter les processus de métiers et les règles de métiers et nous montrons comment vérifier la cohérence du processus et de l’ensemble des règles de métier. Puis, nous présentons le mécanisme de vérification automatique de la conformité d’un processus de métier avec un ensemble de règles de métier. La deuxième partie de cette thèse est consacrée à définir une méthodologie, dite de personnalisation, de création une application à partir d'un "patron d’application". Cette méthode permettra à l'utilisateur d'utiliser un patron d'application pour créer sa propre application en évitant les erreurs de structures et les erreurs sémantiques. Nous introduisons à la fin de cette partie, la description d’une plateforme expérimentale permettant d’illustrer la faisabilité des mécanismes proposés dans cette thèse. Cette plateforme est réalisée sur un SGBD relationnel
In this thesis, we study several models of collaboration between Software Engineering and Semantic Web. From the state of the art, we propose an approach to the use of ontology in the business application layer. The main objective of our work is to provide the developer with the tools to design, in the declarative manner, a business "executable" layer of an application in order to simulate its operation and thus show the compliance of the application with the customer requirements defined at the beginning of the software life cycle. On the other hand, another advantage of this approach is to allow the developer to share and reuse the business layer description of a typical application in a domain using ontology. This typical application description is called "Application Template". The reuse of the business layer description of an application is an interesting aspect of software engineering. That is the key point we want to consider in this thesis. In the first part of this thesis, we deal with the modeling of the business layer. We first present an ontology-based approach to represent business process and the business rules and show how to verify the consistency of business process and the set of business rules. Then, we present an automatic check mechanism of compliance of business process with a set of business rules. The second part of this thesis is devoted to define a methodology, called personalization, of creating of an application from an "Application Template". This methodology will allow the user to use an Application Template to create his own application by avoiding deadlock and semantic errors. We introduce at the end of this part the description of an experimental platform to illustrate the feasibility of the mechanisms proposed in the thesis. This platform s carried out on a relational DBMS.Finally, we present, in a final chapter, the conclusion, the perspective and other annexed works developed during this thesis
9

Benabderrahmane, Sidahmed. "Prise en compte des connaissances du domaine dans l'analyse transcriptomique : Similarité sémantique, classification fonctionnelle et profils flous : application au cancer colorectal." Electronic Thesis or Diss., Nancy 1, 2011. http://www.theses.fr/2011NAN10097.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'analyse bioinformatique des données de transcriptomique a pour but d'identifier les gènes qui présentent des variations d'expression entre différentes situations, par exemple entre des échantillons de tissu sain et de tissu malade et de caractériser ces gènes à partir de leurs annotations fonctionnelles. Dans ce travail de thèse, je propose quatre contributions pour la prise en compte des connaissances du domaine dans ces méthodes. Tout d'abord je définis une nouvelle mesure de similarité sémantique et fonctionnelle (IntelliGO) entre les gènes, qui exploite au mieux les annotations fonctionnelles issues de l'ontologie GO ('Gene Ontology'). Je montre ensuite, grâce à une méthodologie d'évaluation rigoureuse, que la mesure IntelliGO est performante pour la classification fonctionnelle des gènes. En troisième contribution je propose une approche différentielle avec affectation floue pour la construction de profils d'expression différentielle (PED). Je définis alors un algorithme d'analyse de recouvrement entre classes fonctionnelles et ensemble des références, ici les PEDs, pour mettre en évidence des gènes ayant à la fois les mêmes variations d'expression et des annotations fonctionnelles similaires. Cette méthode est appliquée à des données expérimentales produites à partir d'échantillons de tissus sains, de tumeur colo-rectale et de lignée cellulaire cancéreuse. Finalement, la mesure de similarité IntelliGO est généralisée à d'autres vocabulaires structurés en graphe acyclique dirigé et enraciné (rDAG) comme l'est l'ontologie GO, avec un exemple d'application concernant la réduction sémantique d'attributs avant la fouille
Bioinformatic analyses of transcriptomic data aims to identify genes with variations in their expression level in different tissue samples, for example tissues from healthy versus seek patients, and to characterize these genes on the basis of their functional annotation. In this thesis, I present four contributions for taking into account domain knowledge in these methods. Firstly, I define a new semantic and functional similarity measure which optimally exploits functional annotations from Gene Ontology (GO). Then, I show, thanks to a rigorous evaluation method, that this measure is efficient for the functional classification of genes. In the third contribution, I propose a differential approach with fuzzy assignment for building differential expression profiles (DEPs). I define an algorithm for analyzing overlaps between functional clusters and reference sets such as DEPs here, in order to point out genes that have both similar functional annotation and similar variations in expression. This method is applied to experimental data produced from samples of healthy tissue, colorectal tumor and cancerous cultured cell line. Finally the similarity measure IntelliGO is generalized to another structured vocabulary organized as GO as a rooted directed acyclic graph, with an application concerning the semantic reduction of attributes before mining
10

Perry, Nicolas. "INDUSTRIALISATION DES CONNAISSANCES : APPROCHES D'INTEGRATION POUR UNE UTILISATION OPTIMALE EN INGENIERIE (CAS DE L'EVALUATION ECONOMIQUE)." Habilitation à diriger des recherches, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00204563.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif du Génie Industriel est d'améliorer les performances industrielles. Ce champ très large est abordé dans notre équipe par le développement d'outils et de méthodes basés sur l'utilisation d'environnements d'ingénierie virtuelle. Ces derniers sont conçus pour assister, accélérer et donc améliorer les démarches d'ingénierie liées à la conception et la réalisation de produits, mais aussi la gestion des projets associés.
Nous développons ainsi des environnements que nous voulons interactifs, pour l'aide à la prise de décision (SIAD).
Dès lors, et indépendamment du domaine abordé, la connaissance des experts d'un métier devient une ressource que l'on voudrait partager au maximum, voir faire fonctionner de manières semi-automatiques. Or ces connaissances sont immatérielles, souvent non formalisées et échangées au travers de flux d'informations dont la quantité, la qualité et la véracité ne sont pas toujours assurées ou certifiées.
Il importe donc de s'intéresser aux approches de gestion des connaissances ou Knowledge Management, pour spécifier des environnements virtuels les plus riches possibles (sémantiquement parlant) dans lesquels on peut espérer intégrer une partie des connaissances d'experts. Certaines actions d'ingénierie, dont les processus et les règles ont été formalisés puis modélisés, sont alors partiellement automatisables, laissant la place à l'utilisateur pour décider dans des situations non gérées par l'expertise automatique, de critiquer, révoquer ou faire évoluer les choix et alternatives proposées.
Un pan important des études et recherches faites dans les domaines des sciences de l'information et de la communication font la part belle à l'intelligence artificielle. Mais les domaines d'application restent souvent très loin des cas d'utilisation ou d'application d'ingénierie (ingénierie mécanique en particulier).
Il nous importe donc de nous imprégner des approches, méthodes et outils existants pour nous les approprier tout en les faisant évoluer pour les adapter à nos besoins. Il faut donc pouvoir maîtriser ces méthodes et leurs solutions techniques pour pouvoir être porteur d'évolutions et requêtes et attirer ces thématiques de recherches vers nos problématiques.
En conséquences, mes travaux se sont inscrits dans cette démarche d'appropriation des approches de gestion et d'automatisation des connaissances qui relève d'une thématique d'ingénierie des connaissances. Nous avons donc cherché à développer des environnements à base de connaissances supportant les démarches d'ingénierie.
Cette position (ingénieur des connaissances) se place en interface entre l'expert (réceptacle et source des connaissances à partager), l'informaticien (qui va développer l'environnement virtuel à base de connaissances) et l'utilisateur (qui va utiliser et faire vivre l'outil).
Dès lors différents points de vue se confrontent, et il devient tout aussi important de maîtriser les aspects techniques (méthodes et solutions existantes pour formaliser et modéliser des connaissances, développer les applications, valider l'intégrité et la cohérence des éléments intégrés et à intégrer, faire vivre les bases de connaissances, etc...) que les aspects de gestion de projet, puisqu'il reste très difficile d'évaluer le retour sur investissement direct de tels projets. Un échec conduisant généralement à l'abandon de ce type d'approches, longues, lourdes et souvent opaques pour l'expert ou l'utilisateur.
Cette première partie de mes activités de recherches a donc participé à l'enrichissement d'aspects de modélisation (d'objets d'entreprise : information, connaissances ...), de structuration de ces modèles (méthode de modélisation) et d'intégration dans le cycle de développement d'applications informatiques.
En analysant les démarches d'ingénierie en mécanique (au sens large), il est ressorti que nous continuons à approfondir et affiner des modèles et calculs sur les solutions techniques qui répondent à des fonctions et des besoins clients. Cependant, le critère de coût ou de valeur reste très peu évalué ou abordé. Or, dans le contexte mondial et concurrentiel actuel il importe d'assurer l'équilibre entre les fonctions techniques et économiques des produits qui sont devenus de plus en plus complexes.
Ainsi nous essayons d'aborder la performance au travers des aspects économiques le long du cycle de vie du produit. Ceci nous donne un domaine d'application de nos travaux sur l'intégration et la mise à disposition d'expertise(s) issue(s) des sciences économiques et de gestion dans les démarches d'ingénierie.
Ces travaux ont initialement abordé l'adéquation entre les outils et méthodes d'évaluation économique au regard du cycle de vie produit. Les problèmes d'information partielle ou de passage de modèles se posent alors à chaque étape charnière.
De plus, nos réflexions et échanges avec les chercheurs en sciences de gestion nous ont porté vers la prise en compte du concept de valeur englobant le coût. Il est ainsi possible d'évaluer les alternatives de chaînes de valeurs et d'envisager d'aborder la conception conjointe de produits et de processus à valeur ajoutée maîtrisée. Ainsi l'environnement d'aide à la décision complète les contextes de décisions en intégrant les différents points de vus d'acteurs et leurs visions sur la valeur à prendre en compte.
L'ensemble de ces travaux et réflexions m'ont conduit au néologisme d'Industrialisation des Connaissances, au sens de la mise à disposition fiable, évolutive et objectivée, des connaissances d'experts d'entreprise. Ces travaux ont été alimentés par 4 thèses soutenues (une en cours), 7 DEA et Masters, des implications dans un Réseau Thématique du FP5 et deux Réseaux d'Excellence du FP6, ainsi qu'une collaboration soutenue depuis 2003 avec une équipe de recherche Sud Africaine.

Books on the topic "Ontologie génique":

1

(Editor), Coral Calero, Francisco Ruiz (Editor), and Mario Piattini (Editor), eds. Ontologies for Software Engineering and Software Technology. Springer, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography