Tesi sul tema "Approche orientée sur les données"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Approche orientée sur les données.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Approche orientée sur les données".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Ait, Lahcen Ayoub. "Développement d'Applications à Base de Composants avec une Approche Centrée sur les Données et dans une Architecture Orientée Service et Pair-à-Pair : Spécification, Analyse et Intergiciel". Phd thesis, Université Nice Sophia Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00766329.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le développement d'applications avec une architecture Pair-à-Pair (P2P) est devenu de plus en plus important en ingénierie du logiciel. Aujourd'hui, un grand nombre d'organisations de tailles et secteurs différents compte d'une manière croissante sur la collaboration entre multiples acteurs (individus, groupes, communautés, etc.) pour accomplir des tâches essentielles. Ces applications P2P ont généralement un comportement récursif que plusieurs approches de modélisation ne peuvent pas décrire et analyser (ex. les approches basées sur les automates à états finis). Un autre challenge qui concerne le développement d'applications P2P est le couplage fort entre la spécification d'une part, et les technologies et protocoles sous-jacents d'autre part. Cela force les développeurs à faire des efforts considérables pour trouver puis comprendre des informations sur les détails de ces couches basses du P2P. De plus, ce couplage fort oblige les applications à s'exécuter dans des environnements figés. Par conséquent, choisir par exemple un autre protocole pour répondre à un nouveau besoin à l'exécution devient une tache très difficile. Outre ces points, les applications P2P sont souvent spécifiées avec une faible capacité à déléguer des traitements entre les pairs, et se focalisent surtout sur le partage et le stockage de données. Ainsi, elles ne profitent pas pleinement de la puissance de calcul et de traitement offerte par le réseau P2P sous-jacent. Dans cette thèse, nous présentons une approche qui combine les principes du développement orienté composants et services avec des techniques issues des Grammaires Attribuées et d'analyses de flot de données (techniques utilisées surtout dans la construction de compilateurs) afin de faciliter la spécification, l'analyse et le déploiement d'applications dans des architectures P2P. Cette approche incorpore: i) Un langage formel nommé DDF (de l'anglais Data-Dependency Formalism) pour spécifier les applications et construire leurs graphes de dépendances de données. Un graphe de dépendances de données est nommé DDG (de l'anglais Data-Dependency Graph) et est défini pour être une représentation abstraite de l'application spécifiée. ii) Une méthode d'analyse qui utilise le graphe de dépendances de données pour inférer et calculer diverses propriétés, y compris certaines propriétés que les model-checkers ne peuvent pas calculer si le système présente un comportement récursif. iii) Un intergiciel nommé SON (de l'anglais Shared data Overlay Network) afin de développer et d'exécuter des applications dans une architecture P2P sans faire face à la complexité des couches sous-jacentes. Cela grâce essentiellement au couplage faible (par une approche orientée services) et à la fonctionnalité de génération de code automatique.
2

Lecler, Philippe. "Une approche de la programmation des systèmes distribués fondée sur la fragmentation des données et des calculs et sa mise en oeuvre dans le système GOTHIC". Rennes 1, 1989. http://www.theses.fr/1989REN10103.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Presentation du langage polygoth. Les concepts d'objet fragmente et de multiprocedure, qui permettent d'exprimer la repartition des donnees et des calculs, sont etudies. Une partie est consacree a l'expression du paprallelisme dans les langages et plus particulierement dans les langages orientes objet. La dualite objet-processus est abordee. La semantique operationnelle de l'appel de multiprocedure est presentee
3

Meziane, Madjid. "Développement d'une approche orientée objet actif pour la conception de systèmes d'information". Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0124.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les systèmes d'information (SI) présentent deux aspects fortement dépendants : un aspect structurel (ou statique) et un aspect comportemental (ou dynamique). Traiter de façon distincte ces deux aspects rend plus difficile l'analyse et la conception du SI, ainsi que son évolution. Même les méthodes de conception orientées objet, qui intègrent partiellement le comportement du système au niveau de la structure (par le biais de méthodes), ne permettent pas de prendre en compte toute la dimension dynamique du SI. Nous constatons en effet que les règles de gestion (au sens large, c'est-à-dire contraintes d'intégrité, règles de dérivation et règles actives) qui expriment, pour beaucoup d'entre elles, les activités du SI ainsi que les conditions de leur exécution, sont généralement diffusées à travers de nombreux modèles (d'une même méthode). Ceci appauvrit la sémantique au niveau de la modélisation du comportement. En nous inscrivant dans le contexte de l'approche objet, nous préconisons, dans ce travail, l'utilisation du concept d'objet actif comme entité de modélisation, car il constitue un support idéal pour exprimer non seulement les parties données et traitements d'un objet, mais également l’ensemble des règles de gestion qui le régissent. Le concept d'objet actif rend ainsi plus aisée la conception des SI en intégrant efficacement le mécanisme Evénement-Condition-Action (ECA), mécanisme clé dans les bases de données actives. L’introduction de ce concept nécessite de nouveaux modèles pour exprimer et traduire les comportements passif et actif du SI. Nous proposons pour cela une extension aux diagrammes d'états. Par ailleurs, le nombre important de règles produites au niveau conceptuel nécessite leur partitionnement. Nous le réalisons par une stratification des règles. Enfin, sur le plan des outils, nous avons été amenés à ajouter de nouvelles fonctionnalités aux Ateliers de Génie Logiciel (AGL)
Information systems (IS) present two very dependant aspects: a structural (or static) aspect and a behavior (or dynamic) one. Working distinctly over these two aspects makes the information systems analysis, conception and also evolution more complicated. Even the methods of object-oriented conception, which integrate partially the system behavior at structure level (through methods), cannot take into account the IS dynamic dimension. We deduce that management rules (we mean integrity constraints, derivation rules and active ones), that describe the IS activities and execution conditions, are generally diffused through multiple models (of method). Stated in the object approach context, we propose, in this work, the u e of active object concept as modeling entity because it constitutes an ideal support in describing not only the data parts and object treatments, but also the set of management rules. The active object concept makes easier the IS conception in integrating efficacy the «Event-condition-Action mechanism”, key of active databases. The introduction of such concept needs some new models to describe and traduce the passive and active behavior of IS. For that reason, we propose an extension of state diagrams. Nevertheless, the important number of produced rules at conceptual level requires its partition. We realize it by rules stratification. Finally, over the utilities plan, we had to add some new functionality to CASE Tools
4

Bernardi, Fabrice. "Conception de bibliothèques hiérarchisées de modèles réutilisables selon une approche orientée objet". Corte, 2002. http://www.theses.fr/2002CORT3068.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le domaine de la modélisation et de la simulation de systèmes est un domaine extrêmement vaste et complexe. De nombreux formalismes et de nombreuses techniques ont été développés depuis un certain nombre d'années, tous poursuivant le même objectif : dégager les meilleures métaphores et analogies permettant de mieux comprendre un phénomène quelconque. Cette multiplicité a conduit au développement de nombreux environnements de modélisation et de simulation le plus souvent incompatibles, et ce, même dans le cas d'environnements conçus sur la base d'un seul et même formalisme. Par ailleurs, les systèmes étudiés devenant de plus en plus complexes, la réutilisabilité des modèles est devenue une préocupation majeure. Devant ces constats, nous avons tenté d'apporter une contribution à l'élaboration de bibliothèques de modèles réutilisables pouvant être intégrés à différents environnements de modélisation et de simulation. Cette contribution repose sur la prise en compte de trois objectifs principaux qui sont la généricité de l'emploi, la gestion d'une hiérarchie d'abstraction et la gestion d'une hiérarchie d'héritage entre les modèles stockés. Nous donnons dans cette dissertation deux approches complémentaires du problème, l'une formelle et l'autre orientée objet. L'approche formelle permet de poser les bases du développement. Nous y définissons les concepts essentiels de contextes, d'éléments et d'arbres de stockage. Cette approche nous permet également d'introduire de quelles manières sont gérées les différentes hiérárchies à mettre en oeuvre. L'approche orientée objet est fondée sur les concepts développés dans l'approche formelle. Nous y définissons les packages et les classes définis et nous y détaillons le fonctionnement du moteur de stockage et de ses sevices. Notre approche est finalement illustrée par la présentation de son intégration avec un environnement de modélisation et de simulation, JDEVS.
5

Hamon, Catherine. "Conception orientée objet d'une base de données éditoriale : implantation sur le SGBDOO 02". Nancy 1, 1992. http://www.theses.fr/1992NAN10319.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur la conception et l'implantation sur un SGBDOO d'un schéma de base de données éditoriale (BDE) gérant les versions successives de documents obéissant à la norme SGML. Cette base intervient à l'étape de la création de documents dans la châine éditoriale de production de documents mise en place par la société Ais-Berger-Levrault. Cette thèse comprend deux parties. La première partie présente le domaine de l'édition et décrit en particulier les caractéristiques majeures d'une BDE, puis elle montre de quelle façon les SGBDOO peuvent apporter des solutions pour la gestion de BDE. La seconde partie présente des éléments de méthodologie proposés pour apporter des solutions pratiques à des problèmes liés à une conception orientée objet, puis décrit le schéma de BDE conçu à partir de ces éléments de méthodologie et tenant compte des besoins de la société Ais. Ce schéma est actuellement implanté sur le SGBDOO 02 commercialisé par 02 Technology.
6

Lamontagne, Philippe. "Modélisation spatio-temporelle orientée par patrons avec une approche basée sur individus". Mémoire, École de technologie supérieure, 2009. http://espace.etsmtl.ca/64/1/LAMONTAGNE_Philippe.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous proposons un modèle spatialement explicite avec une approche basée sur individus qui simule les déplacements spatio-temporels des rorquals communs et des bélugas durant la saison touristique dans une portion de l’estuaire du Saint-Laurent. Ce modèle est une composante d’un outil d’aide à la décision, en cours de développement par notre groupe de recherche, pour tester différents scénarios de zonage et de règlementation dans le parc marin. Nous avons utilisé l’approche de modélisation orientée par patrons afin de reproduire les patrons de trajectoires, de répartition spatiale et de taille de groupe pour chaque mammifère. Ces patrons sont extraits d’une large base de données contenant des suivis d’individus obtenus par radio télémétrie et stations d’observation terrestre ainsi que plusieurs observations à partir de bateaux d’excursions entre 1994 et 2007 fournies par le groupe de recherche et d’éducation sur les mammifères marins. Nous avons implémenté et testé cinq différents modèles de déplacement des mammifères marins basés sur la théorie de la marche aléatoire. Pour comparer les patrons observés et simulés, nous avons utilisé la statistique de Kolmogorov-Smirnov, l’erreur moyenne absolue normalisée et la métrique d’efficience de modèle. Cette analyse a démontré que les mouvements simulés ne reproduisent pas correctement tous les patrons extraits précédemment. Ainsi, nous proposons un nouvel algorithme, basé sur la marche aléatoire corrélée avec une minimisation de la moyenne des biais normalisés, qui sélectionne un mouvement en trouvant un compromis entre les patrons conflictuels : angle de braquage, distribution spatiale et taille de groupe. Ce compromis est calculé par une fonction objectif pondérée qui cherche à minimiser le biais entre les patrons observés et simulés. Cet algorithme simule adéquatement les patrons de mouvement extraits de la base de données, en plus de respecter les contraintes de répartition spatiale et de taille de groupe. Cet algorithme sera intégré dans notre modèle global basé sur individus qui tente de reproduire les patrons de déplacement des rorquals communs et des bélugas en plus du trafic maritime dans l’estuaire du Saint-Laurent.
7

Ghemtio, Wafo Léo Aymar. "Simulation numérique et approche orientée connaissance pour la découverte de nouvelles molécules thérapeutiques". Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10103/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’innovation thérapeutique progresse traditionnellement par la combinaison du criblage expérimental et de la modélisation moléculaire. En pratique, cette dernière approche est souvent limitée par la pénurie de données expérimentales, particulièrement les informations structurales et biologiques. Aujourd'hui, la situation a complètement changé avec le séquençage à haut débit du génome humain et les avancées réalisées dans la détermination des structures tridimensionnelles des protéines. Cette détermination permet d’avoir accès à une grande quantité de données pouvant servir à la recherche de nouveaux traitements pour un grand nombre de maladies. À cet égard, les approches informatiques permettant de développer des programmes de criblage virtuel à haut débit offrent une alternative ou un complément aux méthodes expérimentales qui font gagner du temps et de l’argent dans la découverte de nouveaux traitements.Cependant, la plupart de ces approches souffrent des mêmes limitations. Le coût et la durée des temps de calcul pour évaluer la fixation d'une collection de molécules à une cible, qui est considérable dans le contexte du haut débit, ainsi que la précision des résultats obtenus sont les défis les plus évidents dans le domaine. Le besoin de gérer une grande quantité de données hétérogènes est aussi particulièrement crucial.Pour surmonter les limitations actuelles du criblage virtuel à haut débit et ainsi optimiser les premières étapes du processus de découverte de nouveaux médicaments, j’ai mis en place une méthodologie innovante permettant, d’une part, de gérer une masse importante de données hétérogènes et d’en extraire des connaissances et, d’autre part, de distribuer les calculs nécessaires sur les grilles de calcul comportant plusieurs milliers de processeurs, le tout intégré à un protocole de criblage virtuel en plusieurs étapes. L’objectif est la prise en compte, sous forme de contraintes, des connaissances sur le problème posé afin d’optimiser la précision des résultats et les coûts en termes de temps et d’argent du criblage virtuel
Therapeutic innovation has traditionally benefited from the combination of experimental screening and molecular modelling. In practice, however, the latter is often limited by the shortage of structural and biological information. Today, the situation has completely changed with the high-throughput sequencing of the human genome, and the advances realized in the three-dimensional determination of the structures of proteins. This gives access to an enormous amount of data which can be used to search for new treatments for a large number of diseases. In this respect, computational approaches have been used for high-throughput virtual screening (HTVS) and offer an alternative or a complement to the experimental methods, which allow more time for the discovery of new treatments.However, most of these approaches suffer the same limitations. One of these is the cost and the computing time required for estimating the binding of all the molecules from a large data bank to a target, which can be considerable in the context of the high-throughput. Also, the accuracy of the results obtained is another very evident challenge in the domain. The need to manage a large amount of heterogeneous data is also particularly crucial.To try to surmount the current limitations of HTVS and to optimize the first stages of the drug discovery process, I set up an innovative methodology presenting two advantages. Firstly, it allows to manage an important mass of heterogeneous data and to extract knowledge from it. Secondly, it allows distributing the necessary calculations on a grid computing platform that contains several thousand of processors. The whole methodology is integrated into a multiple-step virtual screening funnel. The purpose is the consideration, in the form of constraints, of the knowledge available about the problem posed in order to optimize the accuracy of the results and the costs in terms of time and money at various stages of high-throughput virtual screening
8

Midouni, Sid Ahmed Djallal. "Une approche orientée service pour la recherche sémantique de contenus multimédias". Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI056/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les sources de données multimédias provenant de divers domaines (médical, tourisme, commerce, art et culture, etc.) sont devenues incontournables sur le web. L’accès à ces sources multimédias dans les systèmes distribués pose de nouveaux problèmes en raison de nombreux paramètres : volumétrie, diversité des interfaces, format de représentation, localisation, etc. En outre, l’exigence de plus en plus forte des utilisateurs et des applications à vouloir intégrer la sémantique dans la recherche d’information pose de nouvelles questions à résoudre. Pour prendre en compte cette nouvelle complexité, nous nous intéressons dans notre travail de recherche aux solutions d’intégration de données basées sur les services web. Dans cette thèse, nous proposons une approche orientée service pour la recherche sémantique de contenus multimédia. Nous avons appelé cette approche SeSaM (Semantic Search of Multimedia content). SeSaM repose sur la définition d’un nouveau type de services accédant aux contenus multimédias, qui est les services MaaS (Multimedia as a Services). Elle est basée sur un processus en deux phases : description et découverte des services MaaS. En ce qui concerne la description de services MaaS, nous avons défini le langage SA4MaaS (Semantic Annotation for MaaS services), qui est une extension de SAWSDL (recommandation W3C). L’idée principale de ce langage est l’intégration, en plus de la sémantique métier, de la sémantique de l’information multimédia dans la description des services MaaS. En ce qui concerne la découverte de services MaaS, nous avons proposé un nouveau matchmaker MaaS-MX (MaaS services Matchmaker) adapté au modèle de description des MaaS. MaaS-MX est composé de deux étapes primordiales : appariement métier et appariement multimédia. L’appariement métier consiste à comparer la description métier des services et de la requête, tandis que l’appariement multimédia compare la description multimédia des services et de la requête. L’approche a été prototypée et évaluée dans deux domaines différents : médical et tourisme. Les résultats indiquent que l’utilisation de l’appariement métier et l’appariement multimédia a considérablement amélioré les performances des systèmes de recherche de données multimédias
Multimedia data sources from various fields (medical, tourism, trade, art and culture, etc.) became essential on the web. Accessing to multimedia data in distributed systems poses new challenges due to many system parameters: volume, diversity of interfaces, representation format, location, etc. In addition, the growing needs of users and applications to incorporate semantics in the information retrieval pose new issues. To take into account this new complexity, we are interested in our research of data integration solutions based on web services. In this thesis, we propose an approach-oriented service for the semantic search of multimedia content. We called this approach SeSaM (Semantic Search of Multimedia content). SeSaM is based on the definition of a new pattern of services to access multimedia content, which is the MaaS services (Multimedia as a Services). It is based on a two-phase process: description and discovery of MaaS services. As for the MaaS services description, we have defined the SA4MaaS language (Semantic Annotation for MaaS services), which is an extension of SAWSDL (W3C recommendation). The main idea of this language is the integration, in addition to business domain semantic, of multimedia information semantics in the MaaS services description. As for the MaaS service discovery, we have proposed a new matchmaker MaaS-MX (MaaS services Matchmaker) adapted to the MaaS services description model. MaaS-MX is composed of two essential steps: domain matching and multimedia matching. Domain matching consists in comparing the business domain description of MaaS services and the query, whereas multimedia matching compares the multimedia description of MaaS services and the query. The approach has been implemented and evaluated in two different domains: medical and tourism. The results indicate that using both domain and multimedia matching considerably improves the performance of multimedia data retrieving systems
9

Tanasescu, Adrian. "Vers un accès sémantique aux données : approche basée sur RDF". Lyon 1, 2007. http://www.theses.fr/2007LYO10069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous nous intéressons à la recherche dans les documents RDF et nous proposons de mettre les bases d'une approche permettant de fournir, pour une requête de l'utilisateur, des réponses plus complètes et en même temps cohérentes. Cette approche consiste essentiellement en une combinaison sémantique des informations en provenance de plusieurs graphes RDF. L'approche proposée adresse principalement les points suivants : (1) déterminer si les graphes RDF sont en contradiction, tout en utilisant les connaissances ontologiques associées, et (2) construire des réponses cohérentes et plus complètes par la combinaisons de graphes RDF qui ne décrivent pas des assertions contradictoires. Nous présentons aussi une plateforme de stockage et interrogation de documents RDF, nommée SyRQuS, dont le moteur de recherche est intégralement construit sur la base d'une approche. La plateforme, basée sur le Web, permet l'interrogation d'une base de données à l'aide du langage de requête SPARQL
The thesis mainly focuses on information retrival through RDF documents querying. Therefore, we propose an approach able to provide complete and pertinent answers to a user formulated SPARQL query. The approach mainly consists of (1) determining, through a similarity measure, whether two RDF graphs are contradictory, by using the associated ontological knowledge, and (2) building pertinent answers through the combination of statements belonging to non contradicting RDF graphs that partially answer a given query. We also present an RDF storage and querying platform, named SyRQuS, whose query answering plan is entirely based on the former proposed querying approach. SyRQuS is a Web based plateform that mainly provides users with a querying interface where queries can be formulated using SPARQL
10

Ghemtio, Leo. "Simulation numérique et approche orientée connaissance pour la découverte de nouvelles molécules thérapeutiques". Phd thesis, Université Henri Poincaré - Nancy I, 2010. http://tel.archives-ouvertes.fr/tel-00609018.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'innovation thérapeutique progresse traditionnellement par la combinaison du criblage expérimental et de la modélisation moléculaire. En pratique, cette dernière approche est souvent limitée par la pénurie de données expérimentales, particulièrement les informations structurales et biologiques. Aujourd'hui, la situation a complètement changé avec le séquençage à haut débit du génome humain et les avancées réalisées dans la détermination des structures tridimensionnelles des protéines. Cette détermination permet d'avoir accès à une grande quantité de données pouvant servir à la recherche de nouveaux traitements pour un grand nombre de maladies. À cet égard, les approches informatiques permettant de développer des programmes de criblage virtuel à haut débit offrent une alternative ou un complément aux méthodes expérimentales qui font gagner du temps et de l'argent dans la découverte de nouveaux traitements. Appliqué aux grandes bases de données moléculaires, le criblage virtuel à haut débit permet de limiter le criblage expérimental en fournissant, pour chaque cible biologique visée, des molécules potentiellement intéressantes au moyen de méthodes informatiques adaptées. Cependant, la plupart de ces approches souffrent des mêmes limitations. Le coût et la durée des temps de calcul pour évaluer la fixation d'une collection de molécules à une cible, qui est considérable dans le contexte du haut débit, ainsi que la précision des résultats obtenus sont les défis les plus évidents dans le domaine. Le besoin de gérer une grande quantité de données hétérogènes est aussi particulièrement crucial. Pour surmonter les limitations actuelles du criblage virtuel à haut débit et ainsi optimiser les premières étapes du processus de découverte de nouveaux médicaments, j'ai mis en place une méthodologie innovante permettant, d'une part, de gérer une masse importante de données hétérogènes et d'en extraire des connaissances et, d'autre part, de distribuer les calculs nécessaires sur les grilles de calcul comportant plusieurs milliers de processeurs, le tout intégré à un protocole de criblage virtuel en plusieurs étapes. L'objectif est la prise en compte, sous forme de contraintes, des connaissances sur le problème posé afin d'optimiser la précision des résultats et les coûts en termes de temps et d'argent du criblage virtuel. Les approches méthodologiques développées ont été appliquées avec succès à une étude concernant le problème de résistance du VIH aux antiviraux, projet soutenu par la fondation Bill et Melinda Gates dans le cadre d'un projet de collaboration avec le CIRCB au Cameroun.
11

Haudot, Luc. "Une approche orientée utilisateur pour la conception de systèmes coopératifs en ordonnancement de production". Toulouse, INSA, 1996. http://www.theses.fr/1996ISAT0015.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La conception de systèmes coopératifs pour l'ordonnancement d'atelier est abordée dans le contexte de la production de pièces primaires d'avions. Dans ce type de production partiellement automatisée et fortement perturbée, l'homme joue un rôle important, tant au niveau de la prise de décision que de sa mise en œuvre. L'approche retenue consiste à faire interagir des connaissances théoriques liées à la gestion du temps et des ressources avec des connaissances contextuelles apportées ou anticipées par un opérateur humain. Cette approche s'appuie sur la cohabitation et la convergence d'une démarche ascendante d'analyse cognitive (acquisition de connaissances) et d'une démarche descendante de conception pratiquée en ingénierie (utilisation de modèles et méthodes génériques). Ces deux démarches et leur convergence sont étudiées dans le domaine de l'ordonnancement. La démarche ascendante est basée sur une méthodologie de recueil de connaissances de groupe (brainwriting) associée à l'utilisation de grilles-répertoires mettant en évidence des recommandations pour la conception. La démarche descendante s'appuie sur une analyse sous contraintes mise en œuvre par un outil de programmation par contraintes (CHIP) et visant à caractériser l'autonomie de décision disponible. L'approche est ensuite mise en œuvre pour le développement de systèmes coopératifs d'aide à la gestion d'un atelier de fabrication aéronautique. Deux maquettes d'outils informatiques sont ainsi proposées pour l'aide à l'engagement de fabrication et pour l'aide à l'élaboration d'un ordonnancement.
12

Poulain, Thibault. "Une approche orientée sémantique pour l'interrogation d'une coopération de systèmes d'information basée sur des ontologies". Dijon, 2009. http://www.theses.fr/2009DIJOS037.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail de recherche développé s'inscrit dans le domaine de l'interopérabilité des systèmes d'information. Un système de coopération basé sur des ontologies appelé OWSCIS (Ontology and Web Service based Cooperation of Information Sources) est proposé. Il permet la coopération d'un ensemble de systèmes d'information en utilisant des ontologies pour exprimer la sémantique des informations partagées, afin de permettre un accès transparent aux informations gérées par la coopération. L’architecture de coopération s’appuie sur l’utilisation d’une ontologie de domaine et d’ontologies locales qui sont mises en correspondance. Une étude des systèmes de coopération existants et des méthodes et outils de mapping d’ontologies a été menée pour identifier les limites des outils. Le travail développé concerne trois points principaux de la coopération : 1) La définition de l'architecture de coopération, notamment la description d'une base de connaissances qui décrit l'ontologie de référence servant de pivot à la coopération, 2) la définition de la méthodologie de mapping entre les informations des systèmes locaux et de l'ontologie de référence et 3) le principe d'interrogation de la coopération. La méthodologie de mapping combine des méthodes de comparaison complémentaires pour découvrir des correspondances entre ontologies locales et ontologie de référence en exploitant les informations structurelles et individuelles des ontologies. Cette méthodologie est implémentée et des résultats expérimentaux sont présentés. Cette thèse apporte une solution au problème de l'interopération de systèmes d'information en exploitant les informations sémantiques décrites par des ontologies
This research task fits in the field of the interoperability of information systems. A cooperation system based on ontologies called OWSCIS (Ontology and Web Service based Cooperation of Information Sources) is proposed. It allows the cooperation of a group of information systems using ontologies to express the semantics of shared information, to allow a transparent access to the data managed by the cooperation. The architecture of cooperation relies on the use of a domain ontology and of local ontologies mapped together. A study of existing cooperation systems and of tools and methods of ontology mapping is done to identify their limits. The work developped focuses on the three main elements of the cooperation: 1) the cooperation architecture definition, especially the description of a knowledge base describing the reference ontology used as a pivot inside the cooperation, 2) the definition of a mapping methodology between the local ontologies and the reference ontology, 3) the methodlogy of querying the cooperation. The mapping methodology combines complementary comparative méthods to discover matches between a local and the reference ontology relying on structural and individual information from those ontologies. The methodology is implemented and experimental results are described. This thesis provides a solution to the problem of interoperation of information systems based on the exploitation of semantic information described by ontologies
13

Amy, Matthieu. "Systèmes résilients pour l'automobile : d'une approche à composants à une approche à objets de la tolérance aux fautes adaptative sur ROS". Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
A l’instar du téléphone mobile évoluant en smartphone, la voiture s’est transformée petit à petit en smartcar. Les aides à la conduite, l’infotainment ou encore la personnalisation du véhicule sont les points clefs de l’attractivité auprès des consommateurs. L’apparition des véhicules automobiles connectés a permis aux constructeurs de mettre à jour à distance les logiciels embarqués, favorisant leur maintenabilité et l’ajout a posteriori de fonctionnalités. Dans ce contexte, le consortium AUTOSAR, un regroupement de constructeurs automobiles majeurs, a conçu une nouvelle plate-forme logicielle facilitant la mise à jour à distance et la modification en ligne de ces systèmes embarqués. Cependant, avec de plus en plus de complexité dans ces logiciels, il est devenu essentiel de pouvoir assurer un service sûr de fonctionnement malgré des changements imprévus. Ainsi, les mécanismes de sûreté de fonctionnement doivent eux aussi s’adapter et être mis à jour pour assurer la résilience du système, à savoir, la persistance de la sûreté de fonctionnement face à des changements. Les mécanismes de tolérance aux fautes (Fault Tolerance Mechanisms - FTM) assurant un service nominal ou dégradé en présence de fautes doivent également s’adapter face à un changement de contexte applicatif (changement du modèle de faute, des caractéristiques de l’application ou des ressources disponibles). Cette capacité à adapter les FTM est appelée Tolérance aux Fautes Adaptative (Adaptive Fault Tolerance – AFT). C’est dans ce contexte d’évolution et d’adaptativité que s’inscrivent nos travaux de thèse. Dans cette thèse, nous présentons des approches pour développer des systèmes sûrs de fonctionnement dont les FTM peuvent s’adapter à l’exécution par des modifications plus ou moins à grain fin pour minimiser l’impact sur l’exécution de l’application. Nous proposons une première solution basée sur une approche par composants substituables, nous décomposons nos FTM selon un schéma de conception Before-Proceed-After regroupant respectivement les actions de sûreté de fonctionnement s’exécutant avant une action l’application, la communication avec l’application et celles s’exécutant après une action de l’application. Nous implémentons cette approche sur ROS (Robot Operating System), un intergiciel pour la robotique permettant de créer des applications sous forme de graphe de composants. Nous proposons ensuite une seconde solution dans laquelle nous affinons la granularité des composants de nos FTM et nous catégorisons, dans un premier temps, les actions de sûreté de fonctionnement qu’ils contiennent. Cela permet non plus de substituer un composant mais une action élémentaire. Ainsi, nous pallions à un problème de ressource apparu dans l’approche par composants substituables. Un composant étant projeté sur un processus, nos FTM utilisent inutilement des ressources déjà limitées sur les plate-formes embarqués. Pour ce faire, nous proposons une solution basé sur une approche par objets ordonnançables. Les FTM passent d’une conception par graphe de composants à une conception par graphe d’objets. Les actions de sûreté de fonctionnement sont projetés sur des objets qui sont ordonnancés à l’intérieur du FTM. Cette seconde solution est aussi mise en oeuvre sur ROS. Enfin, nous faisons une analyse critique des deux supports d’exécution logiciel pour l’automobile, à savoir, AUTOSAR Classic Plateform, et AUTOSAR Adaptive Platform, qui est en cours de développement encore actuellement. Nous examinons, dans une dernière étape la compatibilité entre ces deux supports et nos approches pour concevoir des systèmes résilients embarqués basés sur de la tolérance aux fautes adaptative
Like the mobile phone evolved as smartphone, cars have gradually turned into smartcars. Advanced Driver Assistance Systems (ADAS), infotainment or personalization of the vehicle are clearly today key aspects of attractiveness for customers. Connected vehicles led manufacturers to remotely update embedded software, promoting their maintainability and the subsequent addition of features later in the lifetime of a car. In this context, the AUTOSAR consortium, a group of major car manufacturers, has designed a new software platform to facilitate remote updates and online modification of such embedded systems. However, with the increasing complexity of embedded software systems, it becomes mandatory to maintain dependability in operation despite unforeseen changes. Thus, the dependability mechanisms must also be adapted and updated to ensure the resilience of the system, namely, the persistence of dependability when facing changes. Fault Tolerance Mechanisms (FTM) which are means ensuring a nominal or an (acceptable) degraded service in the presence of faults must also adapt to a change in the application operational context (fault model changes, characteristics of the application or available resources). This ability to adapt FTMs is called Adaptive Fault Tolerance (AFT). The contributions of this thesis are performed in this context of evolution and adaptivity of critical embedded software. In this work, we propose approaches to develop safe embedded systems whose FTMs can adapt to the operational context in different ways, coarse-grain or fine-grain modifications of their implementation at runtime, to minimize the impact on the application. We propose a first solution based on a substitutable component approach: we break down FTMs according to a Before-Proceed-After design scheme grouping respectively fault tolerance actions performed before a functional action of the application, the interaction with the application and fault tolerance actions required after the action performed by the application. We implement this approach on ROS (Robot Operating System), a middleware for robotics that enables an application to be implemented as a component graph. We then propose a second solution in which we refine the granularity of the FTM components by first categorizing the individual dependability actions they contain. This enables an elementary action to be substituted instead of a component as a whole. Thus, we solved a resource problem that appeared in the substitutable component approach. Since a component is mapped to a process, the FTMs overuse more resources that are obviously limited in embedded systems. To this aims, we design a solution based on an object-based scheduling approach. FTMs are designed in this case as an object graph. The fault tolerance basic actions are mapped to objects that are scheduled within the FTM component. This second approach was also implemented on ROS. Finally, we make a comparative analysis of the two software execution platforms of the automotive industry, namely the AUTOSAR Classic Platform and the AUTOSAR Adaptive Platform, which is still under development today. As a final step, we examine the compatibility between these two runtime supports and our approaches to design resilient systems based on adaptive fault tolerance
14

Mihaita, Adriana. "Approche probabiliste pour la commande orientée évènement des systèmes stochastiques à commutation". Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENT036/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les systèmes hybrides sont des systèmes dynamiques, caractérisés par un comportementdual, une interaction entre une partie discrète et une partie continue de fonctionnement.Dans le centre de notre travail se trouve une classe particulière de systèmeshybrides, plus spécifiquement les systèmes stochastiques à commutation que nous modélisonsà l’aide des Chaînes de Markov en temps continu et des équations différentielles.Le comportement aléatoire de ce type de système nécessite une commande spécialequi s’adapte aux événements arbitraires qui peuvent changer complètement l’évolutiondu système. Nous avons choisi une politique de contrôle basée sur les événements quiest déclenchée seulement quand il est nécessaire (sur un événement incontrôlable - parexemple un seuil qui est atteint), et jusqu’à ce que certaines conditions de fonctionnementsont remplies (le système revient dans l’état normal).Notre approche vise le développement d’un modèle probabiliste qui permet de calculerun critère de performance (en occurrence l’énergie du système) pour la politiquede contrôle choisie. Nous proposons d’abord une méthode de simulation à événementsdiscrets pour le système stochastique à commutation commandé, qui nous donne la possibilitéde réaliser une optimisation directe de la commande appliquée sur le système etaussi de valider les modèles analytiques que nous avons construit pour l’application ducontrôle.Un modèle analytique pour déterminer l’énergie consommée par le système a étéconçu en utilisant les probabilités de sortie de la région de contrôle, respectivement lestemps de séjour dans la chaîne de Markov avant et après avoir atteint les limites decontrôle. La dernière partie du travail présente la comparaison des résultats obtenusentre la méthode analytique et la simulation
Hybrid systems are dynamical systems, characterized by a dual behaviour, a continuousinteraction between a discrete and a continuous functioning part. The center ofour work is represented by a particular class of hybrid systems, more specific by thestochastic switching systems which we model using continuous time Markov chains anddifferential equations.The random behaviour of such systems requires a special command which adapts tothe arbitrary events that can completely change the evolution of the system. We chose anevent-based control policy which is triggered only when it’s necessary (on an unforeseenevent - for example when a threshold that is reached), and until certain functioningconditions are met (the system returns in the normal state).Our approach aims to develop a probabilistic model that calculates a performancecriterion (in this case the energy of the system) for the proposed control policy. We startby proposing a discrete event simulation for the controlled stochastic switching system,which gives us the opportunity of applying a direct optimisation of the control command.It also allows us to compare the results with the ones obtained by the analytical modelswe have built when the event-based control is applied.An analytical model for computing the energy consumed by the system to apply thecontrol is designed by using the exit probabilities of the control region, respectively, thesojourn times of the Markov chain before and after reaching the control limits. The lastpart of this work presents the results we have obtained when comparing the analyticaland the simulation method
15

Benjelloun, Omar. "Active XML : une approche des services Web centrée sur les données". Paris 11, 2004. http://www.theses.fr/2004PA112087.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse introduit Active XML (AXML, en abrégé), un modèle déclaratif mettant à profit la technologie des services Web pour la gestion de données distribuées et mis en oeuvre dans une architecture pair-à-pair. Un document AXML est un document XML pouvant contenir des appels de services Web, dont l'invocation enrichit le document. Un service AXML est un service Web échangeant des document AXML. Un "pair" AXML est un entrepôt de documents AXML, jouant d'une part le rôle de client, en invoquant les appels de services inclus dans ses documents, et d'autre part celui de serveur, en fournissant des services AXML pouvant être définis comme des requêtes ou mises-à-jour sur ses documents. L'approche AXML permet de combiner harmonieusement données extensionnelles (en XML) et intensionnelles (les appels de services). La capacité des pairs AXML à échanger de tels documents conduit à un paradigme puissant de gestion de données distribuées. L'approche AXML génère des questions importantes également étudiées dans cette thèse. Nous nous intéressons d'abord au contrôle de l'échange de documents AXML, en proposant l'utilisation de schémas déclaratifs et en fournissant des algorithmes pour leur vérification statique. Puis, nous envisageons l'évaluation "paresseuse" de requêtes sur des documents AXML, en introduisant des techniques analysant la pertinence pour les requêtes des appels de services inclus dans les documents. Notre implantation des pairs AXML, conforme aux standards du W3C est également présentée dans la thèse
This thesis introduces Active XML (AXML, for short), a declarative framework that harnesses Web services for distributed data management, and is put to work in a peer-to-peer architecture. An AXML document is an XML document that may contain embedded calls to Web services, whose invocation enriches the document. An AXML service is a Web service that exchanges AXML documents. An AXML "peer" is a repository of AXML documents. On the one hand, it acts as a client, by invoking the service calls embedded in its documents. On the other hand, a peer acts as a server, by providing AXML services that can be declaratively specified as queries or updates over the AXML documents of its repository. The AXML approach allows for gracefully combining stored information with data defined in an intensional manner (as service calls). The fact that AXML peers can exchange a mix of materialized and intensional data (via AXML documents) leads to a very powerful distributed data management paradigm. The AXML approach leads to a number of important problems that are studied in the thesis. First, we address the issue of controlling the exchange of AXML data. We propose to use declarative schema specifications, and provide algorithms to statically enforce them. Second, we propose techniques for the "lazy evaluation" of queries on AXML documents, that detect which embedded service calls may contribute to query answers. An implementation of AXML peers compliant with W3C standards is also described in the thesis
16

Hajji, Hicham. "Gestion des risques naturels : une approche fondée sur l'intégration des données". Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0039/these.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La mise en oeuvre d'architectures ou de solutions de systèmes d'information géographique peut différer d'un cas à l'autre en fonction des objectifs et des besoins des applications. Dans la gestion des risques naturels, la conception de tels systèmes doit répondre à plusieurs problématiques comme l'hétérogénéité sémantique des données, la diversité des formats et des modèles de données, le caractère spatio-temporal de la gestion. Dans cette thèse, nous avons essayé de répondre à ces besoins en présentant une architecture de référence pour un système d'information pour la gestion des risques. Deux aspects ont été détaillés dans cette architecture: l'intégration des données et le développement d'une ontologie pour les risques. Le problème d'intégration des données a été abordé en utilisant le standard OpenGIS qui offre à la fois une définition équivoque des types de primitives géométriques, une prise en compte de la dimension temporelle, et un mécanisme pour la description des métadonnées. Une méthodologie d'intégration a été proposée comme un cadre pour assister: 1) à la transformation des schémas des données vers le modèle OpenGIS, 2) à l'identification des correspondances entre les éléments identiques, et 3) leur intégration dans un schéma intégré. L'ontologie a été développée pour éliminer la confusion sémantique entre les acteurs de la gestion des risques, et pour la modélisation du domaine en proposant un ensemble de concepts nécessaires à la description de la procédure de gestion des risques. Finalement, en relation avec le contrat CIFRE dont j'ai bénéficié, quelques systèmes d'information opérationnels sont présentés traitant de la procédure de gestion des risques
There is a huge geographic data available with many organizations collecting geographic data for centuries, but some of that is still in the form of paper maps or in traditional files or databases, and with the emergence of latest technologies in the field of software and data storage some has been digitized and is stored in latest GIS systems. However, too often their reuse for new applications is a nightmare, due to diversity of data sets, heterogeneity of existing systems in terms of data modeling concepts, data encoding techniques, obscure semantics of data,storage structures, access functionality, etc. Such difficulties are more common in natural hazards information systems. In order to support advanced natural hazards management based on heterogeneous data, this thesis develops a new approach to the integration of semantically heterogeneous geographic information which is capable of addressing the spatial and thematic aspects of geographic information. The approach is based on OpenGIS standard. It uses it as a common model for data integration. The proposed methodology takes into consideration a large number of the aspects involved in the construction and the modelling of natural hazards management information system. Another issue has been addressed in this thesis, which is the design of an ontology for natural hazards. The ontology design has been extensively studied in recent years, we have tried throughout this work to propose an ontology to deal with semantic heterogeneity existing between different actors and to model existing knowledge present for this issue. The ontology contains the main concepts and relationships between these concepts using OWL Language
17

Mihaita, Adriana, e Adriana Mihaita. "Approche probabiliste pour la commande orientée évènement des systèmes stochastiques à commutation". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00770325.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les systèmes hybrides sont des systèmes dynamiques, caractérisés par un comportementdual, une interaction entre une partie discrète et une partie continue de fonctionnement.Dans le centre de notre travail se trouve une classe particulière de systèmeshybrides, plus spécifiquement les systèmes stochastiques à commutation que nous modélisonsà l'aide des Chaînes de Markov en temps continu et des équations différentielles.Le comportement aléatoire de ce type de système nécessite une commande spécialequi s'adapte aux événements arbitraires qui peuvent changer complètement l'évolutiondu système. Nous avons choisi une politique de contrôle basée sur les événements quiest déclenchée seulement quand il est nécessaire (sur un événement incontrôlable - parexemple un seuil qui est atteint), et jusqu'à ce que certaines conditions de fonctionnementsont remplies (le système revient dans l'état normal).Notre approche vise le développement d'un modèle probabiliste qui permet de calculerun critère de performance (en occurrence l'énergie du système) pour la politiquede contrôle choisie. Nous proposons d'abord une méthode de simulation à événementsdiscrets pour le système stochastique à commutation commandé, qui nous donne la possibilitéde réaliser une optimisation directe de la commande appliquée sur le système etaussi de valider les modèles analytiques que nous avons construit pour l'application ducontrôle.Un modèle analytique pour déterminer l'énergie consommée par le système a étéconçu en utilisant les probabilités de sortie de la région de contrôle, respectivement lestemps de séjour dans la chaîne de Markov avant et après avoir atteint les limites decontrôle. La dernière partie du travail présente la comparaison des résultats obtenusentre la méthode analytique et la simulation.
18

Ahmad, Houda. "Une approche matérialisée basée sur les vues pour l'intégration de documents XML". Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10086.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les données semi-structurées occupent une place croissante dans l'évolution du Web par le biais du langag, XML. La gestion de telles données ne s'appuie pas sur un schéma prédéfini, comme dans le cas de données structurées, gérées par exemple par le modèle relationnel. Le schéma de chaque document est auto-contenu dans le document même, et des documents similaires peuvent être représentés par des schémas différents. C'est pourquoi les algorithmes et les techniques d'intégration et d'interrogation de telles sources de données sont souvent plus complexes que ceux définis pour l'intégration et l'interrogation de sources de données structurées. L'objectif de notre travail est l'intégration de données XML en utilisant les principes d'Osiris, un prototype de SGBD¬BC, dont le concept central est celui de vue. Dans ce système, une famille d'objets est définie par une hiérarchie de vues, où chaque vue est définie par ses vues mères, ses attributs et contraintes propres. Osiris appartient à la famille des logiques de description, la vue minimale d'une famille d'objets étant assimilée à un concept primitif et ses autres vues à des concepts défmis. Vn objet d'une famille satisfait certaines de ses vues. Pour chaque famille d'objets, Osiris construit, par analyse des contraintes définies dans toutes ses vues, un espace de classement n-dimensionnel. Cet espace sert de support au classement d'objets et aussi à leur indexation. Dans cette thèse nous avons étudié l'apport des principales fonctionnalités d'Osiris - classement, indexation et optimisation sémantique des requêtes - à l'intégration de documents XML. Pour cela nous produisons un schéma cible (XML schema abstrait), qui représente un schéma Osiris; chaque document satisfaisant un schéma source (XML schema concret) est réécrit en termes du schéma cible avant de subir l'extraction des valeurs de ses entités. Les objets correspondant à ces entités sont alors classés et indexés. Le mécanisme d'optimisation sémantique des requêtes d'Osiris peut dès lors être utilisé pour extraire les objets d'intérêt pour une requête. Nous avons réalisé un prototype, nommé OSIX (Osiris-based System for the Integration ofXML sources) et nous l'avons appliqué à l'intégration et l'interrogation de documents XML simulant les données d'un hôpital
Semi-structured data play an increasing role in the development of the Web through the use ofXML. However, the management of semi-structured data poses specific problems because semi-structured data, contrary to classical databases, do not rely on a predefined schema. The schema of a document is contained in the document itself and similar documents may be represented by different schemas. Consequently, the techniques and algorithms used for querying or integrating this data are more complex than those used for structured data. The objective of our work is the integration of XML data by using the principles of Osiris, a prototype of KB-DBMS, in which views are a central concept. Ln this system, a family of objects is defined by a hierarchy of views, where a view is defined by its parent views and its own attributes and constraints. Osiris belongs to the family of Description Logics; the minimal view of a family of objects is assimilated to a primitive concept and its other views to defined concepts. An object of a family satisfies sorne ofits views. For each family of objects, Osiris builds a n-dimensional classification space by analysing the constraints defined in all of its views. This space is used for object classification and indexation. Ln this the sis we study the contribution of the main features of Osiris - classification, indexation and semantic query optimization - to the integration ofXML documents. For this purpose we produce a target schema (an abstract XML schema), who represents an Osiris schema; every document satisfying a source schema (concrete XML schema) is rewritten in terrns of the target schema before undergoing the extraction of the values ofits entities. The objects corresponding to these entities are then classified and indexed. The Osiris mechanism for semantic query optimization can then be used to extract the objects of interest of a query
19

Ahmad, Houda. "Une approche matérialisée basée sur les vues pour l'intégration de documents XML". Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00957148.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les données semi-structurées occupent une place croissante dans l'évolution du Web par le biais du langage XML. La gestion de telles données ne s'appuie pas sur un schéma pré-dé fini, comme dans le cas de données structurées, gérées par exemple par le modèle relationnel. Le schéma de chaque document est auto-contenu dans le document même, et des documents similaires peuvent être représentés par des schémas différents. C'est pourquoi les algorithmes et les techniques d'intégration et d'interrogation de telles sources de données sont souvent plus complexes que ceux défi nis pour l'intégration et l'interrogation de sources de données structurées. L'objectif de notre travail est l'intégration de données XML en utilisant les principes d'Osiris, un prototype de SGBD-BC, dont le concept central est celui de vue. Dans ce système, une famille d'objets est défi nie par une hiérarchie de vues, où chaque vue est défi nie par ses vues mères, ses attributs et contraintes propres. Osiris appartient à la famille des logiques de description, la vue minimale d'une famille d'objets étant assimilée à un concept primitif et ses autres vues à des concepts définis. Un objet d'une famille satisfait certaines de ses vues. Pour chaque famille d'objets, Osiris construit, par analyse des contraintes dé finies dans toutes ses vues, un espace de classement n-dimensionnel. Cet espace sert de support au classement d'objets et aussi à leur indexation. Dans cette thèse nous avons étudié l'apport des principales fonctionnalités d'Osiris - classement, indexation et optimisation sémantique des requêtes à l'intégration de documents XML. Pour cela nous produisons un schéma cible (XML schema abstrait), qui représente un schéma Osiris ; chaque document satisfaisant un schéma source (XML schema concret) est réécrit en termes du schéma cible avant de subir l'extraction des valeurs de ses entités. Les objets correspondant à ces entités sont alors classés et indexés. Le mécanisme d'optimisation sémantique des requêtes d'Osiris peut dès lors être utilisé pour extraire les objets d'intérêt pour une requête. Nous avons réalisé un prototype, nommé OSIX (Osiris-based System for the Integration of XML sources) et nous l'avons appliqué à l'intégration et l'interrogation de documents XML simulant les données d'un hôpital.
20

Lacouture, Jérôme. "Ingénierie logicielle orientée service : une contribution à l'adaptation dynamique basée sur une approche mixte composant/agent". Pau, 2008. http://www.theses.fr/2008PAUU3011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'évolution des systèmes distribués est en train de prendre une nouvelle dimension avec l'essor de nouvelles technologies (Architectures Orientées Services, Grille informatique, informatique nomade et ubiquitaire). Au sein de tels environnements, l'architecture logicielle du système évolue en cours d'exécution, c'est-à-dire lors de la phase d'exploitation du cycle de développement. Par conséquent, persistance des services et aspects dynamiques constituent de nouveaux challenges et amènent à reconsidérer des problématiques inhérentes que sont la réutilisation des services existants et leur adaptation. Adapter, intégrer et coordonner « à la volée » les services disponibles, réagir dynamiquement à l'évolution des systèmes apparaissent aujourd'hui comme des soucis centraux de recherche. Les objectifs des travaux que nous présentons autour de l'approche CompAA s'inscrivent dans ce contexte et proposent une voie à une adaptation contextuelle, relative aux conditions environnementales (qualité de service, disponibilité sur le réseau), la plus dynamique et autonome que possible, par la découverte des services disponibles. Pour cela, nos contributions s'organisent autour de deux principales propositions : 1) un modèle de composants adaptables, s'appuyant sur les principes d'abstraction et de variabilité, et s'appuyant aussi sur une définition sémantique en termes de propriétés fonctionnelles et non-fonctionnelles permettant une interprétation automatique par des agents logiciels. 2) un processus d'adaptation dynamique mettant en oeuvre le modèle proposé. Le processus spécifié couvre des étapes allant de l'analyse des besoins jusqu'à l'adaptation de composants, en passant par des étapes de découverte et sélection de composants. Différentes politiques permettent un niveau d'adaptabilité accrue au sein même du processus. Un aspect prépondérant mis en valeur dans cette thèse réside dans l'originalité de l'approche qui vise à intégrer les avantages connus de deux paradigmes : composants et agents. Pour nous, il existe un réel intérêt à spécifier des entités possédant la structuration et les qualités de réutilisation des composants logiciels et évoluant de manière autonome et flexible à l'instar des agents logiciels. Le champ d'expérimentation au travers duquel sont éprouvées nos propositions est celui du e-learning, plus particulièrement au travers de notre participation au projet européen ELeGI (Eu-ropean Learning Grid Infrastructure). Au travers de différentes situations d'apprentissage, les participants évoluent en partageant leurs connaissances afin de progresser individuellement et collectivement. On se retrouvre donc dans un contexte où les connaissances et les besoins de chacun sont en perpétuelles mouvances. Le modèle CompAA trouve donc naturellement sa place dans ce genre d'activité et permet de garantir une certaine transparence à l'utilisateur tout en lui garantissant une qualité de service optimale en dotant le système d'entités plus autonomes et auto-adaptables
The evolution of the distributed systems is taking a new dimension with the development of new technologies (Services Oriented Architectures, Grid computing, nomad and ubiquitous computing). Within such environments, the software architecture of the system evolves at runtime, that is during the exploitation phase of the development cycle. Consequently, persistence of the services and dynamic aspects establish new challenges and bring to reconsider inherent problems that are the reuse of the existing services and their adaptation. To adapt, to integrate and to coordinate “on the fly" the available services, to react dynamically to the evolution of the systems appear as central research concerns today. The objectives of the works which we present around the CompAA approach join this context and propose a way in a contextual adaptation, relative to the environmental conditions (quality of service, availability on the network), most dynamic and most autonomous that possible, by the discovery of the available services. For that purpose, our contributions get organized around two main propositions : 1) a model of adaptable components, leaning on the principles of abstraction and variability, and also leaning on a semantic definition in terms of functional and non-functional properties allowing an automatic interpretation by software agents. 2) a process of dynamic adaptation implementing the proposed model. The specified process covers stages going of the analysis of needs until the adaptation of components, by way of stages of discovery and selection of components. Various policies allow a level of adaptability increased within the process. A dominating aspect emphasized in this thesis lies in the originality of the approach which aims at joining the advantages known for two paradigms : components and agents. For us, there is a real interest to specify entities possessing the structuring and the qualities of reuse of software components and evolving in an autonomous and flexible way following the example of the software agents. The field of experiment through which are tried our propositions is the one of the e-learning, more particularly through our participation to the European project ELeGI (European Learning Grid Infrastructure). Through various situations of learning, the participants evolve by sharing their knowledge to progress individually and collectively. In this context, the knowledge and the needs of each are in perpetual spheres of influence. The CompAA model finds naturally its place in this kind of activity and allows to guarantee a certain transparency to the user while guaranteeing him an optimal quality of service by endowing the system of more autonomous and more self-adaptable entities
21

Mebarki, Nasser. "Une approche d'ordonnancement temps réel basée sur la sélection dynamique de règles de priorité". Lyon 1, 1995. http://www.theses.fr/1995LYO10043.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La gestion des files d'attente par des regles de priorite constitue une des approches les plus simples et les plus utilisees pour ordonnancer dynamiquement les taches dans l'atelier. De tres nombreuses regles de priorite ont ete proposees et etudiees par de tres nombreux chercheurs. Malheureusement, un des problemes les plus importants concernant l'utilisation des regles de priorite est constitue par le fait qu'aucune regle n'apparait comme globalement meilleure que les autres. L'efficacite et la pertinence des regles de priorite depend etroitement des criteres de performance evalues et des conditions operatoires effectives dans l'atelier et surtout de l'etat de l'atelier. Pour remedier a ces inconvenients, nous proposons dans cette these une approche d'ordonnancement temps reel basee sur une selection dynamique des regles de priorite. Cette selection est realisee en fonction des conditions operatoires, des objectifs de production et de l'etat de l'atelier. Puisque l'etat de l'atelier change au cours du temps, nous proposons d'analyser l'etat du systeme chaque fois qu'une decision d'ordonnancement doit etre prise, afin de prendre en compte l'etat reel de l'atelier. Cette analyse de l'etat de l'atelier permet d'etablir un diagnostic de l'etat de l'atelier, qui indique les dysfonctionnements et les deviations du systeme par rapport aux objectifs a atteindre. Ce diagnostic est etabli a partir de sympomes predetermines (presence de goulots d'etranglement, trop de retard), qui peuvent etre purement locaux lorsqu'ils concernent un objet precis du systeme (un ordre de fabrication particulier, une ressource particuliere, une file d'attente) ou globaux lorsqu'ils font reference a une deviation globale des objectifs de l'atelier (trop de retard). Cette approche a ete implementee dans un logiciel de simulation orientee objet. Sur un modele d'atelier job-shop, les tests conduits ont montre que cette approche comparee a de nombreuses regles de priorite, donnait de meilleurs resultats sur certains criteres de performance, tels que le retard conditionnel. De plus, l'avantage de cette nouvelle approche est particulierement sensible lorsqu'il s'agit de combiner differents criteres de performance
22

Ait, Brahim Amal. "Approche dirigée par les modèles pour l'implantation de bases de données massives sur des SGBD NoSQL". Thesis, Toulouse 1, 2018. http://www.theses.fr/2018TOU10025/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La transformation digitale des entreprises et plus largement celle de la société, entraine une évolution des bases de données (BD) relationnelles vers les BD massives. Dans les systèmes informatiques décisionnels actuels, les décideurs doivent pouvoir constituer des bases de données, les réorganiser puis en extraire l’information pertinente pour la prise de décision. Ces systèmes sont donc naturellement impactés par cette évolution où les données sont généralement stockées sur des systèmes NoSQL capables de gérer le volume, la variété et la vélocité. Nos travaux s’inscrivent dans cette mutation ; ils concernent plus particulièrement les mécanismes d’implantation d’une BD massive sur un SGBDNoSQL. Le point de départ du processus d’implantation est constitué d’un modèle contenant la description conceptuelle des données et des contraintes d’intégrité associées.Peu de travaux ont apporté des solutions automatiques complètes portant à la fois sur les structures de données et les contraintes d’intégrité. L’objectif de cette thèse est de proposer une démarche générale qui guide et facilite la tâche de transformation d’un modèle conceptuel en un modèle d’implantation NoSQL. Pour ceci, nous utilisons l’architecture MDA qui est une norme du consortium OMG pour le développement dirigé par les modèles.A partir d'un modèle conceptuel exprimé à l'aide du formalisme UML, notre démarche MDA applique deux processus unifiés pour générer un modèle d’implantation sur une plateforme NoSQL choisie par l’utilisateur : - Le processus de transformation d’un DCL, - Le processus de transformation des contraintes associées, Nos deux processus s’appuient sur :- Trois niveaux de modélisation : conceptuel, logique et physique, où le modèle logique correspond à une représentation générique compatible avec les quatre types de SGBD NoSQL : colonnes, documents, graphes et clé-valeur, - Des métamodèles permettant de vérifier la validité des modèles à chaque niveau, - Des normes de l’OMG pour formaliser l’entrée du processus et l’ensemble des règles de transformation. Afin de vérifier la faisabilité de notre solution, nous avons développé un prototype composé de deux modules. Le premier applique un ensemble de règles de transformation sur un modèle conceptuel et restitue un modèle NoSQL associé à un ensemble de directives d’assistance. Le second module complète le premier en intégrant les contraintes qui ne sont pas prises en compte dans le modèle physique généré. Nous avons montré également la pertinence de nos propositions grâce à une évaluation réalisée par des ingénieurs d’une société spécialisée dans le décisionnel
Le résumé en anglais n'a pas été communiqué par l'auteur
23

Denoual, Franck. "Développement d'une plate-forme logicielle orientée objet pour la décompression et l'édition vidéo sur noyau temps-réel". Rennes 1, 2001. http://www.theses.fr/2001REN10107.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Marguin-Lortic, Marie-Claude. "Les Données radar en télédétection : approche théorique et application sur la région niortaise". Paris, EHESS, 1987. http://www.theses.fr/1987EHES0014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les donnees radar, encore peu connues, sont rarement utilisees dans une optique paysagique et d'occupation du sol. Les objectifs de ce travail sont : 1) de familiariser les utilisateurs de la teledetection avec cette nouvelle categorie de donnees; 2) d'approfondir la comprehension du signal retrodiffuse par l'analyse et l'interpretation d'une image seasat (21. 08. 1978) sur le sud du departement des deux-sevres. Les capacites du s. A. R. De seasat sont testees a trois niveaux d'approche : - les ensembles paysagiques, - les unites de paysage, - les parcelles forestieres et les champs cultives. Une comparaison entre le s. A. R. De seasat et le m. S. S. De landsat est tentee pour mettre en evidence leur complementarite
Radar data, as yet not very well-known, are rarely used for the purpose of land systems and soil occupation studies. The objectives of this thesis are : 1) to familiarize remote sensing users with this new data, 2) to increase the understanding of backscattering through the analysis and interpretation of a seasat picture (21. 08. 1978) in the south of the deux-sevres department (france). The performances of the s. A. R. Of seasat are tested by using three different approaches : - the land systems, - the land units, - the forestry units and cultivated fields. A comparison is made between s. A. R. Seasat and m. S. S. Landsat in order to show their complementarity
25

Marcenac, Pierre. "Eddi : apports pour les environnements de développement de didacticiels : modélisation des stratégies tutorielles basée sur une approche structurelle des connaissances". Nice, 1990. http://www.theses.fr/1990NICE4422.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'inscrit dans un souci d'étude d'un modèle de base et d'un système pour les environnements de développement de didacticiels (EDDI). Notre hypothèse est de disposer d'une expertise représentée suivant le modèle de représentation démo, basé sur une typologie des objets et des relations. Notre étude montre qu'il est alors nécessaire de compléter l'expertise avec des composants spécifiques, dans le but de la transférer à un apprenant. Ces composants regroupent : 1) un ensemble de concepts à rattacher aux objets de l'expertise ; 2) un modèle de l'apprenant ; 3) et un ensemble de stratégies tutorielles les exploitant. Ces stratégies tutorielles sont elles-mêmes décomposées en trois catégories fondamentales : les stratégies de conduite de session, les stratégies tutorielles de décision et les stratégies tutorielles d'application. L’originalité du modèle proposé est de s'intéresser à l'étude du comportement de la structure des connaissances manipulées durant le transfert d'expertise plutôt qu'aux connaissances elles-mêmes. EDDI propose donc une abstraction par rapport à l'expertise, par extraction de connaissances génériques sur la façon de transmettre les connaissances à l'apprenant et par rattachement des stratégies tutorielles à la structure des connaissances manipulées. EDDI constitue un enrichissement sémantique du modèle démo par intégration d'une couche spécifique au sein d'une architecture décrivant trois niveaux de représentation. EDDI est implémenté sous la forme d'un prototype en Loops
26

Benjamin, Catherine. "L'affectation du travail dans les exploitations agricoles : approche microéconomique et application sur données françaises". Paris 1, 1993. http://www.theses.fr/1993PA010051.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude est une tentative d'explication des décisions de travail des ménages agricoles. L'objectif est la recherche des déterminants de l'exercice d'une profession hors de l'exploitation des membres du ménage et des facteurs qui expliquent l'utilisation de travail salarie sur l'exploitation. La partie théorique est basée sur le modèle néoclassique du ménage agricole producteur et consommateur. La décision de chaque époux de travailler hors de l'exploitation et la décision d'employer du travail salarie est un processus joint et le modèle tient compte de la simultanéité de ces décisions. Le modèle permet de dériver les fonctions d'offre de travail du mari et de son épouse et les demandes en travail familial et en travail salarié. L'étude analytique montre que les propriétés du modèle (propriétés de séparabilité et de statique comparative) dépendent des hypothèses de substitution entre travail familial et travail salarie, entre travail sur l'exploitation et travail hors de l'exploitation. De plus, les effets des politiques d'intervention sur les prix, les subventions, sur la surface utilisée divergent suivant le statut initial de l'exploitation en matière de travail. Un cas paramétrique illustre le modèle. Les relations entre travail familial et travail salarié sont, ensuite, testées empiriquement et on montre que les résultats dépendent des spécialisations productives. Un échantillon de 7032 ménages français est utilisé pour estimer un modèle logit multinomial.
27

Nguyen, Thi Dieu Thu. "Une approche basée sur LD pour l'interrogation de données relationnelles dans le Web sémantique". Nice, 2008. http://www.theses.fr/2008NICE4007.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le web sémantique est un nouveau paradigme web qui fournit un cadre commun pour des données devant être partagées et réutilisées à travers des applications, en franchissant les frontières entre les entreprises et les communautés. Le problème majeur que l'on rencontre à présent, est la manière de relier les informations provenant de différentes sources, celles-ci utilisant souvent une syntaxe et une sémantique différentes. Puisqu'aujourd'hui, la plupart des informations sont gardées dans des bases de données relationnelles, l'intégration de source de données relationnelle dans le web sémantique est donc très attendue. L'objectif de cette thèse est de fournir des méthodes et des techniques pour résoudre ce problème d'intégration des bases de données. Nous proposons une approche combinant des représentations de schémas à base d'ontologie et des logiques de descriptions. Les schémas de base de données sont conçus en utilisant la méthodologie ORM. La stabilité et la flexibilité de ORM facilite la maintenance et l'évolution des systèmes d'intégration. Un nouveau langage d'ontologie web et ses fondements logiques sont proposées afin de capturer la sémantique des sources de données relationnelles, tout en assurant le raisonnement décidable et automatique sur les informations provenant des sources. Une traduction automatisée des modèles ORM en ontologies est introduite pour permettre d'extraire la sémantique des données rapidement et sans faillibilité. Ce mécanisme prévoit la coexistence d'autre sources d'informations, tel que l'hypertexte, intégrées à l'environnement web sémantique. Cette thèse constitue une avancée dans un certain nombre de domaine, notamment dans l'intégration de données, l'ingénierie des ontologies, les logiques de descriptions, et la modélisation conceptuelle. Ce travail pourra fournir les fondations pour d'autres investigations pour intégrer les données provenant de sources relationnelles vers le web sémantique
The Semantic Web is a new Web paradigm that provides a common framework for data to be shared and reused across applications, enterprises and community boundaries. The biggest problem we face right now is a way to ``link'' information coming from different sources that are often heterogeneous syntactically as well as semantically. Today much information is stored in relational databases. Thus data integration from relational sources into the Semantic Web is in high demand. The objective of this thesis is to provide methods and techniques to address this problem. It proposes an approach based on a combination of ontology-based schema representation and description logics. Database schemas in the approach are designed using ORM methodology. The stability and flexibility of ORM facilitate the maintenance and evolution of integration systems. A new web ontology language and its logic foundation are proposed in order to capture the semantics of relational data sources while still assuring a decidable and automated reasoning over information from the sources. An automatic translation of ORM models into ontologies is introduced to allow capturing the data semantics without laboriousness and fallibility. This mechanism foresees the coexistence of others sources, such as hypertext, integrated into the Semantic Web environment. This thesis constitutes the advances in many fields, namely data integration, ontology engineering, description logics, and conceptual modeling. It is hoped to provide a foundation for further investigations of data integration from relational sources into the Semantic Web
28

Ségura-Devillechaise, Marc. "Traitement par aspects des problèmes d'évolution logicielle dans les caches Web". Nantes, 2005. http://www.theses.fr/2005NANT2148.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse aborde le problème de la multiplication des machines intermédiaires sur Internet. L’étude des performances de ce dernier motive l’existence de ces dernières afin de résoudre les problèmes de latence. C’est la multiplication des services disponibles sur Internet qui appelle le pullement des machines intermédiaires : chaque fournisseur de service cherche à déployer, ou faire déployer, des machines diminuant la latence des services qu’il fournit. Chaque service spécifique appelle une stratégie de réplication particulière nourrissant à son tour l’explosion du nombre de machines intermédiaires déployées aux frontières des réseaux constituant Internet. Afin de remédier à cette explosion, notre contribution se résume à la construction d’un cache Web adaptable. Nous proposons d’utiliser la programmation par aspect afin de faire d’un cache Web patrimoniel : squid un cache Web ouvert. Les aspects tissés à la volée permettent de construire l’interface entre le cache et l’adaptation. L’avantage de cette approche est de retarder le moment de la spécification de l’interface d’adaptation au moment seulement où les programmeurs sont capables de la définir, c’est-à-dire au moment où l’adaptation est programmée. En l’absence de langage à aspects susceptible de servir de support à notre démarche, nous avons conçu notre propre langage d’aspects. D’après les évaluations que nous avons pu conduire, les performances d’Arachne - notre système à aspects - permettent de faire de squid un cache Web ouvert. Ainsi, le déploiement de notre proposition est une piste prometteuse pour mettre un terme au pullulement des machines intermédiaires sur Internet. En accélérant le déploiement des adaptations des stratégies de réplication existantes réduisant la latence pour les nouveaux services, notre proposition augmente les performances d’Internet tout en mutualisant les investissements nécessaires à son infrastructure
This thesis addresses the problem of the number of intermediaries over the Internet. Internet performance motivates the need for intermediaries to reduce tnetwork latency. The multiplication of services available over Intenet fiouls the ever growing number of intermediaries: every service provider deploys -or requests subscontractors to deploy - machines reducing the latency of the services he provides. Each specific service requires a particular replication strategy increasing consequently the number of intermediaries. To solve this issue, we propose to build an adaptable Web cache. We propose to use aspect-oriented programming to turn a legacy Web cache : squid into an open Web cache. Aspects, woven on the fly, are used to build the interface between the cache and the adaptation. The main advantage of this approach is to delay the specification of the adaptation interface up to the time where programmers are ready to design it that is when they are programming the adaptation. In the absence of an appropriate aspect system capable of supporting our approach, we devised our own one. According to our evaluation, Arachne, our aspect system, allows to turn squid into an open Web cache. We conlude that our approach could put an end to the multiplication of intermediaries over Internet. Speeding up the deployment of the adaptation of existing replication strategies would increase Internet performance while sharing the investment in its infrastructure
29

Al-Najdi, Atheer. "Une approche basée sur les motifs fermés pour résoudre le problème de clustering par consensus". Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4111/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le clustering est le processus de partitionnement d’un ensemble de données en groupes, de sorte que les instances du même groupe sont plus semblables les unes aux autres qu’avec celles de tout autre groupe. De nombreux algorithmes de clustering ont été proposés, mais aucun d’entre eux ne s’avère fournir une partitiondes données pertinente dans toutes les situations. Le clustering par consensus vise à améliorer le processus de regroupement en combinant différentes partitions obtenues à partir de divers algorithmes afin d’obtenir une solution de consensus de meilleure qualité. Dans ce travail, une nouvelle méthode de clustering par consensus, appelée MultiCons, est proposée. Cette méthode utilise la technique d’extraction des itemsets fréquents fermés dans le but de découvrir les similitudes entre les différentes solutions de clustering dits de base. Les similitudes identifiées sont représentées sous une forme de motifs de clustering, chacun définissant un accord entre un ensemble de clusters de bases sur le regroupement d’un ensemble d’instances. En traitant ces motifs par groupes, en fonction du nombre de clusters de base qui définissent le motif, la méthode MultiCons génère une solution de consensus pour chaque groupe, générant par conséquence plusieurs consensus candidats. Ces différentes solutions sont ensuite représentées dans une structure arborescente appelée arbre de consensus, ouConsTree. Cette représentation graphique facilite la compréhension du processus de construction des multiples consensus, ainsi que les relations entre les instances et les structures d’instances dans l’espace de données
Clustering is the process of partitioning a dataset into groups, so that the instances in the same group are more similar to each other than to instances in any other group. Many clustering algorithms were proposed, but none of them proved to provide good quality partition in all situations. Consensus clustering aims to enhance the clustering process by combining different partitions obtained from different algorithms to yield a better quality consensus solution. In this work, a new consensus clustering method, called MultiCons, is proposed. It uses the frequent closed itemset mining technique in order to discover the similarities between the different base clustering solutions. The identified similarities are presented in a form of clustering patterns, that each defines the agreement between a set of base clusters in grouping a set of instances. By dividing these patterns into groups based on the number of base clusters that define the pattern, MultiCons generates a consensussolution from each group, resulting in having multiple consensus candidates. These different solutions are presented in a tree-like structure, called ConsTree, that facilitates understanding the process of building the multiple consensuses, and also the relationships between the data instances and their structuring in the data space. Five consensus functions are proposed in this work in order to build a consensus solution from the clustering patterns. Approach 1 is to just merge any intersecting clustering patterns. Approach 2 can either merge or split intersecting patterns based on a proposed measure, called intersection ratio
30

Monlon-Borrel, Jean-Louis. "Systèmes interactifs d'aide à la décision en agriculture : de l'intérêt d'un raisonnement basé sur les modèles et d'une approche orientée objets". Toulouse 1, 1992. http://www.theses.fr/1992TOU10010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'informatique agricole se caractérise aujourd'hui par une large gamme d'applications, mais peu d'entre elles répondent au besoin d’aide à la décision ressentie par leurs utilisateurs. L'intelligence artificielle et les systèmes experts ont tenté de pallier cette déficience, principalement dans le domaine du diagnostic qui est le point central de toute application d'aide à la décision. La représentation des connaissances sous forme de règles de production a permis une avancée technologique considérable dans le sens de l'approche déclarative des problèmes, mais a également présenté des limites et insuffisances qui ont rendu les systèmes experts peu opérationnels. Dès lors, plusieurs propositions sont faites pour une nouvelle génération de systèmes interactifs d'aide à la décision, parmi lesquelles un raisonnement profond basé sur les modèles, une interface utilisateur propice au cheminement heuristique lors de la réflexion, et une approche orientée objets, tant au niveau de la conception que de la réalisation. L'ensemble de ces propositions est illustré par la présentation de Rentagri, progiciel d'analyse de la rentabilité des exploitations agricoles
Data processing in agriculture is characterised by a wide range of packages but few of them are really decision support systems. Artificial intelligence and expert systems tried to make up for this lack, especially in the domain of diagnosis which is often the determining key of all decision support system. Knowledge representation with production rules allows declarative way of programming but this approach turns out to be inadequate and restrictive to such an extend that most expert systems weren't operational from then on, several proposals have been made for a new kind of decision support systems including a model-based reasoning method, a high level user interface and object oriented approach. All these proposals were validated by the system Rentagri for financial diagnosis in farm management
31

Chaari, Anis. "Nouvelle approche d'identification dans les bases de données biométriques basée sur une classification non supervisée". Phd thesis, Université d'Evry-Val d'Essonne, 2009. http://tel.archives-ouvertes.fr/tel-00549395.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux effectués dans le cadre de cette thèse portent sur l'identification automatique de visages dans des bases de données d'images numériques. L'objectif est de simplifier le déroulement de l'identification biométrique qui consiste à la recherche de l'identité requête parmi l'ensemble des individus de la base de données préenregistrée, appelée aussi galerie. En effet, le schéma d'identification classique est complexe et très coûteux notamment dans le cas de grandes bases de données biométriques. Le processus original que nous proposons ici a pour objectif de réduire la complexité et d'améliorer les performances en terme de temps de calcul et de taux d'identification. Dans ce cadre biométrique, nous avons proposé une étape de classification non supervisée ou clustering des visages pour partitionner la base d'images en plusieurs sous ensembles cohérents et bien discriminés. Pour ce faire, l'algorithme de clustering vise à extraire, pour chaque visage, un ensemble de descripteurs, appelé signature, qui lui soit spécifique. Trois techniques de représentation faciales ont été développées dans le but d'extraire des informations différentes et complémentaires décrivant le visage humain : deux méthodes factorielles d'analyse multidimensionnelle et de projection des données (méthodes dites « Eigenfaces » et « Fisherfaces ») ainsi qu'une méthode d'extraction des moments géométriques de Zernike. Sur la base des différentes classes de signatures extraites pour chaque visage plusieurs méthodes de clustering sont mises en compétition afin de dégager la classification optimale qui conduit à une meilleure réduction de la galerie. Les méthodes retenues sont, soit de type « centres mobiles » telles que les K-moyennes et les centres mobiles de Forgy, ou de type « agglomérative » telle que la méthode de BIRCH. Sur la base de la dépendance des partitions générées, ces différentes stratégies classificatoires sont ensuite combinées suivant une architecture parallèle de manière à optimiser la réduction de l'espace de recherche à un sous ensemble de la base de données. Les clusters retenus in fine étant ceux pour lesquels la probabilité d'appartenance de l'identité requête est quasi certaine.
32

Aoun-Allah, Mohamed. "Le forage distribué des données : une approche basée sur l'agrégation et le raffinement de modèles". Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23393/23393.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Avec l’informatisation accrue de toutes les sphères d’activités de la société, nous assistons de nos jours à une explosion de la quantité de données électroniques existantes. C’est pourquoi, nous devons avoir recours à des outils automatiques qui sont à même d’analyser automatiquement les données et de ne nous fournir que l’information pertinente et résumée par rapport à ce qui est recherché. Les techniques de forage de données sont généralement utilisées à cette fin. Cependant, ces dernières nécessitent généralement un temps de calcul considérable afin d’analyser un large volume de données. Par ailleurs, si les données sont géographiquement distribuées, les regrouper sur un même site pour y créer un modèle (un classificateur par exemple) peut s’avérer très coûteux. Pour résoudre ce problème, nous proposons de construire plusieurs modèles, et plus précisément plusieurs classificateurs, soit un classificateur par site. Ensuite, les règles constituant ces classificateurs sont regroupées puis filtrées en se basant sur certaines mesures statistiques et une validation effectuée à partir de très petits échantillons provenant de chacun des sites. Le modèle résultant, appelé méta-classificateur, est, d’une part, un outil de prédiction pour toute nouvelle instance et, d’autre part, une vue abstraite de tout l’ensemble de données. Nous basons notre approche de filtrage de règles de classification sur une mesure de confiance associée à chaque règle qui est calculée statistiquement et validée en utilisant les échantillons recueillis. Nous avons considéré plusieurs techniques de validation tel qu’il sera présenté dans cette thèse.
With the pervasive use of computers in all spheres of activity in our society, we are faced nowadays with the explosion of electronic data. This is why we need automatic tools that are able to automatically analyze the data in order to provide us with relevant and summarized information with respect to some query. For this task, data mining techniques are generally used. However, these techniques require considerable computing time in order to analyze a huge volume of data. Moreover, if the data is geographically distributed, gathering it on the same site in order to create a model (a classifier for instance) could be time consuming. To solve this problem, we propose to build several models, that is one classifier by site. Then, rules constituting these classifiers are aggregated and filtered based on some statistical measures, and a validation process is carried out on samples from each site. The resulting model, called a metaclassifier is, on one hand, a prediction tool for any new (unseen) instance and, on the other hand, an abstract view of the whole data set. We base our rule filtering approach on a confidence measure associated with each rule, which is computed statistically and then validated using the data samples (one from each site). We considered several validation techniques such as will be discussed in this thesis.
33

Boudoin, Pierre. "L'interaction 3D adaptative : une approche basée sur les méthodes de traitement de données multi-capteurs". Phd thesis, Université d'Evry-Val d'Essonne, 2010. http://tel.archives-ouvertes.fr/tel-00553369.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La réalité virtuelle est un domaine touchant à plusieurs disciplines. Par le biais de l'interaction 3D l'Homme peut accomplir des tâches dans un environnement virtuel en utilisant des techniques d'interaction 3D. Ces techniques sont souvent mono-tâches et s'appuient sur l'utilisation de matériel de réalité virtuelle bien spécifique. Le passage d'une tâche de l'interaction 3D à une autre est le plus souvent à la charge de l'utilisateur, ou bien du programmeur. Cependant de nombreux problèmes sont présents dans ces systèmes, dits de réalité virtuelle. En effet, des problèmes matériels le plus souvent dû aux technologies utilisées sont présents et peuvent induire un comportement erratique du système. De plus, il peut arriver que les techniques d'interaction 3D ne soient pas adaptées à l'application de réalité virtuelle, ou que celles-ci soient trop complexes à utiliser pour le novice. Tous ces problèmes nuisent à l'immersion de l'être humain dans l'environnement virtuel ainsi qu'aux performances de l'interaction 3D et donc à l'accomplissement de la tâche dans l'application de réalité virtuelle. L'objectif de ce travail est de proposer un système d'interaction 3D adaptative. Par interaction 3D adaptative, on cherche à définir une interaction 3D qui soit continue tant au niveau des données qu'au basculement d'une tâche à l'autre. Nous avons donc modélisé et conçu un ensemble de composants pour accomplir cet objectif. Nous avons modélisé une technique d'interaction 3D pouvant être utilisé de manière continue même lors du basculement d'une tâche. Nous avons également conçu un système qui permet d'automatiser le basculement d'une tâche de l'interaction 3D vers une autre en estimant la tâche que souhaite accomplir l'utilisateur. Enfin, un dernier composant a pour rôle d'améliorer la précision et de garantir la continuité du tracking.
34

Benhalima, Djamel-Eddine. "Contribution à la conception d'un système d'analyse expérimentale SICOPE fondée sur une approche orientée-objet : Application à la communication graphique". Valenciennes, 1995. https://ged.uphf.fr/nuxeo/site/esupversions/3eea74bf-26cc-473d-9ec6-11405b54fb6c.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le succès de l'analyse expérimentale dans des domaines aussi complexes que la communication graphique fait croitre encore plus le besoin en expérimentations. Or l'élaboration d'un protocole expérimental est une tâche difficile, vu la quantité considérable de paramètres mis en jeu et la multiplicité des critères d'optimisation. Cependant, il existe peu d'outils tels qu'une méthodologie, un système d'aide, qui permettent d'aider les expérimentateurs. Il serait illusoire, en effet, de penser que l'analyse expérimentale est entrée dans sa phase de maturité, car de nombreux problèmes d'ordre méthodologique et d'outils aptes à apporter une aide réelle au processus d'élaboration de protocoles expérimentaux restent posés. L'objectif de ce mémoire est de proposer d'une part, une méthodologie d'étude expérimentale et d'autre part, un système interactif de conception de protocoles expérimentaux SICOPE
35

Zendjebil, Iman mayssa. "Localisation 3D basée sur une approche de suppléance multi-capteurs pour la réalité augmentée mobile en milieu extérieur". Thesis, Evry-Val d'Essonne, 2010. http://www.theses.fr/2010EVRY0024/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La démocratisation des terminaux mobiles telle que les téléphones cellulaires, les PDAs et les tablettes PC a rendu possible le déploiement de la réalité augmentée dans des environnements en extérieur à grande échelle. Cependant, afin de mettre en œuvre de tels systèmes, différentes problématiques doivent êtres traitées. Parmi elle, la localisation représente l’une des plus importantes. En effet, l’estimation de la position et de l’orientation (appelée pose) du point de vue (de la caméra ou de l’utilisateur) permet de recaler les objets virtuels sur les parties observées de la scène réelle. Dans nos travaux de thèse, nous présentons un système de localisation original destiné à des environnements à grande échelle qui utilise une approche basée vision sans marqueur pour l’estimation de la pose de la caméra. Cette approche se base sur des points caractéristiques naturels extraits des images. Etant donné que ce type d’approche est sensible aux variations de luminosité, aux occultations et aux mouvements brusques de la caméra, qui sont susceptibles de survenir dans l’environnement extérieur, nous utilisons deux autres types de capteurs afin d’assister le processus de vision. Dans nos travaux, nous voulons démontrer la faisabilité d’un schéma de suppléance dans des environnements extérieurs à large échelle. Le but est de fournir un système palliatif à la vision en cas de défaillance permettant également de réinitialiser le système de vision en cas de besoin. Le système de localisation vise à être autonome et adaptable aux différentes situations rencontrées
The democratization of mobile devices such as smartphones, PDAs or tablet-PCs makes it possible to use Augmented Reality systems in large scale environments. However, in order to implement such systems, many issues must be adressed. Among them, 3D localization is one of the most important. Indeed, the estimation of the position and orientation (also called pose) of the viewpoint (of the camera or the user) allows to register the virtual objects over the visible part of the real world. In this paper, we present an original localization system for large scale environments which uses a markerless vision-based approach to estimate the camera pose. It relies on natural feature points extracted from images. Since this type of method is sensitive to brightness changes, occlusions and sudden motion which are likely to occur in outdoor environment, we use two more sensors to assist the vision process. In our work, we would like to demonstrate the feasibility of an assistance scheme in large scale outdoor environment. The intent is to provide a fallback system for the vision in case of failure as well as to reinitialize the vision system when needed. The complete localization system aims to be autonomous and adaptable to different situations. We present here an overview of our system, its performance and some results obtained from experiments performed in an outdoor environment under real conditions
36

Shahzad, Atif. "Une Approche Hybride de Simulation-Optimisation Basée sur la fouille de Données pour les problèmes d'ordonnancement". Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00647353.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une approche hybride basée sur la fouille de données pour découvrir de nouvelles règles de priorité pour le problème l'ordonnancement job-shop est présentée. Cette approche est basée sur la recherche de connaissances supposées être intégrés dans les solutions efficaces fournies par un module d'optimisation préalablement mis en oeuvre et utilisant la recherche tabou. L'objectif est de découvrir les principes directeurs de l'ordonnancement à l'aide de la fouille de données et donc d'obtenir un ensemble de règles capables d'obtenir des solutions efficaces pour un problème d'ordonnancement. Une structure basée sur fouille de données est présentée et mise en œuvre pour un problème de job shop avec comme objectifs le retard maximum et le retard moyen. Les résultats obtenus sont très prometteurs.
37

Parakh, Ousman Yassine Zaralahy. "Une nouvelle approche pour la détection des spams se basant sur un traitement des données catégorielles". Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/5753.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le problème des spams connaît depuis ces 20 dernières années un essor considérable. En effet, le pollupostage pourrait représenter plus de 72% de l'ensemble du trafic de courrier électronique. Au-delà de l'aspect intrusif des spams, ceux-ci peuvent comporter des virus ou des scripts néfastes ; d'où l'intérêt de les détecter afin de les supprimer.Le coût d'un envoi de courriels par un spammeur étant infime, ce dernier peut se permettre de transmettre le spam au plus d'adresse de messagerie électronique. Pour le spammeur qui arrive à récupérer même une petite partie d'utilisateurs, son opération devient commercialement viable. Imaginant un million de courriels envoyés et seul 0,1% de personnes qui se font appâtées [i.e. appâter], cela représente tout de même 1 millier de personnes ; et ce chiffre est très réaliste. Nous voyons que derrière la protection de la vie privée et le maintien d'un environnement de travail sain se cachent également des enjeux économiques. La détection des spams est une course constante entre la mise en place de nouvelles techniques de classification du courriel et le contournement de celles-ci par les spammeurs. Jusqu'alors, ces derniers avaient une avance dans cette lutte. Cette tendance s'est inversée avec l'apparition de techniques basées sur le filtrage du contenu. Ces filtres pour la plupart sont basés sur un classificateur bayésien naïf. Nous présentons dans ce mémoire une approche nouvelle de cette classification en utilisant une méthode basée sur le traitement de données catégorielles. Cette méthode utilise les N-grams pour identifier les motifs significatifs afin de limiter l'impact du morphisme des courriers indésirables.
38

Shahzad, Muhammad Atif. "Une approche hybride de simulation-optimisation basée sur la fouille de données pour les problèmes d'ordonnancement". Nantes, 2011. http://archive.bu.univ-nantes.fr/pollux/show.action?id=53c8638a-977a-4b85-8c12-6dc88d92f372.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une approche hybride basée sur la fouille de données pour découvrir de nouvelles règles de priorité pour le problème d'ordonnancement job-shop est présentée. Cette approche est basée sur la recherche de connaissances supposées être intégrés dans les solutions efficaces fournies par un module d'optimisation préalablement mis en oeuvre et utilisant la recherche tabou. L'objectif est de découvrir les principes directeurs de l’ordonnancement à l'aide de la fouille de données et donc d'obtenir un ensemble de règles capables d’obtenir des solutions efficaces pour un problème d'ordonnancement. Une structure basée sur fouille de données est présentée et mise en oeuvre pour un problème de job shop avec comme objectifs le retard maximum et le retard moyen. Les résultats obtenus sont très prometteurs
A data mining based approach to discover previously unknown priority dispatching rules for job shop scheduling problem is presented. This approach is based upon seeking the knowledge that is assumed to be embedded in the efficient solutions provided by the optimization module built using tabu search. The objective is to discover the scheduling concepts using data mining and hence to obtain a set of rules capable of approximating the efficient solutions for a job shop scheduling problem (JSSP). A data mining based scheduling framework is presented and implemented for a job shop problem with maximum lateness and mean tardiness as the scheduling objectives. The results obtained are very promising
39

Chichignoud, Aurélien. "Approche méthodologique pour le maintien de la cohérence des données de conception des systèmes sur puce". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS069/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le développement de produits complexes demande la maintenance d'un grand nombre de documents interdépendants exprimés dans différents formats. Malheureusement, aujourd'hui, aucun outil et aucune méthodologie ne nous permettent pas de maintenir la cohérence et de propager systématiquement les changements entre ces documents. D'après les observations faites dans l'entreprise STMicroelectronics, lorsqu'un document est modifié, les développeurs doivent propager manuellement la modification à l'ensemble des documents impactés. Pour diverses raisons, ces changements peuvent ne pas être correctement appliqués, voir même ne pas être appliqués du tout. Les documents divergent alors peu à peu, impactant dramatiquement le temps de développement pour réaligner tous les documents. Nous proposons une méthodologie aidant les développeurs à maintenir systématiquement la cohérence entre les documents, basée sur le concept de description d'architecture introduit par l'ISO42010. Premièrement, un modèle est défini pour décrire formellement et complètement des correspondances (liens existants) entre des documents. Ce modèle est défini pour être indépendant des formats de documents, du cycle de développement et des méthodes de travail de l'entreprise. Deuxièmement, ces correspondances sont analysées afin d'aider les développeurs à maintenir la cohérence des documents en les informant lorsqu'un document est modifié. Un prototype mettant en œuvre l’approche proposée a été développé afin d’évaluer la méthodologie. 18 sujets se sont portés volontaires afin d’évaluer l'approche. Ces sujets ont été soumis à deux tests (avec et sans notre méthodologie) impliquant la correction d’incohérences ajoutées dans un ensemble de documents. Ces tests nous ont permis de dégager deux variables : le nombre d’incohérences corrigées et le temps moyen pour corriger les incohérences. Selon notre étude, l’utilisation de notre approche permet de corriger 5,5% d’incohérences en plus en un temps 3,3% plus faible
The development of highly complex products requires the maintenance of a huge set of inter-dependent documents, in various formats. Unfortunately, no tool or methodology is available today to systematically maintain consistency between all these documents. Therefore, according to observations made in STMicroelectronics, when a document changes, stakeholders must manually propagate the changes to the impacted set of dependent documents. For various reasons, they may not well propagate the change, or even may not propagate it at all. Related documents thereby diverge more and more over time. It dramatically impacts productivity to realign documents and make the very wide-ranging corpus of documents consistent. This paper proposes a methodology to help stakeholders to systematically maintain consistency between documents, based on the Architecture Description concept introduced by ISO42010. First, a model is defined to describe formally and completely correspondences between Architecture Description Elements of documents. This model is designed to be independent of documents formats, selected system development lifecycle and the working methods of the industry. Second, these correspondences are analyzed in case of document modification in order to help stakeholders maintaining global corpus consistency. A prototype has been developed, which implements the proposed approach, to evaluate the methodology. 18 subjects volunteered to evaluate the approach. These subjects made two tests (with and without our methodology) involving the correction of inconsistencies added in a set of documents. These tests allowed us to identify two variables: the number of inconsistencies corrected and the average time to correct the inconsistencies. According to our study, the use of the approach helps to correct 5.5% more inconsistencies in a time 3.3% lower
40

Toure, Fadel. "Orientation de l'effort des tests unitaires dans les systèmes orientés objet : une approche basée sur les métriques logicielles". Doctoral thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27081.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les logiciels actuels sont de grandes tailles, complexes et critiques. Le besoin de qualité exige beaucoup de tests, ce qui consomme de grandes quantités de ressources durant le développement et la maintenance de ces systèmes. Différentes techniques permettent de réduire les coûts liés aux activités de test. Notre travail s’inscrit dans ce cadre, est a pour objectif d’orienter l’effort de test vers les composants logiciels les plus à risque à l’aide de certains attributs du code source. À travers plusieurs démarches empiriques menées sur de grands logiciels open source, développés avec la technologie orientée objet, nous avons identifié et étudié les métriques qui caractérisent l’effort de test unitaire sous certains angles. Nous avons aussi étudié les liens entre cet effort de test et les métriques des classes logicielles en incluant les indicateurs de qualité. Les indicateurs de qualité sont une métrique synthétique, que nous avons introduite dans nos travaux antérieurs, qui capture le flux de contrôle ainsi que différentes caractéristiques du logiciel. Nous avons exploré plusieurs techniques permettant d’orienter l’effort de test vers des composants à risque à partir de ces attributs de code source, en utilisant des algorithmes d’apprentissage automatique. En regroupant les métriques logicielles en familles, nous avons proposé une approche basée sur l’analyse du risque des classes logicielles. Les résultats que nous avons obtenus montrent les liens entre l’effort de test unitaire et les attributs de code source incluant les indicateurs de qualité, et suggèrent la possibilité d’orienter l’effort de test à l’aide des métriques.
Current software systems are large, complex and critical. The need for quality requires a lot of tests that consume a large amount of resources during the development and the maintenance of systems. Different techniques are used to reduce the costs of testing activities. Our work is in this context. It aims to guide the unit testing effort distribution on the riskiest software components using the source code attributes. We conducted several empirical analyses on different large object-oriented open source software systems. We identified and studied several metrics that characterize the unit testing effort according to different perspectives. We also studied their relationships with the software class metrics including quality indicators. The quality indicators are a synthetic metric that we introduced in our previous work. It captures control flow and different software attributes. We explored different approaches for unit testing effort orientation using source code attributes and machine learning algorithms. By grouping software metrics, we proposed an effort orientation approach based on software class risk analysis. In addition to the significant relationships between testing metrics and source code attributes, the results we obtained suggest the possibility of using source code metrics for unit testing effort orientation.
41

Zhang, Lei. "Sur une approche isogéométrique pour problèmes multi-champs couplés en grandes transformations". Thesis, Ecole centrale de Marseille, 2016. http://www.theses.fr/2016ECDM0012/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La méthode isogéométrique (IGA) récemment proposée en tant que méthode numérique générique offre de réelles perspectives dans l’unification des modèles géométriques et computationnel. La méthode isogéométrique est intiment liée à la méthode des éléments finis (FEM) étant donné que la méthode est basée sur le même cadre variationnel. Cette méthode a montré dans de nombreuses circonstances de très bonne qualités numériques notamment avec des maillages grossiers (précision numérique, capacité à supporter de grandes déformations…). Notre objectif final dans ce travail est de fournir un environnement de base, numérique et logiciel, pour la simulation de problèmes à champs et physiques multiples pour des pièces élastomériques de type industriel. Dans ce contexte, les points numériques à développer pour l’IGA sont le traitement de l’incompressibilité et le caractère multi-champs du problème thermique dans la formulation de Galerkin. Ainsi dans ce travail nous proposons en premier, un paradigme objet de l’IGA intégré au sein d’une architecture orientée objet en Java, initialement con?ue pour résoudre des problèmes multi-champs couplés en transformations finies. L’approche proposée s’appuie pleinement sur le contexte variationnel existant dans le code dans le cadre des éléments finis pour réduire les développements pour MEF et IGA (une formulation développée en IGA tourne en MEF et vice versa). Dans un second temps, nous avons étudié le problème de l’incompressibilité pour notamment réduire le verrouillage numérique existant toujours sur l’IGA standard. Par un souci de simplicité, nous adoptons des formulations mixtes à 2 champs (déplacement/pression). Afin d’essayer de satisfaire la condition inf-sup en relachant la contrainte sur le déplacement, nous avons développé deux idées de la littérature (naturelle en NURBS) qui consiste à soit dupliquer une fois les n?uds intérieurs du patch des déplacements ou subdiviser les éléments du patch des déplacements. Nous avons étendu ce type d’éléments aux transformations finies. Enfin, et de manière originale, nous avons adopté la même stratégie pour les problèmes à 2-champs pour la thermomécanique. Différentes simulations à petites et grandes déformations confirment le potentiel de l’approche. Enfin, nous évaluons l’ensemble sur un modèle quasi-incompressible thermo-visco-élastique de type Zener sur des éprouvettes classiques dans un contexte physique complexe
Recently proposed as a general purpose numerical method, the Isogeometric Analysis (IGA) offers great perspective to bridge the gap between CAD and CAE. The IGA is closely related to the finite element method (FEM) as the method is based on the same variational framework. Moreover, this method has shown in many circumstances to be have a better accuracy than the FEM (large mesh distortions…). Our final aim in this work is to simulate complex multiphysics problems for elastomers industrial parts. As matter of fact, the two main numerical issues in this context is the incompressibility/quasi-incompressibility of the material and the thermochemical coupling in Galerkin formulations. First, we propose, a programming paradigm of the IGA in an existing Java object-oriented hierarchy initially designed for solving multi-fields coupled problems at finite strains. We develop an approach that fully take benefit of the original architecture to reduce developments for both FEM and IGA (one problem developed in FEM can be run in IGA and vice versa). Second, we investigate volumetric locking issues persisting for low order NURBS element observed with standard displacement formulation as finite elements. To cure the problem, we adopt two-fields mixed formulation (displacement/pressure) for the sake of simplicity and target at assessing different discretizations in stability (inf-sup condition). The basic idea is to first to increase the internal knot’s multiplicity or to subdivide the patch for displacements. These ideas that are directly inspired from patches properties, have been found in the literature for the Stokes problem and extended to large strain in solid mechanics. The comparison between the two-fields mixed formulation and a strain projection method is lead at small and large strains. At last, we originally adopt a similar strategy for thermomechanical problem at small and large strains. In the context two-fields formulation, displacement/temperature, the LBB stability condition must be fulfilled to guaranty stability. Thus, we investigate the choices of patches for two-fields formulation displacement/temperature fields for IGA applied to thermoelasticity. Several numerical results for thermomechanical problems at small and finite strains, linear and nonlinear have been presented. At last, an incompressible viscous thermo-hyperelastic model is evaluated in the IGA framework with the proposed approach
42

Nguyen, Thu Thi Dieu. "Une approche basée sur la logique de description pour l'intégration de données relationnelles dans le web sémantique". Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00507482.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le web sémantique est un nouveau paradigme web qui fournit un cadre commun pour des données devant être partagées et réutilisées à travers des applications, en franchissant les frontières entre les entreprises et les communautés. Le problème majeur que l'on rencontre à présent, est la manière de relier les informations provenant de différentes sources, celles-ci utilisant souvent une syntaxe et une sémantique différentes. Puisqu'aujourd'hui, la plupart des informations sont gardées dans des bases de données relationnelles, l'intégration de source de données relationnelle dans le web sémantique est donc très attendue.
L'objectif de cette thèse est de fournir des méthodes et des techniques pour résoudre ce problème d'intégration des bases de données. Nous proposons une approche combinant des représentations de schémas à base d'ontologie et des logiques de descriptions. Les schémas de base de données sont conçus en utilisant la méthodologie ORM. La stabilité et la flexibilité de ORM facilite la maintenance et l'évolution des systèmes d'intégration. Un nouveau langage d'ontologie web et ses fondements logiques sont proposées afin de capturer la sémantique des sources de données relationnelles, tout en assurant le raisonnement décidable et automatique sur les informations provenant des sources. Une traduction automatisée des modèles ORM en ontologies est introduite pour permettre d'extraire la sémantique des données rapidement et sans faillibilité. Ce mécanisme prévoit la coexistence d'autre sources d'informations, tel que l'hypertexte, intégrées à l'environnement web sémantique.
Cette thèse constitue une avancée dans un certain nombre de domaine, notamment dans l'intégration de données, l'ingénierie des ontologies, les logiques de descriptions, et la modélisation conceptuelle. Ce travail pourra fournir les fondations pour d'autres investigations pour intégrer les données provenant de sources relationnelles vers le web sémantique.
43

Pinard, Hugo. "Imagerie électromagnétique 2D par inversion des formes d'ondes complètes : Approche multiparamètres sur cas synthétiques et données réelles". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAU041/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le radar géologique est une méthode d'investigation géophysique basée sur la propagation d'ondes électromagnétiques dans le sous-sol. Avec des fréquences allant de 5 MHz à quelques GHz et une forte sensibilité aux propriétés électriques, le géoradar fournit des images de réflectivité dans des contextes et à des échelles très variés : génie civil, géologie, hydrogéologie, glaciologie, archéologie. Cependant, dans certains cas, la compréhension fine des processus étudiés dans la subsurface nécessite une quantification des paramètres physiques du sous-sol. Dans ce but, l'inversion des formes d'ondes complètes, méthode initialement développée pour l'exploration sismique qui exploite l'ensemble des signaux enregistrés, pourrait s'avérer efficace. Dans cette thèse, je propose ainsi des développements méthodologiques par une approche d'inversion multiparamètres (permittivité diélectrique et conductivité), pour des configurations en transmission, en deux dimensions.Ces développements sont ensuite appliqués à un jeu de données réelles acquises entre forages.Dans une première partie, je présente tout d'abord la méthode numérique utilisée pour modéliser la propagation des ondes électromagnétiques dans un milieu 2D hétérogène, élément indispensable pour mener à bien le processus d'imagerie. Ensuite, j’introduis puis étudie le potentiel des méthodes d’optimisation locale standards (gradient conjugué non linéaire, l-BFGS, Newton tronqué dans ses versions Gauss-Newton et Exact-Newton) pour découpler la permittivité diélectrique et la conductivité électrique. Je montre notamment qu’un découplage effectif n’est possible qu’avec un modèle initial suffisamment précis et la méthode la plus sophistiquée (Newton tronqué). Comme dans le cas général, ce modèle initial n’est pas disponible, il s’avère nécessaire d'introduire un facteur d'échelle qui répartit le poids relatif de chaque classe de paramètres dans l'inversion. Dans un milieu réaliste avec une acquisition entre puits, je montre que les différentes méthodes d'optimisation donnent des résultats similaires en matière de découplage de paramètres. C'est finalement la méthode l-BFGS qui est retenue pour l'application aux données réelles, en raison de coûts de calcul plus faibles.Dans une deuxième partie, j'applique cette méthodologie à des données réelles acquises entre deux forages localisés dans des formations carbonatées, à Rustrel (France, 84). Cette inversion est réalisée en parallèle d'une approche synthétique à l'aide d'un modèle représentatif du site étudié et des configurations d'acquisition similaires. Ceci permet de pouvoir comprendre, contrôler et valider les observations et conclusions obtenues sur les données réelles. Cette démarche montre que la reconstruction de la permittivité est très robuste. A contrario, l'estimation de la conductivité souffre de deux couplages majeurs, avec la permittivité diélectrique, d'une part, et avec l'amplitude de la source estimée, d'autre part. Les résultats obtenus sont confrontés avec succès à des données indépendantes (géophysique depuis la surface, analyse sur échantillons de roche), et permet de bénéficier d'une image haute-résolution des formations géologiques. Enfin, une analyse 3D confirme que les structures 3D à fort contraste de propriétés, telles que la galerie enfouie sur notre site, nécessiteraient une approche de modélisation 3D, notamment pour mieux expliquer les amplitudes observées
Ground Penetrating Radar (GPR) is a geophysical investigation method based on electromagnetic waves propagation in the underground. With frequencies ranging from 5 MHz to a few GHz and a high sensitivity to electrical properties, GPR provides reflectivity images in a wide variety of contexts and scales: civil engineering, geology, hydrogeology, glaciology, archeology. However, in some cases, a better understanding of some subsurface processes requires a quantification of the physical parameters of the subsoil. For this purpose, inversion of full waveforms, a method initially developed for seismic exploration that exploits all the recorded signals, could prove effective. In this thesis, I propose methodological developments using a multiparameter inversion approach (dielectric permittivity and conductivity), for two-dimensional transmission configurations. These developments are then applied to a real data set acquired between boreholes.In a first part, I present the numerical method used to model the propagation of electromagnetic waves in a heterogeneous 2D environment, a much-needed element to carry out the process of imaging. Then, I introduce and study the potential of standard local optimization methods (nonlinear conjugate gradient, l-BFGS, Newton truncated in its Gauss-Newton and Exact-Newton versions) to fight the trade-off effects related to the dielectric permittivity and to the electrical conductivity. In particular, I show that effective decoupling is possible only with a sufficiently accurate initial model and the most sophisticated method (truncated Newton). As in the general case, this initial model is not available, it is necessary to introduce a scaling factor which distributes the relative weight of each parameter class in the inversion. In a realistic medium and for a cross-hole acquisition configuration, I show that the different optimization methods give similar results in terms of parameters decoupling. It is eventually the l-BFGS method that is used for the application to the real data, because of lower computation costs.In a second part, I applied the developed Full waveform inversion methodology to a set of real data acquired between two boreholes located in carbonate formations, in Rustrel (France, 84). This inversion is carried out together with a synthetic approach using a model representative of the studied site and with a similar acquisition configuration. This approach enables us to monitor and validate the observations and conclusions derived from data inversion. It shows that reconstruction of dielectrical permittivity is very robust. Conversely, conductivity estimation suffers from two major couplings: the permittivity and the amplitude of the estimated source. The derived results are successfully compared with independent data (surface geophysics and rock analysis on plugs) and provides a high resolution image of the geological formation. On the other hand, a 3D analysis confirms that 3D structures presenting high properties contrasts, such as the buried gallery present in our site, would require a 3D approach, notably to better explain the observed amplitudes
44

Ané, Thierry. "Changement de temps, processus subordonnés et volatilité stochastique : une approche financière sur des données à haute fréquence". Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090027.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but de cette thèse est de valider mathématiquement la brillante idée de Clark (1973) qui décida de prendre le volume comme processus directeur T définissant le temps économique suivant lequel le prix des actifs financiers devrait être observé. En utilisant des données à haute fréquence et en s'appuyant sur les recherches de microstructure récentes nous montrons, en accord avec de Jones, Kaul et Lison (1994), que le temps économique est déterminé par le nombre de transactions. Nous prouvons, sans hypothèse sur la distribution probabiliste du temps économique T, qu'il est possible de retrouver le caractère gaussien du rendement des actifs, en utilisant le nombre de transaction comme + horloge stochastique ; rythmant l'activité économique. À partir de données tick-by-tick nous trouvons la distribution empirique des rendements, et en utilisant une procédure d'estimation paramétrique, nous calculons les moments du subordinateur T inobservable. Nous montrons ainsi que ces moments coïncident avec ceux du nombre de transactions et explicitons le lien entre changement de temps aléatoire et nombre de transactions. Enfin, nous expliquons comment incorporer la volatilité stochastique dans le cadre plus général des processus subordonnes. Les implications en matière d'évaluation et de couverture d'options sont discutées. Académiques et professionnels se sont penchés récemment sur l'efficacité comparée de la volatilité implicite et de la volatilité historique comme prévision de la volatilité future. S'il est courant de considérer que la volatilité implicite représente la prévision du marché de la volatilité future, nous montrons, en accord avec Canina et Figlewski, et à l'aide de prix de futures et options S&P 500, que la volatilité historique possède un pouvoir de prévision plus grand que la volatilité implicite. Nous montrons comment utiliser les processus subordonnes pour construire un prédicteur encore plus efficace de la volatilité future et qui souligne le rôle important du nombre de transactions
The goal of this thesis is to validate mathematically the brilliant conjecture by Clark (1973) who chose the volume as the subordinating process t defining the economic time in which asset prices should be observed. Along the lines of the recent microstructure literature and using the tick by tick data, we show, in agreement with the recent empirical results by Jones, Kaul and Lipson (1994), that it is in fact the number of trades which defines the economic time. We prove that without any assumption on the distribution of the stochastic time t we recover normality for asset price returns when using the number of trades as the "stochastic clock". We extract from a tick by tick data base the empirical distribution of asset returns and use a parametric estimation procedure to compute the moments of the unknown distribution of the subordinator t. The moments of t coincide with the corresponding moments of the number of trades. Lastly, we explain how the issue of stochastic volatility can be embedded in the general framework of stochastic time changes and what it implies for option pricing and hedging. The effectiveness of implied versus historical volatility in forecasting the future volatility has recently been, with good reasons, the subject of scrutiny both among academics and practitioners. It is common practice to use implied volatility as the market's forecast of future volatility. S&P 500 options and futures prices are used to show that implied volatility is a poor forecast of the realized volatility. The use of subordinated processes can help to construct a good forecast of the realized volatility. Moreover, our time change as well as our volatility forecast highlights the role of the rate of information arrival proxied by the number of trades
45

Kaswengi, Mbwiti Joseph. "L'influence du point de vente sur le capital d'une marque : une approche par les données du panel". Thesis, Orléans, 2012. http://www.theses.fr/2012ORLE0507.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De manière générale, la qualité d’un circuit de distribution peut-elle influencer le capital d’une marque ?C’est la principale question que nous traitons dans cette recherche. De nombreuses recherches ont étépubliées sur les déterminants du capital marque. Cependant, peu de choses ont été dites sur le rôle de ladistribution. De plus, une grande partie des recherches ont considéré l’image du point de vente comme unconcept global ou unidimensionnel. Or, la majorité des recherches affirme que l’image du point de vente estun construit multidimensionnel.Le but de cette recherche est d’étudier la relation entre la qualité de la distribution et le capital de la marquequi y est référencée. Nous développons un modèle qui met en relation les dimensions du magasin (l’imageprix, la variété de l’assortiment, la qualité de MDD, la qualité des produits, la qualité de service etl’accessibilité du magasin) et le capital marque, mesuré à l’aide des constantes qui, sont considéréescomme la mesure de l’utilité incrémentale de la marque. Nous utilisons les variables de contrôle telles que lacatégorie de produits. Nous élaborons un modèle factoriel dynamique en utilisant les données de panel sur4500 ménages, 12 magasins appartenant à de chaines différentes en France sur une période de cinq ans etdemi (2004-2009). Les résultats montrent que les effets de l’image du magasin sur le capital marque varientselon l’enseigne, le format de magasin, les catégories de produits, les marques et les caractéristiques desconsommateurs.D’un point de vue théorique, cette recherche permet d’identifier les dimensions les plus pertinentes del’image d’un point de vente ainsi que leurs conditions d’efficacité. D’un point de vue méthodologique, nousutilisons un modèle factoriel dynamique qui n’a pas encore été utilisé sur la mesure du capital marque. D’unpoint de vue managérial, cette recherche permettra aux responsables de marques de mieux apprécierl’influence d’un magasin sur la valeur de leurs marques
Does a store format quality can generally influence brand equity? This is the main question we address inthis research. Numerous studies have been published on brand equity drivers. However, little has been saidabout the role of distribution. In addition, much research has conceptualized store image as a global or onedimensionalconcept. However, according to the research majority, store image is a multidimensionalconstruct.The purpose of this research is to investigate the relationship between distribution quality and brand equity.We develop a model that connects store image dimensions (price image, assortment variety, private labelquality, product quality, service quality, and location) and brand equity, measured thanks to the interceptswhich are considered as a brand incremental utility measure. The model controls for the variables such asthe product category. We adopt a dynamic factor model using panel data on 4500 households, 12 storesbelonging to different chains in France over a period of five years and a half (2004-2009). The results showthat store image effects on the brand equity depend on the store name, store format, product categories,brands and consumer characteristics.From a theoretical perspective, this research identifies the most relevant store image dimensions as well astheir efficiency conditions. From a methodological point of view, we use a dynamic factor model that has notyet been used on brand equity measurement. From a managerial standpoint, this research may help brandmanagers to better assess the store impact on their brands value
46

Kaswengi, Joseph. "L'influence du point de vente sur le capital d'une marque : une approche par les données du panel". Electronic Thesis or Diss., Orléans, 2012. http://www.theses.fr/2012ORLE0507.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De manière générale, la qualité d’un circuit de distribution peut-elle influencer le capital d’une marque ?C’est la principale question que nous traitons dans cette recherche. De nombreuses recherches ont étépubliées sur les déterminants du capital marque. Cependant, peu de choses ont été dites sur le rôle de ladistribution. De plus, une grande partie des recherches ont considéré l’image du point de vente comme unconcept global ou unidimensionnel. Or, la majorité des recherches affirme que l’image du point de vente estun construit multidimensionnel.Le but de cette recherche est d’étudier la relation entre la qualité de la distribution et le capital de la marquequi y est référencée. Nous développons un modèle qui met en relation les dimensions du magasin (l’imageprix, la variété de l’assortiment, la qualité de MDD, la qualité des produits, la qualité de service etl’accessibilité du magasin) et le capital marque, mesuré à l’aide des constantes qui, sont considéréescomme la mesure de l’utilité incrémentale de la marque. Nous utilisons les variables de contrôle telles que lacatégorie de produits. Nous élaborons un modèle factoriel dynamique en utilisant les données de panel sur4500 ménages, 12 magasins appartenant à de chaines différentes en France sur une période de cinq ans etdemi (2004-2009). Les résultats montrent que les effets de l’image du magasin sur le capital marque varientselon l’enseigne, le format de magasin, les catégories de produits, les marques et les caractéristiques desconsommateurs.D’un point de vue théorique, cette recherche permet d’identifier les dimensions les plus pertinentes del’image d’un point de vente ainsi que leurs conditions d’efficacité. D’un point de vue méthodologique, nousutilisons un modèle factoriel dynamique qui n’a pas encore été utilisé sur la mesure du capital marque. D’unpoint de vue managérial, cette recherche permettra aux responsables de marques de mieux apprécierl’influence d’un magasin sur la valeur de leurs marques
Does a store format quality can generally influence brand equity? This is the main question we address inthis research. Numerous studies have been published on brand equity drivers. However, little has been saidabout the role of distribution. In addition, much research has conceptualized store image as a global or onedimensionalconcept. However, according to the research majority, store image is a multidimensionalconstruct.The purpose of this research is to investigate the relationship between distribution quality and brand equity.We develop a model that connects store image dimensions (price image, assortment variety, private labelquality, product quality, service quality, and location) and brand equity, measured thanks to the interceptswhich are considered as a brand incremental utility measure. The model controls for the variables such asthe product category. We adopt a dynamic factor model using panel data on 4500 households, 12 storesbelonging to different chains in France over a period of five years and a half (2004-2009). The results showthat store image effects on the brand equity depend on the store name, store format, product categories,brands and consumer characteristics.From a theoretical perspective, this research identifies the most relevant store image dimensions as well astheir efficiency conditions. From a methodological point of view, we use a dynamic factor model that has notyet been used on brand equity measurement. From a managerial standpoint, this research may help brandmanagers to better assess the store impact on their brands value
47

Olteanu, Ana-Maria. "Fusion de connaissances imparfaites pour l'appariement de données géographiques : proposition d'une approche s'appuyant sur la théorie des fonctions de croyance". Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00469407.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nos jours, il existe de nombreuses bases de données géographiques (BDG) couvrant le même territoire. Les données géographiques sont modélisées différemment (par exemple une rivière peut être modélisée par une ligne ou bien par une surface), elles sont destinées à répondre à plusieurs applications (visualisation, analyse) et elles sont créées suivant des modes d'acquisition divers (sources, processus). Tous ces facteurs créent une indépendance entre les BDG, qui pose certains problèmes à la fois aux producteurs et aux utilisateurs. Ainsi, une solution est d'expliciter les relations entre les divers objets des bases de données, c'est-à-dire de mettre en correspondance des objets homologues représentant la même réalité. Ce processus est connu sous le nom d'appariement de données géographiques. La complexité du processus d'appariement fait que les approches existantes varient en fonction des besoins auxquels l'appariement répond, et dépendent des types de données à apparier (points, lignes ou surfaces) et du niveau de détail. Nous avons remarqué que la plupart des approches sont basées sur la géométrie et les relations topologiques des objets géographiques et très peu sont celles qui prennent en compte l'information descriptive des objets géographiques. De plus, pour la plupart des approches, les critères sont enchaînés et les connaissances sont à l'intérieur du processus. Suite à cette analyse, nous proposons une approche d'appariement de données qui est guidée par des connaissances et qui prend en compte tous les critères simultanément en exploitant à la fois la géométrie, l'information descriptive et les relations entre eux. Afin de formaliser les connaissances et de modéliser leurs imperfections (imprécision, incertitude et incomplétude), nous avons utilisé la théorie des fonctions de croyance [Shafer, 1976]. Notre approche d'appariement de données est composée de cinq étapes : après une sélection des candidats, nous initialisons les masses de croyance en analysant chaque candidat indépendamment des autres au moyen des différentes connaissances exprimées par divers critères d'appariement. Ensuite, nous fusionnons les critères d'appariement et les candidats. Enfin, une décision est prise. Nous avons testé notre approche sur des données réelles ayant des niveaux de détail différents représentant le relief (données ponctuelles) et les réseaux routiers (données linéaires)
48

Teguiak, Henry Valery. "Construction d'ontologies à partir de textes : une approche basée sur les transformations de modèles". Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2012. http://tel.archives-ouvertes.fr/docs/00/78/62/60/PDF/ISAE-ENSMA_2012-12-12_Thesis_TEGUIAK.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis son émergence au début des années 1990, la notion d'ontologie s'est rapidement diffusée dans un grand nombre de domaines de recherche. Compte tenu du caractère prometteur de cette notion, de nombreux travaux portent sur l'utilisation des ontologies dans des domaines aussi divers que la recherche d'information, le commerce électronique, le web sémantique, l'intégration de données, etc. L'efficacité de tous ces travaux présuppose l'existence d'une ontologie de domaine susceptible d'être utilisée. Or, la conception d'une telle ontologie s'avère particulièrement difficile si l'on souhaite qu'elle fasse l'objet de consensus. S'il existe des outils utilisés pour éditer une ontologie supposée déjà conçue, et s'il existe également plusieurs plate-formes de traitement automatique de la langue permettant d'analyser automatiquement les corpus et de les annoter tant du point de vue syntaxique que statistique, il est difficile de trouver une procédure globalement acceptée, ni a fortiori un ensemble d'outils supports permettant de concevoir une ontologie de domaine de façon progressive, explicite et traçable à partir d'un ensemble de ressources informationnelles relevant de ce domaine. L'objectif du projet ANR DaFOE4App (Differential and Formal Ontologies Editor for Application), dans lequel s'inscrit notre travail, était de favoriser l'émergence d'un tel ensemble d'outils. Contrairement à d'autres outils de construction d'ontologies, la plate-forme DaFOE, présentée dans cette thèse, ne propose pas un processus de construction figé ni en nombre d'étapes, ni sur la représentation des étapes. En effet, dans cette thèse nous généralisons le processus de construction d'ontologies pour un nombre quelconque d'étapes. L'intérêt d'une telle généralisation étant, par exemple, d'offrir la possibilité de raffiner le processus de construction en insérant ou modifiant des étapes. On peut également souhaiter supprimer certaines étapes à fin de simplifier le processus de construction. L'objectif de cette généralisation est de minimiser l'impact de l'ajout, suppression ou modification d'une étape dans le processus global de construction d'ontologies, tout en préservant la cohérence globale du processus de construction. Pour y parvenir, notre approche consiste à utiliser l'Ingénierie Dirigée par les Modèles pour caractériser chaque étape au sein d'un modèle et ensuite ramener le problème du passage d'une étape à l'autre à un problème de mapping de modèles. Les mappings établis entre les modèles sont ensuite utilisés pour semi-automatiser le processus de construction d'ontologies. Ce processus de construction se faisant dans un contexte persistant de base de données, nous proposons dans cette thèse, d'une part, pour les bases de données dites à base de modèles (BDBM) du fait qu'elles permettent de stocker à la fois les données et les modèles décrivant ces données, une extension pour la prise en compte des mappings, et, d'autre part, nous proposons le langage de requête MQL (Mapping Query Language) qui, en masquant la complexité de l'architecture de la BDBM facilite son exploitation. L'originalité du langage MQL se trouve dans sa capacité, au travers de requêtes syntaxiquement compactes, à explorer transitivement tout ou partie du graphe de mappings lors d'une recherche d'informations
Since its emergence in the early 1990s, the notion of ontology has been quickly distributed in many areas of research. Given the promise of this concept, many studies focus on the use of ontologies in many areas like information retrieval, electronic commerce, semantic Web, data integration, etc. . The effectiveness of all this work is based on the assumption of the existence of a domain ontology that is already built an that can be used. However, the design of such ontology is particularly difficult if you want it to be built in a consensual way. If there are tools for editing ontologies that are supposed to be already designed, and if there are also several platforms for natural language processing able to automatically analyze corpus of texts and annotate them syntactically and statistically, it is difficult to find a globally accepted procedure useful to develop a domain ontology in a progressive, explicit and traceable manner using a set of information resources within this area. The goal of ANR DaFOE4App (Differential and Formal Ontology Editor for Application) project, within which our work belongs to, was to promote the emergence of such a set of tools. Unlike other tools for ontologies development, the platform DaFOE presented in this thesis does not propose a methodology based on a fixed number of steps with a fixed representation of theses steps. Indeed, in this thesis we generalize the process of ontologies development for any number of steps. The interest of such a generalization is, for example, to offer the possibility to refine the development process by inserting or modifying steps. We may also wish to remove some steps in order to simplify the development process. The aim of this generalization is for instance, for the overall process of ontologies development, to minimize the impact of adding, deleting, or modifying a step while maintaining the overall consistency of the development process. To achieve this, our approach is to use Model Driven Engineering to characterize each step through a model and then reduce the problem of switching from one step to another to a problem of models transformation. Established mappings between models are then used to semi-automate the process of ontologies development. As all this process is stored in a database, we propose in this thesis, for Model Based Database (MBDB) because they can store both data and models describing these data, an extension for handling mappings. We also propose the query language named MQL (Mapping Query Language) in order to hide the complexity of the MBDB structure. The originality of the MQL language lies in its ability, through queries syntactically compact, to explore the graph of mappings using the transitivity property of mappings when retrieving informations
49

Bouzillé, Guillaume. "Enjeux et place des data sciences dans le champ de la réutilisation secondaire des données massives cliniques : une approche basée sur des cas d’usage". Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1B023/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La dématérialisation des données de santé a permis depuis plusieurs années de constituer un véritable gisement de données provenant de tous les domaines de la santé. Ces données ont pour caractéristiques d’être très hétérogènes et d’être produites à différentes échelles et dans différents domaines. Leur réutilisation dans le cadre de la recherche clinique, de la santé publique ou encore de la prise en charge des patients implique de développer des approches adaptées reposant sur les méthodes issues de la science des données. L’objectif de cette thèse est d’évaluer au travers de trois cas d’usage, quels sont les enjeux actuels ainsi que la place des data sciences pour l’exploitation des données massives en santé. La démarche utilisée pour répondre à cet objectif consiste dans une première partie à exposer les caractéristiques des données massives en santé et les aspects techniques liés à leur réutilisation. La seconde partie expose les aspects organisationnels permettant l’exploitation et le partage des données massives en santé. La troisième partie décrit les grandes approches méthodologiques en science des données appliquées actuellement au domaine de la santé. Enfin, la quatrième partie illustre au travers de trois exemples l’apport de ces méthodes dans les champs suivant : la surveillance syndromique, la pharmacovigilance et la recherche clinique. Nous discutons enfin les limites et enjeux de la science des données dans le cadre de la réutilisation des données massives en santé
The dematerialization of health data, which started several years ago, now generates na huge amount of data produced by all actors of health. These data have the characteristics of being very heterogeneous and of being produced at different scales and in different domains. Their reuse in the context of clinical research, public health or patient care involves developing appropriate approaches based on methods from data science. The aim of this thesis is to evaluate, through three use cases, what are the current issues as well as the place of data sciences regarding the reuse of massive health data. To meet this objective, the first section exposes the characteristics of health big data and the technical aspects related to their reuse. The second section presents the organizational aspects for the exploitation and sharing of health big data. The third section describes the main methodological approaches in data sciences currently applied in the field of health. Finally, the fourth section illustrates, through three use cases, the contribution of these methods in the following fields: syndromic surveillance, pharmacovigilance and clinical research. Finally, we discuss the limits and challenges of data science in the context of health big data
50

Abbar, Sofiane. "Modèle d'accès personnalisé pour les plateformes de livraison de contenu : une approche basée sur les services". Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0053.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’accès personnalisé adapté aux préférences et aux contextes des utilisateurs est un défi dans plusieurs applications. Ainsi, nous avons proposé un modèle d’accès personnalisé (PAM) basé sur des modèles multidimensionnels de profil utilisateur et de contexte. Le PAM fournit un ensemble de services qui permet la double prise en compte du profil et du contexte lors de la personnalisation. Ces services servent, entre autres, à : la découverte automatique des contextes d’un utilisateur ainsi que de ses préférences contextuelles, la projection d’un profil dans un contexte courant et l’appariement des profils et des contenus pour le calcule de recommandations. Nous avons également montré que la composition de ses services permet d’intégrer le contexte dans une application personnalisée, sans altérer son fonctionnement interne. Dans ce cas précis, nous avons instancié le PAM pour définir des systèmes de recommandation sensibles aux contextes, qui ont servi à l’évaluation de notre approche
Access to relevant information adapted to user’s preferences and contexts is a challenge in many applications. In this thesis, we address the personalization in the context of content delivery platforms. Hence we propose a personalized access model based on multidimensional models of user’s profile and context. The PAM provides a set of services that enable applications to take into account both user’s profile and context within personalization processes, hence delivering more accurate contents. PAM services include, but are not limited to, an automatic approach for contexts and contextual preferences discovery, the projection of user’s profile within his current context, and matching of profiles and contents to provide user recommendations. We also show that PAM services allow a smooth integration of context within personalized applications without changing their inner processes. Thus, we instantiated the PAM to define context-aware recommender systems used to evaluate our approach

Vai alla bibliografia