Siga este enlace para ver otros tipos de publicaciones sobre el tema: Science des donnée.

Tesis sobre el tema "Science des donnée"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Science des donnée".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Jerbi, Khaled. "Synthèse Matérielle Haut Niveau des Programmes Flot de Donnée RVC". Phd thesis, INSA de Rennes, 2012. http://tel.archives-ouvertes.fr/tel-00827163.

Texto completo
Resumen
L'évolution des algorithmes de traitement de la vidéo a impliqué l'apparition de plusieurs standards. Ces standards présentent plusieurs algorithmes communs. Cependant, il n'est pas facile de réutiliser ces algorithmes à cause du monolithisme des codes. Pour résoudre ces problèmes, la communauté ISO/IEC MPEG a créé le standard " Reconfigurable Video Coding " (RVC) basé sur le principe que les algorithmes peuvent être définis sous la forme d'une librairie de composants séparés suivant le modèle de calcul flot de données. Ainsi, les composants sont normalisés au lieu du décodeur entier. Un programme flot de données peut être décrit comme un graphe orienté dont les sommets représentent les process (acteurs) à exécuter et les arcs représentent les FIFOs de communication entre ces processes. Les informations échangées dans les FIFOs s'appellent des jetons. Ce concept fait en sorte que les process sont totalement indépendants les uns des autres et c'est seulement la présence de jetons dans les FIFOs qui est responsable du déclanchement d'un process. Pour traduire ce modèle de calcul en une description fonctionnelle, un langage spécifique appelé CAL Actor Language (CAL) est considéré dans ce travail. Ce langage est standardisé par la norme MPEG-RVC sous le nom RVC-CAL. Le standard RVC est supporté par une infrastructure complète pour concevoir et compiler le RVC-CAL en implémentations matérielles et logicielles mais les compilateurs hardware existants présentent plusieurs limitations essentiellement pour la validation et la compilation de certaines structures haut niveau du langage RVC-CAL. Pour la validation, nous proposons une méthodologie fonctionnelle qui permet la validation des algorithmes dans toutes les étapes du flow de conception. Nous montrons dans ce document l'impact important de cette méthodologie sur la réduction du temps de conception. Concernant les limitations de la compilation hardware, nous introduisons une transformation automatique que nous avons intégrée dans le cœur d'un compilateur du langage RVC-CAL appelé Orcc (Open RVC-CAL Compiler). Cette transformation détecte les structures non supportées par les compilateurs hardware et réalise les changements nécessaires dans la représentation intermédiaire de Orcc pour obtenir un code synthétisable tout en conservant le comportement global de l'acteur. Cette transformation a résolu le plus important goulot d'étranglement de la génération hardware à partir des programmes flow de données. Pour évaluer nos méthodologies, nous avons appliqué la vérification fonctionnelle sur plusieurs applications de traitement d'image et de vidéo et nous avons appliqué la génération matérielle automatique sur le décodeur MPEG-4 part 2 Simple Profile et le codec d'images fixes LAR et nous proposons des études comparatives pour ces deux contextes applicatifs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Dumas, Menjivar Marlon. "TEMPOS : une plate-forme pour le développement d'applications temporelles au dessus de SGBD à objets". Phd thesis, Université Joseph Fourier (Grenoble), 2000. http://tel.archives-ouvertes.fr/tel-00006741.

Texto completo
Resumen
Les données temporelles sont présentes dans de nombreuses applications utilisant des Systèmes de Gestion de Bases de Données (SGBD). Aussi, la plupart de ces systèmes offrent des types correspondant aux concepts de date et de durée, grâce auxquels il est possible de modéliser des associations temporelles simples, comme par exemple la date de naissance ou l'âge d'une personne. Toutefois, à quelques nuances près, aucun de ces systèmes n'offre des abstractions dédiées à la modélisation d'associations temporelles plus complexes, telles que l'historique du salaire d'un employé, ou la séquence d'annotations attachées à une vidéo. Dès lors, ces associations doivent être codées au travers de constructeurs de type tels que ''liste'' et ''n-uplet'', et la sémantique de ce codage doit être intégrée dans la logique des programmes applicatifs, accroissant par là leur complexité. Pour combler ces lacunes, des extensions dites ''temporelles'' de modèles et de langages pour Bases de Données ont été proposées. Cette thèse analyse et unifie les contributions de ces travaux, dans le but de les intégrer dans une extension temporelle du standard pour SGBD à objets de l'ODMG. Le résultat est une plate-forme logicielle baptisée TEMPOS, fondée sur trois modèles de sophistication croissante : un modèle du temps, un modèle d'historiques et un modèle d'objets et de propriétés temporels. Ce dernier fournit des fonctionnalités facilitant la transformation de bases de données conformes à l'ODMG en des bases de données temporelles. à partir de ces trois modèles, des extensions des langages de spécification de schéma et d'interrogation de l'ODMG sont définies. Enfin, un outil de visualisation basé sur un nouveau paradigme de navigation interactive au travers d'objets temporels est développé. L'ensemble des propositions sont formalisées, implantées au dessus d'un SGBD commercial, et validées par des études de cas.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Tlili, Assed. "Structuration des données de la conception d'un bâtiment pour une utilisation informatique". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1986. http://tel.archives-ouvertes.fr/tel-00529509.

Texto completo
Resumen
Cette recherche propose une structure et un dictionnaire de données de la conception thermique d'un bâtiment d'habitation. L'analyse qui y est effectuée facilite la tâche des créateurs de logiciels spécifiques aux différents domaines de la conception des bâtiments en les dispensant des analyses séparées et répétées. Ces logiciels se partagent les données, saisies et manipulées une seule fois, et les échangent entre eux sans problèmes de compatibilité. La démarche se résume en quatre points : - L'analyse préliminaire de la conception d'un bâtiment fournit des listes, de phases, de fonctions et tâches, de dossiers et documents, et enfin d'ouvrages, à partir desquelles pourraient être collectées les données. - Cette collecte sera effectuée dans le domaine restreint de la conception thermique, pour permettre une analyse plus détaillée. Celle-ci aboutit, grâce aux méthodes de structuration, à la "structure brute" du premier niveau, qui contient des fichiers, et à la "structure simplifiée" du second niveau, qui contient des structures de données. - La "méta-structure" du troisième niveau contient la totalité des résultats dans le fichier "STRUCTURE" : nomenclature des données classées par types, et le fichier "DICTIONNAIRE" : tous les paramètres des données classées par ordre alphabétique. - L'application est réalisée grâce au fichier "BASE", dont le contenu (identifiants et valeurs des données) est saisi une seule fois par le premier utilisateur. La méthode qui a permis la proposition de ces résultats pour ce domaine restreint reste valable pour les domaines non traités. Le traitement de tous les domaines de la conception d'un bâtiment aboutirait à un système de CAO global.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Coupaye, Thierry. "Un modèle d'exécution paramétrique pour systèmes de bases de données actifs". Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00004983.

Texto completo
Resumen
Un systeme de bases de données actif est capable d'executer automatiquement des actions predefinies en reponse a des evenements specifiques lorsque certaines conditions sont satisfaites. Les regles actives, de la forme evenement-Condition-Action, sont au coeur de cette approche. Dans cette these, nous nous interessons aux modeles d'execution des systemes actifs. Le modele d'execution d'un systeme actif decrit quand et comment (ordonnancement, synchronisation) sont executées, au cours d'une application, les regles declenchées lors de l'execution d'une transaction. Nous proposons tout d'abord une taxonomie et une representation graphique des modeles d'execution des systemes actifs. Nous exposons ensuite un modele d'execution parametrique nomme Flare (Flexible active rule execution). Une caracteristique essentielle de ce modele est de considerer des modules de regles - chaque module etant destine a une utilisation particuliere des regles. On peut specifier, d'une part, le comportement de chaque regle d'un module, et d'autre part, la strategie d'execution de chaque module. Il suffit, pour cela, de choisir une valeur pour chacun des parametres proposes parmi un ensemble de valeurs predefinies. Nous donnons egalement une semantique denotationnelle (ou fonctionnelle) du modele. Nous montrons que ce formalisme fournit une specification implantable que nous utilisons dans le cadre de l'experimentation que nous menons autours de NAOS - un mecanisme de regles actives pour le SGBD a objets O2 - afin de remplacer son moteur d'execution par Flare.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Pham, Thi Ngoc Diem. "Spécification et conception de services d'analyse de l'utilisation d'un environnement informatique pour l'apprentissage humain". Phd thesis, Université du Maine, 2011. http://tel.archives-ouvertes.fr/tel-00689025.

Texto completo
Resumen
Notre travail de recherche s'inscrit dans le cadre du projet de recherche REDiM (Réingénierie des EIAH Dirigée par les Modèles) qui porte sur la réingénierie d'un scénario pédagogique. Il se focalise plus précisément sur l'analyse de traces collectées en session par un EIAH pour fournir à l'enseignant des indicateurs calculés.Dans notre contexte de travail, UTL (Usage Tracking Language) permet de définir des indicateurs sous une forme proche des patrons de conception. Il a été conçu pour répondre aux questions de capitalisation et de réutilisation. Par contre, UTL ne disposait initialement pas de moyens pour spécifier formellement la façon de calculer l'indicateur à partir des traces collectées. De plus, les approches par développement ad hoc d'indicateurs ne permettent pas de modéliser de façon formelle la méthode de calcul. En général, les patrons de conception se limitent à la description, ils ne peuvent donc pas être automatisés. Des descriptions textuelles dans UTL pour produire un indicateur à partir des traces ne permettent pas de générer automatiquement les valeurs d'un indicateur.Notre principal objectif de recherche a donc été de définir des modèles, des méthodes et des outils pour la formalisation et l'automatisation du calcul d'indicateurs. Pour cela, nous avons élaboré une nouvelle version d'UTL qui intègre un langage de combinaison de données nommé DCL4UTL, qui permet de modéliser des indicateurs sous une forme capitalisable, automatisable et réutilisable afin de fournir des indicateurs signifiants à l'enseignant/concepteur. Ces indicateurs peuvent être calculés en temps réel ou après une session, respectivement dans un contexte de tutorat ou de réingénierie du scénario pédagogique.L'originalité de notre approche réside dans le fait que cette version permet non seulement de capitaliser des savoir-faire sur les techniques d'analyse d'usage d'un EIAH, mais aussi, avec le langage DCL4UTL (1) de décrire formellement dans une forme générique des méthodes de modélisation et de calcul d'indicateurs à partir des traces collectées par un EIAH, (2) d'intégrer des fonctions externes (qui proviennent d'autres outils d'analyse), et (3) de créer des données intermédiaires paramétrées facilitant la modélisation et la réutilisation de la méthode de calcul d'indicateurs. Nous avons également développé un outil d'analyse pour calculer les indicateurs modélisés.Cette version est le résultat d'une étude théorique et d'une analyse de l'état de l'art, mais aussi de travaux exploratoires sur la modélisation d'indicateurs et l'analyse de traces. L'approche et le langage ont été validés par plusieurs expérimentations avec plusieurs EIAH existants.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Durrleman, Stanley. "Modèles statistiques de courants pour mesurer la variabilité anatomique de courbes, de surfaces et de leur évolution". Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00631382.

Texto completo
Resumen
Le but de cette thèse est de définir, implémenter et évaluer des modèles statistiques de variabilité de courbes et de surfaces basés sur des courants en anatomie numérique. Les courants ont été récemment introduits en imagerie médicale dans le but de définir une métrique entre courbes et surfaces qui ne dépend pas de correspondance de points entre les structures. Cette métrique a été utilisée pour guider le recalage de données anatomiques. Dans cette thèse, nous proposons d'étendre cet outil pour analyser la variabilité de structures anatomiques grâce à l'inférence de modèles statistiques génératifs. Outre la définition et la discussion de tels modèles, nous proposons un cadre numérique pour les estimer efficacement. Plusieurs applications en imagerie cérébrale et cardiaque tendent à montrer la généralité et la pertinence de cette approche. Dans la première partie, nous introduisons de nouveaux outils numériques d'approximation et de compression des courants. Tout d'abord, un cadre rigoureux de discrétisation basé sur des grilles régulières est proposé: il définit des projections en dimension finie des courants qui convergent vers le courant initial quand la grille devient plus fine. Cela permet de définir de manière générique des algorithmes robustes et efficaces pour traiter les courants, avec un contrôle de la précision numérique. En particulier, cela donne une implémentation plus stable de l'algorithme de recalage de courants. Enfin, nous définissons une méthode d'approximation qui calcule une représentation éparse d'un courant à n'importe quelle précision grâce à la recherche d'une base adaptée au signal. Cette représentation éparse est d'un grand intérêt pour compresser de grands ensembles de données anatomiques et pour interpréter les statistiques sur de tels ensembles. Dans la deuxième partie, nous définissons un modèle statistique original qui considère un ensemble de courbes ou de surfaces comme le résultat de déformations aléatoires d'une forme prototype inconnue plus des perturbations résiduelles aléatoires dans l'espace des courants. L'inférence de tels modèles sur des données anatomiques décompose la variabilité en une partie géométrique (capturée par des difféomorphismes) et une partie de "texture" (capturée par les courants résiduels). Cette approche nous permet de traiter trois problèmes anatomiques: d'abord l'analyse de la variabilité d'un ensemble de lignes sulcales est utilisée pour décrire la variabilité de la surface corticale, ensuite l'inférence du modèle sur un ensemble de faisceaux de fibres de la matière blanche montre qu'à la fois la partie géométrique et la texture peuvent contenir de l'information anatomiquement pertinente et enfin l'analyse de la variabilité est utilisée dans un contexte clinique pour la prédiction de la croissance du ventricule droit du coeur chez des patients atteints de la Tétralogie de Fallot. Dans la troisième partie, nous définissons des modèles statistiques pour l'évolution de formes. Nous proposons d'abord une méthode de recalage spatio-temporel qui met en correspondance les ensembles de données longitudinales de deux sujets. Ce recalage prend en compte à la fois les différences morphologiques entre les sujets et la différence en terme de vitesse d'évolution. Nous proposons ensuite un modèle statistique qui estime conjointement un scénario moyen d'évolution à partir d'un ensemble de données longitudinales et sa variabilité spatio-temporelle dans la population. Cette analyse ouvre de nouvelles perspectives pour caractériser des pathologies par une différence de vitesse de développement des organes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Le, Xiaohua. "Implémentation d'un modèle d'acteur, application au traitement de données partielles en audit thermique de bâtiment". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1992. http://tel.archives-ouvertes.fr/tel-00529467.

Texto completo
Resumen
L'audit thermique des bâtiments existants, par la nature de l'opération, pose un certain nombre de problèmes liés à la réalisation d'outils informatiques. Un des aspects importants, concernant les informations partielles (incertaines, imprécises et lacunaires) et leur traitement dans un programme informatique, n'est jusqu'alors pas pris en compte par des outils ''classiques". On propose donc, dans cette thèse, d'établir les bases d'une nouvelle génération d'outils d'aide au diagnostic, en utilisant les techniques de programmation avancée. Après une analyse détaillée de la problématique, nous avons construit une couche d'un modèle d'acteur à partir de Scheme, et réalisé une maquette informatique. Certains concepts importants, notamment celui de la "continuation" permettant la mise en oeuvre de structures de contrôle souples, puissantes et élégantes, ont été largement exploités. La réalisation de la maquette permet de montrer les intérêts d'une telle approche.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Katranji, Mehdi. "Apprentissage profond de la mobilité des personnes". Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCA024.

Texto completo
Resumen
La connaissance de la mobilité est un enjeu majeur pour les autorités organisatrices de mobilité et l'aménagement urbain. En raison du manque de définition formelle de la mobilité humaine, l'expression "mobilité des personnes" sera utilisée dans cette ouvrage. Ce sujet sera introduit par une description de l'écosystème en considérant ces acteurs et ces applications.La création d'un modèle d'apprentissage a des prérequis: la compréhension des typologies des ensembles de données disponibles, leurs forces et leurs faiblesses. Cet état de l'art de la connaissance de la mobilité passe par le modèle à quatre étapes qui existe et est utilisé depuis 1970 pour finir sur le renouvellement des méthodologies de ces dernières années.Nos modélisations de la mobilité des personnes sont ensuite présentées. Leur point commun est la mise en avant de l'individu contrairement aux approches classiques qui prennent comme référence la localité. Les modèles que nous proposons s'appuient sur le fait que la prise de décision des individus se fait selon leur perception de l'environnement.Cet ouvrage fini sur l'étude des méthodes d'apprentissage profond des machines de Boltzmann restreintes. Après un état de l'art de cette famille de modèles, nous recherchons des stratégies pour rendre ces modèles viables dans le monde applicatif. Ce dernier chapitre est notre contribution théorique principale, par l'amélioration de la robustesse et la performance de ces modèles
Knowledge of mobility is a major challenge for authorities mobility organisers and urban planning. Due to the lack of formal definition of human mobility, the term "people's mobility" will be used in this book. This topic will be introduced by a description of the ecosystem by considering these actors and applications.The creation of a learning model has prerequisites: an understanding of the typologies of the available data sets, their strengths and weaknesses. This state of the art in mobility knowledge is based on the four-step model that has existed and been used since 1970, ending with the renewal of the methodologies of recent years.Our models of people's mobility are then presented. Their common point is the emphasis on the individual, unlike traditional approaches that take the locality as a reference. The models we propose are based on the fact that the intake of individuals' decisions is based on their perception of the environment.This finished book on the study of the deep learning methods of Boltzmann machines restricted. After a state of the art of this family of models, we are looking for strategies to make these models viable in the application world. This last chapter is our contribution main theoretical, by improving robustness and performance of these models
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Miry, Said. "Contribution à la modélisation globale d'entreprise : décisions et performances dans les systèmes de production". Phd thesis, INSA de Lyon, 1993. http://tel.archives-ouvertes.fr/tel-00850435.

Texto completo
Resumen
Une entreprise industrielle n'est compétitive que si elle offre des produits satisfaisant à diverses exigences qualitatives (qualité, délai de livraison, variété, etc.) et en même temps à des exigences de coûts. Les travaux présentés dans ce mémoire s'intéressent simultanément à l'aspect production et à l'aspect financier d'une entreprise. Ce travail a deux objectifs principaux. Premièrement, la réalisation d'un modèle de simulation d'entreprises industrielles, SIM'l, dans lequel on modélise un système de production et son environnement. Cette maquette permet de construire une démarche pédagogique liée aux problèmes de l'intégration productique. Le principal apport de la maquette est de montrer l'intérêt d'une gestion conjointe des différentes fonctions d'une entreprise industrielle à savoir les approvisionnements, la comptabilité, le marketing et la production. La simulation détaillée de la production permet de montrer les conséquences des décisions et des aléas de la production sur les Résultats économiques de l'entreprise. Deuxièmement, la hiérarchisation des décisions et l'étude des performances d'une entreprise industrielle. L'application de méthodes d'analyse de données nous a permis de déterminer les niveaux de décision et de dégager les indicateurs les plus représentatifs caractérisant les performances du système à chaque niveau de décision. Les résultats obtenus montrent qu'une étude globale d'une entreprise industrielle (modélisation, simulation et évaluation des performances) dans laquelle sont pris en compte des indicateurs économiques peut être menée et peut aider à une bonne gestion à moyen et court terme.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Mocellin, Françoise. "Gestion de données et de présentations multimédias par un SGBD à objets". Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004956.

Texto completo
Resumen
Un Système de Gestion de Bases de Données Multimédia doit être capable de manipuler et gérer les données telles que l'image, le texte, le son ou la vidéo, ainsi que des présentations multimédias. Une présentation synchronise et compose différents objets, chacun possédant des aspects temporels sous forme d'une Ombre Temporelle (constituée d'un délai et d'une durée). La synchronisation est définie par un ensemble de contraintes temporelles. Nous proposons un modèle de comportements d'une présentation dont le but est d'ajouter une nouvelle dimension aux objets pour pouvoir leur associer un comportement particulier au cours de leur présentation. On appelle comportement d'un objet, l'ensemble des actions qu'il est susceptible d'entreprendre suite à des événements lors de sa présentation. Le déroulement de la présentation devient imprévisible et dépend des événements qui se produisent et déclenchent une suite d'actions. L'ensemble des comportements lié à la présentation constitue l'Ombre Comportementale d'un objet. Par exemple, elle permet de traiter l'interaction avec l'utilisateur lors des présentations. Pour montrer la faisabilité de notre approche, nous avons étendu un SGBD à objets existant O2. Ces extensions correspondent à des bibliothèques de classes prédéfinies et réutilisables qui permettent de construire, manipuler, interroger et jouer toutes sortes de présentations.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Canavaggio, Jean-François. "TEMPOS : un modèle d'historiques pour un SGBD temporel". Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004924.

Texto completo
Resumen
Un SGBD temporel doit offrir les fonctionnalités permettant aux applications de dater les informations et de gérer l'histoire de leur évolution. Cette thèse présente le modèle d'historiques TEMPOS et le prototype qui a été réalisé au dessus du SGBD O2. TEMPOS s'appuie sur un modèle du temps, qui permet de manipuler des valeurs temporelles, simples et complexes, exprimées dans différentes unités. Le jeu d'unité est extensible, et les opérations définies sont indépendantes des unités. La multiplicité des formes externes des valeurs temporelles est également prise en compte. Le modèle d'historiques proposé dans TEMPOS intègre les fonctionnalités essentielles attendues pour gérer la dimension historique des informations d'une base de données. La définition de différents types d'historiques (discret, en escalier, interpolé) permet de donner la signification des valeurs saisies et d'interpoler les autres valeurs. Ainsi, en TEMPOS, un historique est vu comme une chronique (séquence de valeurs datées), un domaine temporel d'observation, et une fonction d'interpolation. Le modèle permet diverses structurations des historiques basées sur le regroupement d'instants. Les opérations d'interrogation des historiques sont issues de l'extension temporelle des opérateurs de l'algèbre relationnelle et également d'une adaptation d'opérateurs sur les séquences, qui permettent en particulier de raisonner sur la succession dans le temps. Les opérations classiques de mise à jour sont étendues pour prendre en compte la dimension temporelle. Toutes les opérations sur les historiques sont définies de manière à être indépendantes de la représentation et de l'unité d'observation temporelle des historiques. Le prototype comprend une hiérarchie de classes implantant les types et les opérations proposés dans TEMPOS, et un préprocesseur TempOQL permettant de manipuler des valeurs temporelles dans des requêtes OQL.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Verriez, Quentin. "Rationaliser les pratiques numériques en archéologie : l'exemple des chantiers de fouilles de Bibracte". Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCH035.

Texto completo
Resumen
Cette thèse explore la transition vers une archéologie numérique et ouverte. Elle se penche sur la faisabilité d'une fouille archéologique basée sur des logiciels libres, produisant des données transparentes, structurées et aux formats ouverts. Ces vingt dernières années correspondent en effet à une intensification majeure des usages de technologies numériques en archéologie, impactant la collecte, le traitement, la gestion, la conservation et la diffusion des données. L'approche de la science ouverte offre alors les solutions pour contrôler, exploiter et assurer la conservation de ces nouvelles données. Prenant pour cadre d'expérimentation quatre années de fouilles sur l'oppidum de Bibracte, ce travail examine ainsi les défis d'aligner la production de données sur les principes de la science ouverte, dès la phase de terrain. Il cherche également à sortir des considérations techniques pour éclairer les effets de l'archéologie numérique sur l'utilisateur et son environnement. Ce projet souhaite ainsi contribuer à la modernisation des méthodes archéologiques, en développant des pratiques numériques qui prennent en considération les objectifs des archéologues sur le terrain, en plus d'inscrire leur démarche dans un processus de maîtrise, de partage et de pérennisation de la connaissance archéologique
The thesis examines the move to open, digital archaeology. It investigates the feasibility of free software-based archaeological excavations producing transparent, structured data in open formats. Over the past two decades, the integration of digital technologies in the field of archaeology has increased considerably, affecting the collection, processing, management, preservation and dissemination of data. The open science approach offers solutions for the management, use and protection of this new type of data. This study uses a four-year excavation of the Bibracte Oppidum as a framework to test how open science principles can guide data production during fieldwork. Moreover, it aims to offer insights into the impacts of digital archaeology on its users and surroundings beyond technical concerns. The project aims to modernise archaeological methods by developing digital practices that consider fieldworkers' objectives and integrate their approach into a process of mastering, sharing and preserving archaeological knowledge
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Lobry, Olivier. "Support Mémoire Adaptable Pour Serveurs de Données Répartis". Phd thesis, Université Joseph Fourier (Grenoble), 2000. http://tel.archives-ouvertes.fr/tel-00346893.

Texto completo
Resumen
Du fait qu'il constitue un passage obligé du flux d'information, un serveur de données joue un rôle central dans l'architecture d'un système d'information (SI). Il doit en conséquence implanter des mécanismes de gestion de ressources efficaces et des politiques de gestion adaptées aux caractéristiques comportementales du SI.
Il n'est malheureusement pas possible d'offrir un serveur de données universel capable de répondre aux exigences de tous les SI. Ceux-ci diffèrent en effet significativement par le type des informations qu'ils traitent, la nature des traitements effectués, les propriétés de traitement qu'ils garantissent, les caractéristiques du matériel sous-jacent, etc. De ce fait, chaque système d'information intègre son ou ses propres serveurs de données implantant des politiques de gestion figées.
Les inconvénients d'une telle approche sont loin d'être négligeables. Tout d'abord, la ré-implantation de mécanismes élémentaires de gestion de ressources augmente le coût de conception. Ensuite, la rigidité comportementale réduit considérablement la réactivité à l'évolution tant en qualité qu'en quantité des informations, traitements et ressources matérielles. Enfin, l'opacité des tels systèmes rend difficile leur coexistence sur une même plate-forme.
Cette thèse montre qu'il n'existe pas de politique de gestion de la mémoire idéale. Plutôt que d'essayer d'offrir un serveur idéal, elle tente de définir une infrastructure permettant de concevoir des serveurs de données adaptés et évolutifs. Elle adresse plus particulièrement le problème de la gestion de la mémoire physique et se place dans le contexte des grappes de machines. Elle propose le support mémoire adaptable ADAMS basé sur un modèle de gestion hiérarchique et un modèle de communication par événements. Ce support facilite l'intégration de différents types de politiques tout en séparant bien leurs rôles respectifs sans faire d'hypothèse sur leur inter-dépendances.
Une intégration d'ADAMS à la mémoire virtuelle répartie permanente et adaptable du système Arias est ensuite exposée. ADAMS étend les caractéristiques de ce système afin de prendre en compte les besoins particulier de gestion des serveurs de données tout en réduisant le grain d'adaptabilité. Nous illustrons à travers un exemple comment le support résultant permet d'implanter un serveur de données dont les politiques de gestion peuvent être adaptées dynamiquement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Vandame, Paul. "A la recherche des architectures perdues". Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT035.

Texto completo
Resumen
Cette thèse explore l'optimisation des réseaux de neurones artificiels dans un monde interconnecté où la performance technique se confronte à des contraintes de ressources. Face à l'augmentation des tailles et complexités des architectures neuronales, la thèse propose des approches innovantes pour simplifier et adapter ces architectures à des tâches spécifiques. Elle introduit le concept de modèles "perdus" - soit simples et délaissés par l'histoire, soit mathématiquement non-entraînables - qui sont marginaux ou inimaginables dans les pratiques de conception et d'entraînement aujourd'hui répandues. La thèse s'articule autour de 6 chapitres couvrant l'évolution des modèles d'IA, l'examen des techniques d'optimisation, la conception de modèles frugaux et l'identification de réseaux non-entraînables par des méthodes traditionnelles. Un chapitre clé présente une méthode innovante nommée ANNA pour adapter des architectures existantes, sans faire appel à la descente de gradient traditionnellement utilisée en apprentissage machine. Elle explore ainsi une autre voie d'adaptation des modèles profonds en se basant sur la poursuite orthogonale
This thesis explores the optimization of artificial neural networks in an interconnected world where technical performance faces resource constraints. Facing the increasing sizes and complexities of neural architectures, the thesis proposes innovative approaches to simplify and adapt these architectures to specific tasks. It introduces the concept of "lost" models - either simple and overlooked by history or mathematically untrainable - which are marginal or unimaginable in today's widespread design and training practices. The thesis is structured around 6 chapters covering the evolution of AI models, the review of optimization techniques, the design of frugal models, and the identification of networks untrainable by traditional methods. A key chapter presents an innovative method named ANNA for adapting existing architectures, without resorting to the gradient descent traditionally used in machine learning. It thus explores another path of adaptation for deep models based on orthogonal pursuit
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Ladjouze, Salim. "Problèmes d'estimation dans les séries temporelles stationnaires avec données manquantes". Phd thesis, Université Joseph Fourier (Grenoble ; 1971-2015), 1986. http://tel.archives-ouvertes.fr/tel-00319946.

Texto completo
Resumen
Le problème des données manquantes a été abordé en introduisant les processus modulés en amplitude. Les propriétés de type ergodique (ergodicité au k-ième degré) sont étudiées dans le cadre des processus asymptotiquement stationnaires. Dans le domaine non paramétrique on étudie la consistance de deux estimateurs de la fonction de covariance et la variance asymptotique de l'un deux. On propose ensuite une méthode générale d'estimation de la fonction de densité spectrale du processus étudié. L'estimateur obtenu est étudié du point de vue biais et variance asymptotiques. Des méthodes d'estimation paramétrique, basées sur le périodogramme et du maximum de vraisemblance, sont aussi présentées
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Raymond, Pascal. "Compilation efficace d'un langage déclaratif synchrone : le générateur de code Lustre-V3". Phd thesis, Grenoble INPG, 1991. http://tel.archives-ouvertes.fr/tel-00198546.

Texto completo
Resumen
Ce travail porte sur la production de code séquentiel à partir du langage flot de données synchrone Lustre. La difficulté essentielle provient de l'aspect déclaratif du langage. En effet, il n'y a pas d'instruction de contrôle dans le langage Lustre ; toute la structure de contrôle du code objet doit donc être synthétisée par le compilateur. Cette synthèse consiste à construire un automate fini en simulant exhaustivement le comportement des variables booléennes du programme. Le code produit est particulièrement rapide ; en effet, la plupart des calculs booléens sont effectués une fois pour toute dès la compilation. En contrepartie, l'aspect exhaustif de cette démarche provoque parfois une véritable explosion de la taille du code. Ce problème peut être dû à la complexité intrinsèque du programme source ; il faut dans ce cas chercher un compromis entre rapidité et taille mémoire. Mais l'explosion peut être causée par la méthode de construction, qui produit très souvent des automates non minimaux ; nous avons donc étudié et développé un algorithme original qui construit à coup sûr des automates minimaux. Cet algorithme fait appel à de nombreuses manipulations symboliques de fonctions booléennes, que nous avons pu implémenter efficacement grâce à une représentation basée sur les graphes binaires de décision.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Rezgui, Yacine. "Intégration des systèmes d'informations techniques pour l'exploitation des ouvrages". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1994. http://tel.archives-ouvertes.fr/tel-00523175.

Texto completo
Resumen
La gestion de l'information technique et administrative produite durant le cycle de vie d'un projet de construction est envisageable via une description structurée des données. Cette description destinée à l'utilisateur mais aussi à l'ordinateur peut s'exprimer selon un langage (tel EXPRESS) qui devrait permettre l'inter-opérabilité des systèmes informatiques qui la mettent en oeuvre. Ces derniers manipulent ainsi une structure unique et non ambiguë de données, assurant de la sorte l'intégrité et la cohérence de l'information produite et manipulée. La description de cette structure est communément appelée "Modèle de Données". Le document est le support favori de description d'un projet d'ingénierie. Il constitue la base conceptuelle et réglementaire de tout processus industriel. L'analyse des documents produits durant le cycle de vie d'un projet révèle l'importance de leur cadre descriptif, législatif et juridique, comme en témoigne l'exemple du Cahier des Clauses Techniques Particulières (CCTP). Le CCTP est un des documents essentiels issu des études détaillées d'un projet. Il se distingue notamment par son volume, et par la pertinence de son contenu : il définit les conditions particulières d'exécution des ouvrages et complète leur description faite au travers des plans techniques. La consultation des entrepreneurs impose la répartition des corps d'état en lots de travaux. Les conséquences essentielles d'une telle démarche concernent la coordination de l'exécution des ouvrages et les responsabilités postérieures à leur achèvement. Tous ces détails et notamment tous ceux portant sur les limites de prestations entre lots doivent être judicieusement traités par le lot en question. Ainsi, le souci actuel des professionnels du bâtiment est de pouvoir produire au moment utile et opportun pour un prescripteur donné, un descriptif de qualité, compatible avec ceux précédemment approuvés, et fidèle à la description réelle du projet, fournie par un modèle de données du bâtiment. Cette thèse se propose de démontrer la possibilité de génération de pièces écrites via un modèle de données supportant la description formelle, physique et performancielle d'un projet de construction. Il s'agit de proposer une structure logique de document, à partir de laquelle est dérivée la définition type du CCTP de référence (DTD CCTP) en langage SGML. Les éléments de la DTD sont ensuite instanciés afin de produire la version balisée du CCTP. Une telle mise en oeuvre permet entre autres la génération du sommaire, des listes de références ainsi que des liens hypertexte internes et externes au document. Nous proposons par la suite un modèle d'association permettant l'indexation des concepts du modèle de données du bâtiment par des items documentaires du CCTP balisé. C'est au travers des instances de ce modèle qu'est produit le CCTP projet, moyennant tous les contrôles de cohérences internes et externes au document. Cette approche assure une qualité maximale des pièces descriptives d'un projet et contribue à la diminution des risques d'erreurs liés au processus complexe de conception / réalisation / maintenance d'une opération de construction. En guise de conclusion, nous proposons une généralisation de cette approche à tout type de document "projet".
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Nesvijevskaia, Anna. "Phénomène Big Data en entreprise : processus projet, génération de valeur et Médiation Homme-Données". Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1247.

Texto completo
Resumen
Le Big Data, phénomène sociotechnique porteur de mythes, se traduit dans les entreprises par la mise en place de premiers projets, plus particulièrement des projets de Data Science. Cependant, ils ne semblent pas générer la valeur espérée. La recherche-action menée au cours de 3 ans sur le terrain, à travers une étude qualitative approfondie de cas multiples, pointe des facteurs clés qui limitent cette génération de valeur, et notamment des modèles de processus projet trop autocentrés. Le résultat est (1) un modèle ajusté de dispositif projet data (Brizo_DS), ouvert et orienté sur les usages, dont la capitalisation de connaissances, destiné à réduire les incertitudes propres à ces projets exploratoires, et transposable à l’échelle d’une gestion de portefeuille de projets data en entreprise. Il est complété par (2) un outil de documentation de la qualité des données traitées, le Databook, et par (3) un dispositif de Médiation Homme-Données, qui garantissent l’alignement des acteurs vers un résultat optimal
Big Data, a sociotechnical phenomenon carrying myths, is reflected in companies by the implementation of first projects, especially Data Science projects. However, they do not seem to generate the expected value. The action-research carried out over the course of 3 years in the field, through an in-depth qualitative study of multiple cases, points to key factors that limit this generation of value, including overly self-contained project process models. The result is (1) an open data project model (Brizo_DS), orientated on the usage, including knowledge capitalization, intended to reduce the uncertainties inherent in these exploratory projects, and transferable to the scale of portfolio management of corporate data projects. It is completed with (2) a tool for documenting the quality of the processed data, the Databook, and (3) a Human-Data Mediation device, which guarantee the alignment of the actors towards an optimal result
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Gay, Jean-Christophe. "Résolution du problème du p-médian, application à la restructuration de bases de données semi-structurées". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00720204.

Texto completo
Resumen
Les problèmes que nous considérons dans cette thèse sont de nature combinatoire. Notre principal intérêt est le problème de restructuration de données semi-structurées. Par exemple des données stockées sous la forme d'un fichier XML sont des données semi-structurées. Ce problème peut être ramené à une instance du problème du p-médian. Le principal obstacle ici est la taille des instances qui peut devenir très grande. Certaines instances peuvent avoir jusqu'à 10000 ou 20000 sommets, ce qui implique plusieurs centaines de millions de variables. Pour ces instances, résoudre ne serait-ce que la relaxation linéaire du problème est très difficile. Lors d'expériences préliminaires nous nous sommes rendu compte que CPLEX peut résoudre des instances avec 1000 sommets dans des temps raisonnables. Mais pour des instances de 5000 sommets, il peut prendre jusqu'à 14 jours pour résoudre uniquement la relaxation linéaire. Pour ces raisons nous ne pouvons utiliser de méthodes qui considère la résolution de la relaxation linéaire comme une opération de base, comme par exemple les méthodes de coupes et de branchements. Au lieu d'utiliser CPLEX nous utilisons une implémentation parallèle (utilisant 32 processeurs) de l'algorithme du Volume. L'instance pour laquelle CPLEX demande 14 heures est résolue en 24 minutes par l'implémentation séquentielle et en 10 minutes par l'implémentation parallèle de l'algorithme du Volume. La solution de la relaxation linéaire est utilisée pour construire une solution réalisable, grâce à l'application d'une heuristique de construction gloutonne puis d'une recherche locale. Nous obtenons des résultats comparables aux résultats obtenus par les meilleures heuristiques connues à ce jour, qui utilisent beaucoup plus de mémoire et réalisent beaucoup plus d'opérations. La mémoire est importante dans notre cas, puisque nous travaillons sur des données de très grandes tailles. Nous étudions le dominant du polytope associé au problème du p-médian. Nous discutons de sa relaxation linéaire ainsi que de sa caractérisation polyédrale. Enfin, nous considérons une version plus réaliste du problème de restructuration de données semi-structurées. Grosso modo, nous ajoutons au problème du p-médian original des nouveaux sommets s'ils aident à réduire le coût global des affectations.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Rezgui, Yacine. "Intégration des systèmes d'informations techniques pour l'exploitation des ouvrages". Phd thesis, Marne-la-vallée, ENPC, 1994. http://www.theses.fr/1994ENPC9421.

Texto completo
Resumen
La gestion de l’information technique et administrative produite durant le cycle de vie d’un projet de construction est envisageable via une description structurée des données. Cette description destinée à l’utilisateur mais aussi à l’ordinateur peut s’exprimer selon un langage (tel EXPRESS) qui devrait permettre l’inter-opérabilité des systèmes informatiques qui la mettent en œuvre. Ces derniers manipulent ainsi une structure unique et non ambiguë de données, assurant de la sorte l’intégrité et la cohérence de l’information produite et manipulée. La description de cette structure est communément appelée « Modèle de Données ». Le document est le support favori de description d’un projet d’ingénierie. Il constitue la base conceptuelle et réglementaire de tout processus industriel. L’analyse des documents produits durant le cycle de vie d’un produit révèle l’importance de leur cadre descriptif, législatif et juridique, comme en témoigne l’exemple du Cahier des Clauses Techniques Particulières (CCTP). Le CCTP est un des documents essentiels issu des études détaillées d’un projet. Il se distingue notamment par son volume et par la pertinence de son contenu : il définit les conditions particulières d’exécution des ouvrages et complète leur description faite au travers des plans techniques. La consultation des entrepreneurs impose la répartition des corps d’état en lots de travaux. Les conséquences essentielles d’une telle démarche concernent la coordination de l’exécution des ouvrages et les responsabilités postérieures à leur achèvement. Tous ces détails et notamment tous ceux portant sur les limites de prestations entre lots doivent être judicieusement traités par le lot en question. Cette thèse se propose de démontrer la possibilité de génération de pièces écrites via un modèle de données supportant la description formelle, physique et performancielle d’un projet de construction. Il s’agit de proposer une structure logique de document, à partir de laquelle est dérivée la définition type du CCTP de référence (DTD CCTP) en langage SGMI. Les éléments de la DTD sont ensuite instanciés afin de produire la version balisée du CCTP. Une telle mise en œuvre permet entre autres la génération du sommaire, des listes de références ainsi que des liens hypertextes internes et externes au document. Nous proposons par la suite un modèle d’association permettant l’indexation des concepts du modèle de données du bâtiment par des items documentaires du CCTP. C’est au travers des instances de ce modèle qu’est produit le CCTP projet, moyennant tous les contrôles de cohérences internes et externes au document. Cette approche assure une qualité maximale des pièces descriptives d’un projet et contribue à la diminution des risques d’erreurs liés au processus complexe de conception/réalisation/maintenance d’une opération de construction. En guise de conclusion, nous proposons une généralisation de cette approche à tout type de document « projet »
The handling and management of a construction project information through its life cycle require to impose order and structure in the data description. The latter is intended for both project actor and computer use. It is therefore expressed in an appropriate language whose neutral aspect enables the inter-operability and the sharing of computer-based information within an open software infrastructure. This approach improves the communication, relevance and effectiveness of the information flow between the actors. This building structure description is commonly called a « data model ». The document is the traditional support of an enginering project description. It constitutes the conceptual and the regulation basis for any enginering process. The deep analysis of the documents produced within a project life cycle emphasises the importance and the relevance o their legal and specification aspects as indicated by the full specification document « CCTP ». The CCTP is one of the essential documents issued from the detailed design stage. It distinguishes by the volume and the relevancy of its content : it defines the particular conditions for the execution of the works and thus completes their description made through the technical drawings. The consultation of the contractors imposes the decomposition of the construction tasks info work packages. The main consequences of such approach concerns the management and the coordination of the works realization in conjonction with the other work packages. All these details should be rigorously handled. Thus, the participant main worry is to be able to produce at the right moment a detailed full specification compatible with the ones previously generated and reflecting the real description of the construction project, provided by a building data model. This thesis demonstrates th feasibility of the generation of project documents via a date model supporting the physical, formal and performative description of a construction project. It consists of propsing a document logical structure, which is used to derive the Document Type Definition (DTD) of the CCTP according to the SGML language. The DTD elements are instanciated in order to produce a marked version of the CCTP. This approach enables the generation of the contents, the references list and the hypertext links. Moreover, we propose an association model through which building data model concepts are indexed to the documentary items of the marked CCTP. The project applied CCTP is then produced thanks to the instances of the association model in consideration of which the internal and external coherency of the CCTP is achieved. This approach insures a high quality of the full specifications documents of a projects and contributes to diminish the mistakes and errors due to the complexity of the design/construction/maintenance process. We finaly propose a generalisation of this approach to any project document
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Stone, Christopher John. "Aspects of science in the works of Donne and Milton". Thesis, University of Leeds, 2013. http://etheses.whiterose.ac.uk/5883/.

Texto completo
Resumen
This thesis exploits the tendency within the early modern period for intellectual eclecticism in order to understand how educated renaissance figures understood the nature of knowledge. Through a detailed study of how both John Donne and John Milton interpreted, acknowledged, and assimilated the understanding gained through their scientific reading and interests into their artistic, literary, and philosophical writings, this thesis outlines a variety of the period’s reflections on the nature of knowledge. Amongst these philosophies, questions of the permissibility of gaining access to information, hierarchical relationships between the knowledge accessed through emergent scientific practices and established literary traditions, and the influence of modern technology upon the quality (and even the trustworthiness) of learning gathered through such endeavours act to establish a collection of academic strategies which early modern intellectuals used to help them navigate the rapidly expanding landscape of knowledge. In pursuing the areas outlined above, the thesis uses an innovative chronological methodology which – whilst fairly common amongst Milton studies – is unusual in the field of Donne scholarship. The predominantly chronological methodology offers several benefits to the thesis. Notably, it allows for the progress and development of ideas over the lives of both writers to be examined. Furthermore, this methodology causes texts to be read according to their merit rather than their arbitrarily assigned ‘historical importance’. Thus, the thesis offers new and detailed readings of texts covering the breadth of Donne and Milton’s respective corpuses selected for their value to the thesis’s remit. It is for this reason that the thesis offers extensive readings of not only major canonical works such as Paradise Lost, Samson Agonistes, ‘The First Anniversary’, and Donne’s Sermons but also affords the same level of attention to Ignatius His Conclave, and Milton’s Commonplace Book. The chronological methodology also causes a heightened focus upon intertextual readings within the thesis – with prose and poetry considered alongside each other so as to produce a richer and fuller understanding of the respective authors’ canons that is not limited by genre. The thesis, ultimately, offers two intersecting case studies of educated individuals which – in some areas – offer a broader understanding of how the emergence of new areas of knowledge and new classifications within the panorama of human learning were interpreted, managed, and accommodated.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Di, Ruscio Andrea. "Utilisation des données de radio science pour la construction d’éphémérides planétaires". Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4031.

Texto completo
Resumen
Le thème central de la thèse concerne l’utilisation des données de radio tracking pour le développement d’éphémérides planétaires, en particulier, dans deux cas : 1) analyse de données de navigation de la mission Cassini pour améliorer les éphémérides de Saturne et augmenter notre connaissance du système solaire externe ; 2) simulation des données radio de la mission ESA BepiColombo collectées durant la phase orbital à Mercure, pour évaluer leur contribution sur le développement des éphémérides planétaire de l’Intégrateur Numérique Planétaire de l’Observatoire de Paris (INPOP).Le premier sujet de recherche essaie de traiter les données de navigation de la sonde Cassini autour de Saturne en utilisant la connaissance mise à jour du système Saturnien : éphémérides précises pour les lunes du système et caractérisation de la gravité de Titan et des autres lunes principales.Ça permis la création des points normaux plus précis, capable de contraindre l’orbite de Saturne pour 13 ans (la moitié de sa révolution autour du Soleil) au niveau des mètres et de donner précieux informations sur le système solaire externe, en particulier sur la masse de la Kuiper belt et sur la possible position de P9. Les nouvelles données montrent une réduction de l’incertitude d’un facteur 5 en respect aux analyses précédentes.La deuxième partie de la thèse se concentre sur la production des simulations réalistes des données radio que le Mercury Orbiter Radio-science Experiment (MORE) de la sonde BepiColombo mesurera durant la phase scientifique de sa mission autour de Mercure.Des points normaux sont après produits avec une incertitude déduite de la matrice de covariance de l’état de la sonde estimé en utilisant ces données simulées.Ces points sont donc traités par le weighted-least square estimateur d’INPOP pour quantifier l’impact que les données de BepiColombo auront sur le développement des éphémérides planétaires, en particulier pour contraindre l’orbite de Mercure et des paramètres relativistes
The central theme of the thesis concerns the exploitation of radio tracking measurements for the development of planetary ephemerides, in particular, applied on two research topics: 1) the analysis of navigation data of Cassini mission to enhance the ephemeris of Saturn and increase our knowledge of the outer solar system; 2) the simulation of BepiColombo measurements collected during the orbital phase at Mercury, for assessing their contribution on the Intégrateur Numérique Planétaire de l’Observatoire de Paris (INPOP) planetary ephemerides.The first research aims at reprocessing Cassini radio tracking data by exploiting the current knowledge of the Saturnian system developed throughout the mission, i.e. the availability of accurate satellite ephemerides and precise gravity solutions for Saturn, Titan and the other major moons. This allows the production of more precise normal points, which are able to constrain the orbit of the planet at meters-level for 13 years (almost half of its revolution) and to provide invaluable insights on the mass of the Kuiper belt. The results show a reduction of a factor 5 on normal points uncertainties with respect to previous analyses, providing tighter constraints on the acceptance regions of planet 9.The second research topic focuses on the production of realistic normal points derived from the end-to-end simulation of BepiColombo Mercury Orbiter Radio-science Experiment (MORE). The uncertainties of the normal points are deduced from the mapped covariance of the spacecraft state. The derived measurements are then processed with the INPOP weighted-least squares filter to quantify the achievable constraints on ephemerides and relativistic parameters
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Sarkis, Georges. "Communications entre les systèmes de CAO et les systèmes experts à bases de connaissances en bâtiment dans un environnement d'intelligence artificielle". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1992. http://tel.archives-ouvertes.fr/tel-00523171.

Texto completo
Resumen
Le problème de conception dans le domaine du bâtiment est pluridisciplinaire. Plusieurs experts (architectes, ingénieurs, techniciens, ...) doivent coopérer et négocier afin de produire un résultat cohérent. Pour développer un outil informatique d'aide à la conception en bâtiment, on utilise un environnement avancé d'intelligence artificielle alliant une puissante représentation orientée objet à des mécanismes d'organisation et de contrôle du raisonnement. Le travail porte surtout sur le couplage de systèmes experts à base de connaissance en bâtiment (pour le raisonnement) avec des outils de CAO (pour la saisie et l'interaction graphique). La thèse consiste en une contribution à la spécification des éléments de base d'un prototype de cet outil. La spécification est concrétisée par une maquette logicielle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Boittiaux-Zidani, Jacqueline. "Décompositions d'une relation". Habilitation à diriger des recherches, Grenoble 1, 1986. http://tel.archives-ouvertes.fr/tel-00320987.

Texto completo
Resumen
Etude de l'algèbre des relations en vue d'applications aux bases de données. Choix d'une formalisation générale; opérations de projection, recopie-projection, produit. Etude d'une décomposition simple et d'une décomposition généralisée
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Zhang, Ming-Yu. "Apports des systèmes d'information à l'exploitation des réseaux de voies rapides. Le cas du réseau d'Ile-de-France". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1995. http://tel.archives-ouvertes.fr/tel-00529501.

Texto completo
Resumen
La présente recherche pluridisciplinaire a pour objectif principal d'analyser et d'évaluer de nouvelles potentialités de l'amélioration du fonctionnement des réseaux de voies rapides (RVR) avec leur maillage progressif et en particulier avec le développement des systèmes d'information des usagers. Cette recherche s'appuie principalement sur le cas concret du RVR d'Ile-de-France, représentatif par sa complexité structurelle et par les problèmes rencontrés lors de son exploitation et notamment ceux liés à la mise en œuvre opérationnelle du système d'exploitation : SIRIUS. L'examen de l'approche d'exploitation de ce réseau révèle deux problèmes majeurs qui sont au cœur de l'amélioration du fonctionnement des RVR : celui du manque d'outils adaptés et celui de l'organisation des acteurs. Partant de ces deux constats, notre recherche s'est focalisée sur deux axes : - développement, analyse, validation et prospective des outils d'exploitation, - analyse des aspects organisationnels et éléments de réflexion pour la définition de politiques d'exploitation. Cette recherche a consacré beaucoup d'effort au développement des outils et à l'élaboration des procédures pour la maîtrise du recueil automatique des données (RAD). Un enseignement de notre travail est d'avoir montré que, pour les systèmes d'exploitation comme SIRIUS, il s'agit là d'un aspect essentiel. L'approche de la détection automatique des bouchons (DAB) développée permet leur détection systématique et quasi instantanée, avec un taux de fausses alarmes raisonnable. L'application de cette approche de DAB devrait assurer une information fiable sur les encombrements. De manière générale, la maîtrise du RAD ouvre la voie à la prestation de différents niveaux de services dont l'impact en matière d'exploitation routière doit encore faire l'objet d'évaluations complémentaires. Parallèlement, nous démontrons que cette maîtrise - et plus généralement, celle de l'exploitation des RVR - dépend des réponses apportées à certains problèmes d'organisation. Dans un contexte multi-acteurs, il est nécessaire de favoriser au maximum la coopération, mais il faut également tenir compte des exigences d'autonomie de chaque acteur pour améliorer les performances d'ensemble du système socio-technique d'exploitation des RVR. Des propositions concrètes, visant à une approche globale des problèmes d'exploitation des RVR, sont formulées en ce sens.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Ounis, Iadh. "Un modèle d'indexation relationnel pour les graphes conceptuels fondé sur une interprétation logique". Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004902.

Texto completo
Resumen
L'idée d'établir des relations entre des objets et de les représenter dans la base de connaissances d'un système informatique est le propre de toute approche en Intelligence Artificielle. Cependant, la plupart des formalismes de représentation de connaissances n'exploitent pas toute la richesse de la sémantique de ces relations, ni le comportement qui leur est associé. En recherche d'informations, les traitements de ces relations ne sont guère mieux élaborés et l'impact de leur prise en compte lors de la phase de correspondance n'a jamais été établi, même s'il reste vrai que de nombreuses approches tiennent compte de leur présence dans le document et tentent ainsi de les représenter lors du processus d'indexation. Pourtant la recherche de documents structurés ou complexes exige plus que jamais, outre un langage d'indexation robuste et expressif, la prise en charge de la sémantique des relations ainsi que leurs propriétés. À travers une étude des nouvelles exigences auxquelles la recherche d'informations d'aujourd'hui doit répondre, nous proposons un modèle d'indexation relationnel pour les documents. L'approche consiste à considérer qu'un terme d'indexation est fondé sur des concepts complexes où les connecteurs sémantiques sont vus comme des opérateurs, ou des relations permettant de construire des expressions nouvelles représentant des concepts nouveaux ou des situations nouvelles. Le modèle proposé ne se contente pas de représenter les relations, mais permet aussi d'offrir un cadre général précisant les principes généraux de manipulation de ces relations et la prise en compte de leurs propriétés dans un processus de recherche fondé sur une approche logique. Le modèle proposé comporte deux composantes: le langage de représentation des informations, permettant une approche d'indexation relationnelle, et les règles de dérivation qui, reprenant ce langage, permettent de diriger le processus de correspondance. Nous utilisons la théorie des situations comme langage de représentation et un système de dérivation de pertinence, reposant sur une axiomatisation de la notion de correspondance entre les documents et la requête pour la prise en compte des relations. Une caractéristique intéressante de ce modèle est qu'il conduit à étendre certains formalismes de représentation de connaissances par des notions utiles en recherche d'informations. Les limitations de la famille des logiques terminologiques, utilisée par ailleurs comme base formelle de l'approche d'indexation relationnelle proposée, peuvent ainsi être surmontées. Cependant, la complexité des traitements associés à cette famille de logiques empêche de les utiliser comme un modèle opérationnel. Nous proposons alors le formalisme des graphes conceptuels comme un bon compromis entre la complexité des démonstrateurs de théorèmes et la simplicité des approches algébriques. Ce formalisme est alors vu, à travers une interprétation logique adéquate, comme une implantation d'une logique terminologique étendue et du modèle d'indexation. Notre approche a été implantée sur une plate-forme de gestion de graphes conceptuels, réalisée sur le système de gestion de base de données à objets O2. Le prototype RELIEF résultant de notre expérimentation a été testé sur une collection d'images et a démontré l'applicabilité et le bien-fondé de notre approche.
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Carbonneaux, Yves. "Conception et réalisation d'un environnement informatique sur la manipulation directe d'objets mathématiques, l'exemple de Cabri-graphes". Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004882.

Texto completo
Resumen
Notre travail s'intègre dans la conception et la réalisation d'un environnement informatique sur la manipulation directe d'objets mathématiques, en l'occurrence l'extension de Cabri-graphes dans le cadre du projet Cabri. Dans la première partie, nous exposons le concept d'interface de manipulation directe. Nous présentons une évolution des principes associés à la manipulation directe. Nous montrons l'importance accordée à ce mode d'interaction. Dans une deuxième partie, nous exposons des motivations associées à la mise en oeuvre d'environnements informatiques sur la théorie des graphes. Nous analysons plusieurs environnements en fonction de trois critères : la visualisation, les fonctionnalités, et le mode d'interaction. Dans une troisième partie, nous construisons un éditeur de graphes en fonction des principes de manipulation directe énoncés dans la première partie. Nous établissons les limites d'une telle interface en fonction des outils à notre disposition. Dans la quatrième partie, plus théorique, nous présentons une étude sur le produit fibré de graphes, et sur la contraction de graphes comme un outil de visualisation de graphes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Capponi, Cécile. "Identification et Exploitation des Types dans un modèle de connaissances à objets". Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00345845.

Texto completo
Resumen
Les modèles de connaissances à objets (MCO) souffrent d'une surcharge dans l'utilisation de leur langage de représentation associé. Si ce langage a pour objectif d'être adapté à la représentation informatique d'un domaine d'application, nous montrons qu'il n'est pas pertinent de l'utiliser pour définir des structures de données, certes utiles pour la représentation du domaine, mais dépourvues de signification directe dans ce domaine (ex. une matrice dans le domaine de l'astronomie). Cette thèse propose un système de types à deux niveaux, appelé METÈO. Le premier niveau de METÈO est un langage pour l'implémentation de types abstraits de données (ADT) qui sont nécessaires à la description minimale des éléments pertinents du domaine d'application. Ainsi, METÈO libère le langage de représentation d'une tâche à laquelle il n'a pas à s'adapter. Le second niveau de METÈO traite de l'affinement des ADT opéré dans la description des objets de représentation. Nous rappelons les deux interprétations des objets de représentation: l'intension d'un objet est une tentative de description de ce que cet objet dénote dans le domaine d'application: son extension. L'équivalence généralement admise entre ces deux aspects de l'objet est une illusion, et contribue de plus à annihiler une des véritables finalités d'un modèle de connaissances: aider une caractérisation des plus précises d'un domaine d'application. Ainsi, les types du second niveau de METÈO s'attachent à la représentation et la manipulation des intensions des objets, indépendamment de leurs extensions. L'interprétation en extension des objets est effectuée par l'utilisateur, METÈO gère en interne les descriptions de ces objets alors dénuées de leur signification, et le MCO peut alors se concentrer sur la coopération entre ces deux aspects des objets, considérés non-équivalents dans cette étude. METÈO contribue ainsi à clarifier le rôle de chaque partenaire impliqué dans la construction et l'exploitation d'une base de connaissances. Plus généralement, METÈO jette un pont entre les spécificités des MCO et les techniques usuelles de programmation de structures de données manipulables. Un prototype de METÈO a été développé pour un couplage avec le MCO TROPES
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Henry, Didier. "Modèles de propagation de l'information et méthodes de sciences des données". Thesis, Antilles, 2018. http://www.theses.fr/2018ANTI0323/document.

Texto completo
Resumen
De nos jours, les médias sociaux en ligne ont transformé notre façon de créer, de partager et d'accéder à l'information. Ces plateformes reposent sur de gigantesques réseaux favorisent le libre échange d'informations entre des centaines de millions de personnes à travers le monde entier, et cela de manière instantanée.Qu'ils soient en lien avec un évènement global ou en lien avec un évènement local, ces messages peuvent influencer une société et peuvent contenir des informations utiles pour la détection ou la prédiction de phénomènes du monde réel.Cependant, certains messages diffusés peuvent avoir un impact très négatif dans la vie réelle. Ces messages contenant une « infox » peuvent avoir des conséquences désastreuses.Pour éviter et anticiper ces situations dramatiques, suivre les rumeurs, éviter les mauvaises réputations, il est nécessaire d'étudier puis de modéliser la propagation de l'information.Or, la plupart des modèles de diffusion introduits reposent sur des hypothèses axiomatiques représentées par des modèles mathématiques. Par conséquent, ces modèles sont éloignés des comportements de diffusion des utilisateurs dans la mesure où ils n’intègrent pas les observations faites sur des cas concrets de diffusion. Dans nos travaux, nous étudions le phénomène de diffusion de l’information à deux échelles. À une échelle microscopique, nous avons observé les comportements de diffusion selon des traits de personnalité des utilisateurs en analysant les messages qu'ils publient en termes de sentiments et d'émotions. À une échelle macroscopique, nous avons analysé l'évolution du phénomène de diffusion en prenant en compte la dimension géographique des utilisateurs
Nowadays, online social media has transformed the way we create, share and access information. These platforms rely on gigantic networks that promote the free exchange of information between hundreds of millions of people around the world, and this instantly.Whether related to a global event or in connection with a local event, these messages may influence a society and may contain information useful for the detection or prediction of real-world phenomena.However, some broadcast messages can have a very negative impact in real life. These messages containing false information can have disastrous consequences.To avoid and anticipate these dramatic situations, follow rumors, avoid bad reputations, it is necessary to study and then model the propagation of information.However, most of the diffusion models introduced are based on axiomatic hypotheses represented by mathematical models. As a result, these models are far removed from the users' dissemination behaviors in that they do not incorporate observations made on concrete dissemination cases. In our work, we study the phenomenon of diffusion of information at two scales. On a microscopic scale, we observed diffusion behaviors based on the personality traits of users by analyzing the messages they post in terms of feelings and emotions. On a macroscopic scale, we analyzed the evolution of the diffusion phenomenon by taking into account the geographical dimension of the users
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Canselier, Guillaume. "Les données acquises de la science : les connaissances scientifiques et la faute médicale en droit privé". Paris 1, 2006. https://www.bnds.fr/collection/theses-numeriques-de-la-bnds/les-donnees-acquises-de-la-science-9782848741338.html.

Texto completo
Resumen
Pour apprécier la faute médicale, le droit renvoie aux «données acquises de la science». Nombreuses sont désormais les règles de droit qui se référent à l'état des connaissances scientifiques. Des conséquences juridiques étant associées à cette référence, il importe d'en préciser le sens. Il y a là matière à une délicate opération de qualification. Les critères guidant le juriste dans cette tâche manquent aujourd'hui. C'est pourquoi les éclairages de la philosophie des sciences s'avèrent du plus grand intérêt pour le droit. L'épistémologie réfutationniste développée par Karl Popper, qui conçoit la science comme un ensemble de conjectures réfutables, fait accéder le juriste à une meilleure compréhension de la connaissance scientifique. Cette vision de la science permet de mieux saisir le rôle que le savoir scientifique doit jouer dans l'appréciation de la faute du médecin. Le comportement de ce dernier est jaugé à l'aune de normes médicales, entremêlant subtilement science et jugements de valeur. Via un phénomène d'internormativité, le droit renvoie à un réseau normatif qui lui est extérieur. La technique juridique par laquelle s'opère un tel renvoi est celle du standard. L'application du standard des données acquises de la science suscite d'indéniables difficultés. D'abord, elle requiert les lumières d'un expert, ce qui suppose de définir clairement le rôle de ce dernier par rapport à celui du juge. Ensuite, il est à craindre que ce standard favorise une appréciation inappropriée de la faute médicale parce que trop abstraite.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Watrin, Lucie. "Les données scientifiques saisies par le droit". Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM1072.

Texto completo
Resumen
Issues de l’expérience, les données constituent une description brute du réel, sur le fondement desquelles s’élaborent ou se vérifient les théories scientifiques. Or, à l’étude, les interactions entre cet élément de base de la connaissance et l’ordre juridique peuvent être observées à trois stades. Au stade de la production des données, tout d’abord. En effet, quoique cette phase relève pour une large part du contrôle de la communauté scientifique, certaines règles juridiques se superposent à ce contrôle en vue d’agir sur l’orientation ou la conduite des recherches. Au stade de l’utilisation des données scientifiques ensuite, puisqu’une fois mises au jour, les données sont parfois directement appréhendées par le juge, le législateur ou par certains professionnels, qui exploitent leur pouvoir de révélation du réel. À cet égard, il faut relever que même lorsqu’elles sont incertaines, les données scientifiques ne perdent pas toute utilité, puisque si elles ne permettent pas connaître le réel, elles offrent la possibilité de s’en approcher et donc de fonder des décisions sur une vraisemblance scientifiquement étayée. Enfin, le droit a vocation à intervenir au stade de la protection des données, afin d’arbitrer entre les intérêts parfois contradictoires des scientifiques producteurs de données et de la collectivité. Les termes de cet arbitrage entre la réservation privative des données et leur valorisation collective ont été profondément renouvelés ces dernières années, avec le développement combiné du Big data et de l’Open data
Scientific data is produced by experiment, and consists in a raw description of reality, upon which basis scientific theories are developped or confirmed. Upon assesment, interactions between this basic element of knowledge and the legal order can be observed in three stages. First, at the stage of data production. Although the control of this phase falls largely under the control of the scientific community, some legal rules are added to this control, in order to influence on the direction or on the conduct of the research. Second, at the stage of the use of scientific data, because once discovered, data is sometimes directly apprehended by the judge, the legislator or by some professionals, and is then used to unveil reality. In this regard, even when uncertain, scientific data does not lose its utility, because in spite of failling to display reality, it offers the possibility to approach it and therefore to build decisions on a scientifically based likelihood. Finally, the law intervenes at the stage of data protection, in order to arbitrate conflicting interests between those who produce scientific data, and society. The terms of the arbitration between the private reservation data and their collective value was deeply renewed in recent years, under the influence of the combined development of Big data and Open data
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Ngodock, Hans Emmanuel. "Assimilation de données et analyse de sensibilité : une application à la circulation océanique". Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00005006.

Texto completo
Resumen
Le travail mené dans cette thèse porte sur l'étude "à posteriori" de l'assimilation variationnelle de données. Il s'agit d'une démarche de faisabilité pour la mise au point des outils permettant de faire une analyse diagnostique (qualitative et quantitative) du processus d'assimilation variationnelle, notamment en ce qui concerne l'influence du bruit des observations sur le processus d'assimilation ainsi que sa propagation sur les champs reconstitués (nous sommes alors amenés à faire une étude de sensibilité), et l'influence de la configuration spatio-temporelle des observations sur le processus d'assimilation. L'application usuelle des équations adjointes pour l'analyse de sensibilité est revisée, car dans le contexte de l'assimilation variationnelle, nous avons montré par un exemple simple qu'il faut s'y prendre différemment. Nous proposons alors une méthode pour mener correctement cette analyse de sensibilité. Cette méthode est basée sur l'utilisation des équations adjointes au second ordre, obtenues en prenant l'adjoint du système d'optimalité. La sensibilité en est déduite par inversion du Hessien de la fonction coût via la minimisation d'une fonctionnelle quadratique. L'application est faite sur un modèle de circulation générale océanique de type quasi-géostrophique, et nous faisons aussi l'étude de l'existence et l'unicité de la solution de l'équation adjointe au second ordre du modèle considéré, pour justifier l'utilisation du Hessien et l'applicabilité de notre méthode. Nous étudions aussi l'influence de la configuration spatio-temporelle des observations sur le processus d'assimilation au travers du Hessien (à l'optimum) dont les éléments propres varient lorsqu'on fait varier la configuration. Enfin, nous étudions la prédicibilité du système d'optimalité.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Ponchateau, Cyrille. "Conception et exploitation d'une base de modèles : application aux data sciences". Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2018. http://www.theses.fr/2018ESMA0005/document.

Texto completo
Resumen
Les sciences expérimentales font régulièrement usage de séries chronologiques, pour représenter certains des résultats expérimentaux, qui consistent en listes chronologiques de valeurs (indexées par le temps), généralement fournies par des capteurs reliés à un système (objet de l’expérience). Ces séries sont analysées dans le but d’obtenir un modèle mathématique permettant de décrire les données et ainsi comprendre et expliquer le comportement du système étudié. De nos jours, les technologies de stockage et analyse de séries chronologiques sont nombreuses et matures, en revanche, quant au stockage et à la gestion de modèles mathématiques et leur mise en lien avec des données numériques expérimentales, les solutions existantes sont à la fois récentes, moins nombreuses et moins abouties. Or,les modèles mathématiques jouent un rôle essentiel dans l’interprétation et la validation des résultats expérimentaux. Un système de stockage adéquat permettrait de faciliter leur gestion et d’améliorer leur ré-utilisabilité. L’objectif de ce travail est donc de développer une base de modèles permettant la gestion de modèle mathématiques et de fournir un système de « requête par les données », afin d’aider à retrouver/reconnaître un modèle à partir d’un profil numérique expérimental. Dans cette thèse, je présente donc la conception (de la modélisation des données, jusqu’à l’architecture logicielle) de la base de modèles et les extensions qui permettent de réaliser le système de « requête par les données ». Puis, je présente le prototype de la base de modèle que j’ai implémenté, ainsi que les résultats obtenus à l’issu des tests de ce-dernier
It is common practice in experimental science to use time series to represent experimental results, that usually come as a list of values in chronological order (indexed by time) and generally obtained via sensors connected to the studied physical system. Those series are analyzed to obtain a mathematical model that allow to describe the data and thus to understand and explain the behavio rof the studied system. Nowadays, storage and analyses technologies for time series are numerous and mature, but the storage and management technologies for mathematical models and their linking to experimental numerical data are both scarce and recent. Still, mathematical models have an essential role to play in the interpretation and validation of experimental results. Consequently, an adapted storage system would ease the management and re-usability of mathematical models. This work aims at developing a models database to manage mathematical models and provide a “query by data” system, to help retrieve/identify a model from an experimental time series. In this work, I will describe the conception (from the modeling of the system, to its software architecture) of the models database and its extensions to allow the “query by data”. Then, I will describe the prototype of models database,that I implemented and the results obtained by tests performed on the latter
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Hoteit, Ibrahim. "Filtres de Kalman réduits et efficaces pour l'assimilation de données en océanographie". Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004682.

Texto completo
Resumen
Le filtre de Kalman étendu singulier évolutif (SEEK) et sa variante interpolée, appelée SEIK, ont été implémentés et testés avec succès dans plusieurs modèles océaniques. Cependant, ces deux filtres restent chers pour une océanographie opérationnelle. L'objectif principal de notre travail est de développer des formes dégradées des filtres SEEK et SEIK qui sont moins couteux mais aussi performants. Notre approche consiste essentiellement à simplifier l'évolution de la base de correction des filtres SEEK et SEIK, qui est la partie la plus chère de ces deux filtres. Pour améliorer les performances de nos filtres dans les périodes instables du modèle, nous introduisons tout d'abord les notions d'analyse EOFs locales et mixte dans le but d'augmenter la représentativité de la base de correction. Cela nous amène à construire une nouvelle variante du filtre SEEK avec une base de correction semi-évolutive partiellement locale. Nous présentons ensuite plusieurs schémas de réglage adaptatif des paramètres du filtre SEEK. Nous terminons enfin par une comparaison entre les performances des filtres SEEK et ROEK pour montrer l'intérêt de l'évolution de la base de correction, ce dernier étant aussi introduit pour compenser le caractère non-évolutif de la base EOFs locale. Nous avons implémenté tous nos filtres dans une configuration réaliste du modèle OPA dans l'océan Pacifique tropical. Leurs performances ont été étudiées avec des expériences jumelles. Le filtre SEIK est utilisé comme une référence pour la comparaison. Les résultats de ces expériences montrent que nos nouveaux filtres sont aussi performants que le filtre SEIK, mais peuvent être de 2 à 10 fois plus rapides.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Bogo, Gilles. "Conception d'applications pour systèmes transactionnels coopérants". Habilitation à diriger des recherches, Grenoble INPG, 1985. http://tel.archives-ouvertes.fr/tel-00315574.

Texto completo
Resumen
Les moyens offerts par les systèmes de gestion de base de données et les systèmes transactionnels pour maintenir la cohérence et l'intégrité des systèmes d'information sont tout d'abord analysés tant en centralisé qu'en réparti. La seconde partie est consacrée à l'étude de deux grandes classes de méthodes de conception, l'une fondée sur les modèles de description de données, l'autre sur les types abstraits. Dans chaque cas, une méthode particulière est présentée et analysée. Après présentation de l'application bancaire pilote, la troisième partie définit un modèle pour la description des applications transactionnelles. Celui-ci est appliqué et confronté à l'application pilote. La dernière partie décrit la réalisation de ce modèle dans le langage ADA. Un environnement de conception est construit et se présente comme un sur-ensemble du langage ADA. Enfin, cet outil est comparé à d'autres propositions du domaine de la recherche
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Saliba, Elie Mario. "Understanding and managing Zoological Nomenclature in the era of Big Data and Open Science". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS460.

Texto completo
Resumen
La nomenclature est la branche de la taxonomie responsable de la création et de la gestion des noms scientifiques attribués aux catégories d’êtres vivants. Elle assure la continuité de la transmission de toutes sortes de données et de connaissances accumulées sur les taxons. Les zoologistes se réfèrent pour cela au Code International de Nomenclature Zoologique. Le Code contient les règles qui permettent de comprendre et d'appliquer correctement cette discipline. La nomenclature s'est complexifiée au fil des siècles, pour s'adapter aux changements scientifiques et technologiques. Aujourd’hui, la nomenclature joue, par l’intermédiaire des noms scientifiques, un rôle crucial dans les bases de données de biodiversité. Mais ces dernières présentent cependant des limitations en termes de modèles de données et de l’utilisation de celles-ci pour des travaux nomenclaturaux. Cette dimension de la nomenclature est explorée dans la thèse. Si les données nomenclaturales sont présentes en grande partie dans les bases de données en ligne, la discipline elle-même est restée relativement imperméable à l'informatisation. Une analyse approfondie du Code a permis d’établir une liste d’objets formels et des propriétés les accompagnant nécessaires pour modéliser les règles de cette discipline. En effet, la structure des règles du Code se veut logique et non-ambigüe, et est donc idéale pour une traduction de ces dernières en série d’algorithmes. Cette hypothèse a mené à la création d’une application web appelée Lognom, pour ‘logiciel de nomenclature’. Lognom est un logiciel basé sur des algorithmes aidant à la prise de décision en matière de nomenclature zoologique. L’application ne repose pas sur des bases de données préexistantes, mais fournit une réponse en fonction des données entrées par l'utilisateur. Ce logiciel vise à soutenir les taxonomistes dans leur gestion de la nomenclature au quotidien, en déterminant si un nom ou un travail est disponible, si les règles orthographiques ont été correctement appliquées et si toutes les exigences précédant la publication d’un nouveau nom ou d’un nouveau travail ont été respectées. Lognom permet également à l'utilisateur d’établir quel nom est le nom valide parmi plusieurs candidats préenregistrés, et la liste des synonymes qui résulte de cette détermination. Il comprend également quelques outils pour répondre à des questions diverses de nomenclature, telle que la détermination du genre grammatical d’un nom de genre. Toutes les règles du Code de nomenclature zoologique n’ont cependant pas pu être intégrées à l’application. Certaines règles reposent sur une interprétation sémantique qu’il est très complexe d’automatiser. De plus, même s’il contient quelques contrôles, Lognom est très sensible à la qualité des données fournies par ses utilisateurs. Une proposition de classification des règles est fournie, afin de mieux cerner les forces et les faiblesses du Code quant à sa possible informatisation exhaustive, ainsi que des recommandations quant à l’optimisation de son caractère logique et non-ambigu. De même, diverses questions en rapport avec la nomenclature et ses applications informatiques sont explorées, et une brève analyse expliquant les difficultés sociales liées à l’amélioration de ces règles est évoquée. Il y existe une multitude d’applications futures possibles pour les algorithmes développés lors de cette thèse. Ces perspectives incluent la possibilité de travailler collaborativement sur des projets concernant la nomenclature d’un même groupe taxonomique. Ceci pourrait conduire à établir des listes dynamiques de noms. Une modification de ces algorithmes pourraient également simuler l’impact d’une modification des règles du Code sur les noms et les travaux existants. Sur le long terme, un outil tel que Lognom pourrait conduire à la possibilité de modéliser la nomenclature dans sa totalité, et d’ouvrir la porte à une gestion plus efficace et plus coordonnée de cette discipline pluricentenaire
Nomenclature is the discipline of taxonomy responsible for creating and managing the scientific names assigned to categories of living beings. It ensures continuity in the transmission of all kinds of accumulated data and knowledge about taxa. To this end, zoologists refer to the International Code of Zoological Nomenclature. The Code contains the rules for understanding and correctly applying this discipline.Nomenclature has become increasingly complex over the centuries, to keep pace with the evolution of scientific and technological knowledge. It currently plays, through scientific names, a crucial role in biodiversity databases. However, databases have their limitations in terms of structure when it comes to nomenclatural endeavors. The role of nomenclature in databases is explored in the thesis.While nomenclatural data is largely present in online databases, the discipline itself has remained relatively impervious to computerization. An in-depth analysis of the Code enabled the creation of a list of formal objects and their properties, which are needed to model the rules of this discipline. Moreover, the structure of the Code's rules is intended to be logical and unambiguous, which makes it ideal for translating into a series of algorithms. This hypothesis led to the creation of a web application called Lognom. Lognom is an algorithm-based software that supports decision-making in zoological nomenclature. The application does not rely on pre-existing databases, but provides an answer based on data entered by the user. The software aims to support taxonomists in their day-to-day nomenclature management, by determining whether a name or work is available and whether spelling rules have been correctly applied. It can also verify whether all requirements preceding the publication of a new name or work have been met. Additionally, Lognom allows the user to establish which name is the valid name among several candidates, and the list of synonyms that results from this decision. It also includes several tools for answering various nomenclatural questions, such as the determination of the grammatical gender of a genus name. However, it has not been possible to integrate all the rules of the International Code of Zoological Nomenclature into the application. Some rules are based on semantic interpretation, which is very complex to automate. Moreover, Lognom is highly sensitive to the quality of the data supplied by its users, even if it does provide a few controls. A proposed classification of the Code’s rules is included, to better identify the strengths and weaknesses of the Code in terms of its possible complete computerization. Recommendations for the optimization of its logical and unambiguous character are also mentioned. Similarly, various issues relating to nomenclature and its computer applications are explored, as well as a brief analysis of the social difficulties that might impede the improvement of these rules. There are still many possible future applications for the algorithms developed for Lognom. These include the possibility of working collaboratively on projects concerning the nomenclature of q given taxonomic group. This could lead to the creation of dynamic lists of names: Furthermore, the algorithms should be able to simulate the impact of changes in the rules of the Code on existing names and works. In the long term, a tool such as Lognom could enable the possibility of modeling nomenclature in its entirety, opening the door to more efficient and coordinated management of this centuries-old discipline
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Gomes, Da Silva Alzennyr. "Analyse des données évolutives : application aux données d'usage du Web". Phd thesis, Université Paris Dauphine - Paris IX, 2009. http://tel.archives-ouvertes.fr/tel-00445501.

Texto completo
Resumen
Le nombre d'accès aux pages Web ne cesse de croître. Le Web est devenu l'une des plates-formes les plus répandues pour la diffusion et la recherche d'information. Par conséquence, beaucoup d'opérateurs de sites Web sont incités à analyser l'usage de leurs sites afin d'améliorer leur réponse vis-à-vis des attentes des internautes. Or, la manière dont un site Web est visité peut changer en fonction de divers facteurs. Les modèles d'usage doivent ainsi être mis à jour continuellement afin de refléter fidèlement le comportement des visiteurs. Ceci reste difficile quand la dimension temporelle est négligée ou simplement introduite comme un attribut numérique additionnel dans la description des données. C'est précisément sur cet aspect que se focalise la présente thèse. Pour pallier le problème d'acquisition des données réelles d'usage, nous proposons une méthodologie pour la génération automatique des données artificielles permettant la simulation des changements. Guidés par les pistes nées des analyses exploratoires, nous proposons une nouvelle approche basée sur des fenêtres non recouvrantes pour la détection et le suivi des changements sur des données évolutives. Cette approche caractérise le type de changement subi par les groupes de comportement (apparition, disparition, fusion, scission) et applique deux indices de validation basés sur l'extension de la classification pour mesurer le niveau des changements repérés à chaque pas de temps. Notre approche est totalement indépendante de la méthode de classification et peut être appliquée sur différents types de données autres que les données d'usage. Des expérimentations sur des données artificielles ainsi que sur des données réelles issues de différents domaines (académique, tourisme et marketing) ont été réalisées pour l'évaluer l'efficacité de l'approche proposée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

BARRA, Vincent. "Modélisation, classification et fusion de données biomédicales". Habilitation à diriger des recherches, Université Blaise Pascal - Clermont-Ferrand II, 2004. http://tel.archives-ouvertes.fr/tel-00005998.

Texto completo
Resumen
Ce mémoire synthétise les travaux que j'ai menés de 2000 à 2004, au sein de deux laboratoires des facultés de Clermont-Ferrand : l'Equipe de Recherche en Imagerie Médicale (ERIM, Université d'Auvergne), où j'ai effectué ma thèse, et le Laboratoire d'Informatique, de Modélisation et d'Optimisation des Systèmes (LIMOS, Université Blaise Pascal) dans lequel j'ai été accueilli suite à mon recrutement en tant que maître de conférences dans cette même université. Ce changement de laboratoire s'est accompagné d'une modification de mon thème principal de recherche, passant du traitement d'images médicales multimodales par des techniques de fusion d'informations, au domaine de la bioinformatique en général, et de l'étude des puces à ADN en particulier. Plutôt que d'essayer de regrouper artificiellement ces deux thèmes au sein d'un même plan, j'ai préféré diviser ce mémoire en deux parties distinctes et cohérentes, chacune traitant d'un des deux aspects de recherche que je mène actuellement de front. Ainsi, la première partie résume les travaux que j'ai effectués depuis 2001 dans le domaine de la fusion de données appliquée au traitement d'images 3D du cerveau, soit directement soit dans le cadre du co-encadrement de deux doctorants. Le dernier chapitre de cette partie met en particulier en perspective les nouveaux développements espérés sur la stimulation magnétique transcrânienne, à travers l'encadrement d'une thèse CIFRE que j'assure par délégation à temps plein. La seconde partie se concentre sur les recherches que je mène depuis septembre 2001 au LIMOS, concernant l'étude des images de puces à ADN. J'expose dans cette partie au travers de trois chapitres mon projet de recherche dans ce domaine, et je présente pour chaque choix retenu ma contribution sous la forme d'un simulateur d'images de biopuces transcriptome et de nouvelles méthodes d'analyse de ces images. Si les deux parties sont clairement décorrélées, j'ai néanmoins essayé de dégager une problématique générale commune à mes travaux, que j'ai nommée sans forfanterie modélisation, classification et fusion de données biomédicales, et qui constitue le titre de ce manuscrit.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Gaignard, Alban. "Distributed knowledge sharing and production through collaborative e-Science platforms". Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00838796.

Texto completo
Resumen
This thesis addresses the issues of coherent distributed knowledge production and sharing in the Life-science area. In spite of the continuously increasing computing and storage capabilities of computing infrastructures, the management of massive scientific data through centralized approaches became inappropriate, for several reasons: (i) they do not guarantee the autonomy property of data providers, constrained, for either ethical or legal concerns, to keep the control over the data they host, (ii) they do not scale and adapt to the massive scientific data produced through e-Science platforms. In the context of the NeuroLOG and VIP Life-science collaborative platforms, we address on one hand, distribution and heterogeneity issues underlying, possibly sensitive, resource sharing ; and on the other hand, automated knowledge production through the usage of these e-Science platforms, to ease the exploitation of the massively produced scientific data. We rely on an ontological approach for knowledge modeling and propose, based on Semantic Web technologies, to (i) extend these platforms with efficient, static and dynamic, transparent federated semantic querying strategies, and (ii) to extend their data processing environment, from both provenance information captured at run-time and domain-specific inference rules, to automate the semantic annotation of ''in silico'' experiment results. The results of this thesis have been evaluated on the Grid'5000 distributed and controlled infrastructure. They contribute to addressing three of the main challenging issues faced in the area of computational science platforms through (i) a model for secured collaborations and a distributed access control strategy allowing for the setup of multi-centric studies while still considering competitive activities, (ii) semantic experiment summaries, meaningful from the end-user perspective, aimed at easing the navigation into massive scientific data resulting from large-scale experimental campaigns, and (iii) efficient distributed querying and reasoning strategies, relying on Semantic Web standards, aimed at sharing capitalized knowledge and providing connectivity towards the Web of Linked Data.
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Houas, Heykel. "Allocation de ressources pour la transmission de données multimedia scalables". Phd thesis, Université de Cergy Pontoise, 2009. http://tel.archives-ouvertes.fr/tel-00767889.

Texto completo
Resumen
Cette thèse s'intéresse aux problèmes d'allocation de ressources pour la transmission de données multimédia scalables sous contraintes de qualité de service (QoS) sur les réseaux hétérogènes. Les liaisons filaires et sans fil considérées (DS-CDMA, OFDMA) sont appliquées à des services de transmission d'images et de parole sur des canaux à évanouissements lents ou rapides, avec ou sans multitrajets. La QoS de ces réseaux est exprimée en terme de qualité perçue du point de vue de l'utilisateur (couche Application) et en terme de taux d'erreurs binaires (TEB) par classe du point de vue de la transmission (couche Physique). Les ressources étudiées sont : l'allocation des puissances, des ordres de modulation et des porteuses ainsi que les propriétés de protection inégale contre les erreurs (UEP). L'objectif de ce document est d'allouer ces ressources de façon à maximiser le débit source des données multimédia hiérarchisées (sous forme de classes d'importance) en s'appuyant sur une connaissance parfaite ou partielle des canaux de propagation, sous contrainte de performances cibles en réception. Les stratégies d'adaptation de lien que nous présentons se basent sur la possible troncature d'une partie de ces données à transmettre. Elles se fondent également sur le degré de sensibilité et la protection adéquate de chacune de ces classes contre les erreurs liées à la transmission sur le canal, conformément aux exigences de QoS exprimées sur ces dernières. Les schémas de transmission explorent plusieurs critères d'optimisation des ressources : la minimisation de la charge utile du système ainsi que l'optimisation de la robustesse de la transmission aux erreurs d'estimation du canal. Dans ces contextes, nous décrivons l'allocation optimale de sous-porteuses, de modulations, de rendements de code et d'énergie maximisant le débit source de l'utilisateur tout en véri ant les contraintes sur la charge du système et la QoS. Nous montrons que ces schémas d'allocation sont adaptables à de nombreux systèmes de communication et présentent des performances supérieures aux stratégies de l'état de l'art.
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Curé, Olivier. "Relations entre bases de données et ontologies dans le cadre du web des données". Habilitation à diriger des recherches, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00843284.

Texto completo
Resumen
Ce manuscrit présente mon intérêt pour la conception des méthodes et algorithmes nécessaires pour la réalisation d'applications avancées pour le web sémantique. Cette extension du web actuel vise à autoriser l'intégration et le partage de données entre organismes et applications. Une conséquence directe du succès de cette approche permettrait de considérer le web comme une base de données globale contenant les données stockées sur toutes les machines connectées. Cet aspect s'exprime bien dans le site web dédié à l'activité web sémantique du W3C, qui déclare que le web sémantique est un web des données. Ainsi, ce web des données permettra de soumettre des requêtes structurées sur tous les ensembles de données connectés, et de récupérer des résultats pertinents provenant de sources diverses et hétérogènes. Une question essentielle liée à cette hétérogénéité concerne la notion de sémantique. Dans le contexte du web sémantique, elle est généralement traitée avec des ontologies et les opérations de médiation associées. Ma recherche s'ancrent dans ces thématiques et ce manuscrit vise à présenter quelques unes de mes recherches et résultats, ainsi qu'à décrire certaines des applications que j'ai conçues et implémentées
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

De, Vlieger P. "Création d'un environnement de gestion de base de données " en grille ". Application à l'échange de données médicales". Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00654660.

Texto completo
Resumen
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source. L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Randazzo, Rachele <1997&gt. "L'UDi di Palermo e il progetto "La scuola 'racconta' una donna": una proposta formativa contro la violenza sulle donne". Master's Degree Thesis, Università Ca' Foscari Venezia, 2022. http://hdl.handle.net/10579/21676.

Texto completo
Resumen
L’elaborato affronta la tematica della violenza sessuale sulle donne per mano degli uomini, analizzando strumenti che, a partire dall’approccio pedagogico della pedagogia della differenza, mirano a contrastare questa piaga sociale. Nella prima parte verrà esposto un excursus storico che ripercorre le tappe del processo di emancipazione della donna nel corso del Novecento. Partendo dal momento in cui nasce la riflessione sulle condizioni delle donne e sul loro stato di subordinazione, si arriva a delineare il processo che ha portato le donne a riunirsi in associazioni di massa (come l’UDI e il CIF), gruppi e movimenti che lottarono per rivendicare i diritti e la liberazione delle donne. Si da maggiore risalto al pensiero della differenza, su cui fa perno il lavoro politico e culturale dell’UDI di Palermo. Il secondo capitolo verte invece sui temi della violenza sessuale e la pedagogia della differenza. L’obiettivo è quello di indagare l’origine storica del fenomeno della violenza e il modo in cui viene interpretato. Inoltre, viene evidenziato come sia la scuola e l’educazione (improntata al rispetto delle differenze) a costituire il mezzo utile ad arginare la violenza sulle donne. Infine, si introduce la realtà dell’UDI di Palermo e si analizzerà il loro progetto “La scuola racconta una donna” e i relativi risultati per capire se può essere considerato uno strumento utile per combattere le discriminazioni di genere in ottica educativa. È un programma di educazione permanente che si rivolge alle scuole di ogni ordine e grado che si propone di avviare un processo di consapevolezza della parzialità dei due generi e, allo stesso tempo, coinvolgere gli insegnanti così che possano essere essi stessi modelli di riferimento per alunni e alunne. In generale i punti salienti di questo progetto sono i seguenti: la trasformazione dei contenuti; l’utilizzo di un linguaggio sessuato; la decostruzione contenuti androcentrici; adottare sguardo critico verso il patrimonio culturale, mostrando la falsa universalità che nasce invece dall’ esperienza maschile.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Ménélas, Bob. "Rendus sensorimoteurs en environnements virtuels pour l'analyse de données scientifiques complexes". Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00600399.

Texto completo
Resumen
Par l'exploitation de nos capacités visuelles, la visualisation scienti que entend proposer aux ingénieurs et aux chercheurs un outil visant à les assister dans l'acquisition de connaissance à partir de phénomènes complexes. Ce travail de thèse s'inscrit dans cette lignée, à ceci près qu'il s'intéresse plutôt à l'utilisation des technologies de la Réalité Virtuelle dans le but d'amener un utilisateur expert au coeur du processus d'exploration et d'analyse des données, ce que nous appelons Exploration de données scienti fiques. Dans le but d'arriver à des processus d'exploration efficaces, notre recherche s'est portée sur la mise en place de techniques d'interactions intuitives, susceptibles d'exploiter au mieux les capacités sensorimotrices de l'être humain. Pour atteindre cet objectif, deux conditions nous paraissent être essentielles. D'une part, il faut que les informations transmises via différents canaux sensorimoteurs aient une certaine cohérence à être délivrées ensemble : il est primordial que l'exploitation d'un canal pour véhiculer une information ne soit pas en concurrence avec ce qui est fait sur un autre canal. D'autre part, il est souhaitable que le potentiel de chaque canal soit utilisé au meilleur de sa capacité. Dans ce contexte, ce travail a débuté par une analyse de l'utilisation de l'haptique dans l'Exploration de données scientifi ques. Pour ce type d'usage, il a été identifié quatre tâches fondamentales (Sélectionner, Localiser, Relier et Arranger) pour lesquelles l'haptique semble présenter un réel avantage par rapport aux autres canaux sensoriels. Pour chacune de ces tâches, nous avons montré, au travers d'une large étude bibliographique, comment l'interaction haptique pouvait être exploitée afi n d'off rir des méthodes d'exploration efficaces. Sur la base de cette analyse organisée autour de ces quatre catégories, nous avons ensuite mis en évidence les problématiques liées aux tâches identifiées. Ainsi, nous avons souligné, d'une part que l'haptique pouvait faciliter la sélection de données scienti fiques dans des contextes où celles-ci sont massives, et d'autre part nous avons montré le besoin de mettre en place de nouvelles méthodes de suivi de structures d'intérêts (iso-surfaces, lignes de courant etc.). Notre problématique ayant ainsi été posée, nous avons d'une part étudié l'utilisation de retour multimodaux non visuels pour la recherche et la sélection de cibles dans un environnent virtuel 3d. Les situations impliquant une ou plusieurs cibles furent analysées, et plusieurs paradigmes d'interaction ont été proposés. Dans cet ordre d'idées, nous sommes arrivés à défi nir et valider un principe directeur pour l'usage de retours haptico-sonores pour la recherche et la sélection d'une cible donn ée située dans une scène 3d pouvant en contenir plusieurs autres. Nous avons en eff et montré que, pour une telle tâche, il était préférable d'exploiter la spatialisation sonore a n de localiser la cible désirée dans l'espace, tandis que le retour haptique permettait une sélection précise de la cible. D'autre part, nous nous sommes attaqués aux problèmes liés au rendu haptique d'ensembles de données pouvant présenter de fortes variations. A cet eff et, suite à un rappel de l'apport de l'haptique pour le rendu de surfaces dans le domaine médical, nous avons analysé certains besoins pouvant être comblés par l'ajout de ce canal sensorimoteur dans l'analyse d'iso-surfaces issues de simulation de Mécanique des Fluides Numérique (MFN). Par la suite nous avons proposé et évalué, par l'intermédiaire d'expériences de perception et de mesures de performance, de nouvelles méthodes de rendu haptique d'iso-surfaces dont l'une des originalités est de pouvoir se passer d'une représentation polygonale intermédiaire. En fin, nous avons appliquécette nouvelle approche d'exploration de données scientifi ques à l'analyse des résultats d'une simulation d'un écoulement dans une cavité ouverte. Ainsi, nous avons proposé deux méthodes d'analyse multi-sensorielle, dédiées à l'exploration d'un ensemble de données issu d'une simulation de MFN, en exploitant les approches génériques développées précédemment. La première méthode concerne une analyse interactive de la géométrie de l'écoulement, alors que la seconde se rapporte à une analyse multi-sensorielle de la topologie de l'écoulement. Les premières évaluations menées ont indiqué que les méthodes proposées tendaient à favoriser une meilleure compréhension du phénomène analysé et qu'elles pouvaient diminuer la charge cognitive habituellement requise par une telle tâche. A titre de conclusion, soulignons que cette thèse de doctorat ouvre la voie à un certain nombre de perspectives de recherches. A court terme, il s'agit de compléter les travaux relatifs à l'analyse de l'aspect dynamique de la simulation d'un écoulement dans une cavité ouverte. Ces travaux consisteront à proposer et valider différentes interactions multimodales visant à examiner les échanges/recirculations pouvant exister entre/dans les parties de la dite cavité. Mais au-delà des travaux relatifs à la MFN, l'expérience acquise à travers ces travaux pluridisciplinaires (informatique, mécanique des fluides, ergonomie cognitive) me permettra à moyen terme d'élargir mes travaux de recherche à l'exploration de données médicales, météorologiques, ou géologiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Wipliez, Matthieu. "Infrastructure de compilation pour des programmes flux de données". Phd thesis, INSA de Rennes, 2010. http://tel.archives-ouvertes.fr/tel-00598914.

Texto completo
Resumen
Les programmes flux de données (" data flow " en anglais) sont des programmes décrits sous la forme d'un graphe afin de mettre en évidence un certain nombre de propriétés, comme le parallélisme disponible, la localité des données, la certitude de ne pas avoir d'inter-blocages, etc. Ma thèse présente les problématiques liées à la mise en place d'une infrastructure de compilation pour ce type de programmes. Cette infrastructure a pour but de compiler, analyser, transformer, et exécuter un programme flux de données sur différentes plateformes, depuis des composants logiques programmables jusqu'à des processeurs multi-coeurs avec mémoire partagée. Nous présentons les aspects théoriques associés aux problèmes de compilation, d'analyse et d'ordonnancement des programmes flux de données, ainsi que les aspects pratiques et les résultats obtenus concernant la génération de code et l'exécution de ces programmes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Galbaud, du Fort Guillaume. "Epidémiologie et santé mentale du couple : etude comparée de données populationnelles et de données cliniques". Thesis, McGill University, 1991. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=59993.

Texto completo
Resumen
In an epidemiological study of mental health in couples, individual and systemic approaches were compared in terms of their appropriateness for general versus clinical populations.
The primary results from the study of 845 couples in the general population suggest that there exists a significant spouse-similarity across the various mental health dimensions examined (psychological distress, general well-being, and role satisfaction).
The main results from the study of 17 couples in marital therapy suggest that significant sex differences exist in dyadic adjustment. Sex differences were also noted in the correlations between dyadic adjustment and depressive symptoms.
In conclusion, it appears that epidemiological research on the mental health of couples should have as its objective a simultaneous consideration of both the individual and the couple, as well as a simultaneous consideration of clinical and general populations, in order to create a double complementarity out of this apparent double dichotomy.
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Wahl, François. "Un environnement d'aide aux ingénieurs basé sur une architecture en tâches et sur un module de visualisation de courbes. Application à la conception de procédés de raffinage". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1994. http://tel.archives-ouvertes.fr/tel-00529958.

Texto completo
Resumen
Dans le domaine du génie chimique, les ingénieurs tracent des courbes pour analyser les données recueillies. Une fois validée, cette connaissance est exploitée, en combinaison avec d'autres savoirs, sous forme de tâches. Cette thèse présente une architecture capable d'enchaîner n'importe quel type de tâches et de visualiser des courbes, appliquée à un problème d'aide à la conception de procédé de raffinage. L'architecture proposée repose sur une analyse objets des raisonnements, où figurent les notions de relations (inversibles ou non) et de flux du point de vue statique, de problèmes et de tâches du point de vue dynamique. Le module de visualisation exploite toutes les sortes de relations entre les variables et s'appuie sur des méthodes élaborées de tracé, dont deux sont nouvelles : la première s'inspire d'exemples a priori comme dans le raisonnement à base de cas, la seconde utilise les notions de monotonie et de concavité pour déduire des lignes dans un ensemble de points. L'application est exposée dans le détail et conduit à une analyse des problèmes de conception, et nous avons développé notamment une nouvelle classification de ces systèmes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Marteau, Hubert. "Une méthode d'analyse de données textuelles pour les sciences sociales basée sur l'évolution des textes". Tours, 2005. http://www.theses.fr/2005TOUR4028.

Texto completo
Resumen
Le but est d'apporter aux sociologues un outil informatique permettant l'analyse d'entretiens ouverts semi-directifs. Le traitement est en deux étapes : une indexation des entretiens suivi d'une classification. Les méthodes d'indexation habituelles reposent sur une analyse statistiques plus adaptées à des textes de contenu et de structure (textes littéraires, scientifiques,. . . ) marqués qu'à des entretiens limités à l'usage de peu de mots (1000 mots pour des textes de discussion). Partant de l'hypothèse que l'appartenance sociologique induit fortement la forme du discours, nous évaluons la structure et l'évolution des textes en proposant de nouvelles représentations des textes (image, signal) qui conduisent à l'extraction de valeurs indexant le texte, mesures statiques ou liées à l'évolution du texte. La classification choisie est arborée (NJ). Elle repose sur ces caractéristiques par sa faible complexité et son respects des distances, elle fournit une aide à la classification
This PhD Thesis aims at bringing to sociologists a data-processing tool wich allows them to analyse of semi-directing open talks. The proposed tool performs in two steps : an indexation of the talks followed by a classification. Usually, indexing methods rely on a general stastistical analysis. Such methods are suited for texts having contents and structure ( literary texts, scientific texts,. . . ). These texts have more vocabulary and structure than talks (limitation to 1000 words for suche texts). On the basis of the assumption that the sociological membership strongly induces the form of the speech, we propose various methods to evaluate the structure and the evolution of the texts. The methods attempt to find new representations of texts (image, signal) and to extract values from these new representations. Selected classification is a classification by trees (NJ). It has a low complexity and it respects distances, then this method is a good solution to provide a help to classification
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Girres, Jean-François y Jean-François Girres. "Modèle d'estimation de l'imprécision des mesures géométriques de données géographiques". Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00809273.

Texto completo
Resumen
De nombreuses applications SIG reposent sur des mesures de longueur ou de surface calculées à partir de la géométrie des objets d'une base de données géographiques (comme des calculs d'itinéraires routiers ou des cartes de densité de population par exemple). Cependant, aucune information relative à l'imprécision de ces mesures n'est aujourd'hui communiquée à l'utilisateur. En effet, la majorité des indicateurs de précision géométrique proposés porte sur les erreurs de positionnement des objets, mais pas sur les erreurs de mesure, pourtant très fréquentes. Dans ce contexte, ce travail de thèse cherche à mettre au point des méthodes d'estimation de l'imprécision des mesures géométriques de longueur et de surface, afin de renseigner un utilisateur dans une logique d'aide à la décision. Pour répondre à cet objectif, nous proposons un modèle permettant d'estimer les impacts de règles de représentation (projection cartographique, non-prise en compte du terrain, approximation polygonale des courbes) et de processus de production (erreur de pointé et généralisation cartographique) sur les mesures géométriques de longueur et de surface, en fonction des caractéristiques des données vectorielles évaluées et du terrain que ces données décrivent. Des méthodes d'acquisition des connaissances sur les données évaluées sont également proposées afin de faciliter le paramétrage du modèle par l'utilisateur. La combinaison des impacts pour produire une estimation globale de l'imprécision de mesure demeure un problème complexe et nous proposons des premières pistes de solutions pour encadrer au mieux cette erreur cumulée. Le modèle proposé est implémenté au sein du prototype EstIM (Estimation de l'Imprécision des Mesures)
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Bouatou, Mohamed. "Estimation non linéaire par ondelettes : régression et survie". Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004921.

Texto completo
Resumen
Dans ce travail, nous proposons de nouvelles approches d'estimation fonctionnelle pour des problèmes de régression et d'analyse de données de survie, et ce par l'utilisation de techniques adaptatives et non linéaires, fondées sur des décompositions en ondelettes. Les estimateurs qui en découlent, combinent les techniques d'estimation par projection orthogonale et celles de seuillage ou arbre de régression. Tout au long de ce travail, l'accent est mis sur l'importance que revêt le choix de la base optimale parmi une famille de bases d'ondelettes ou de paquets d'ondelettes exploitant au mieux la structure d'analyse multiéchelle qui leur est associée....
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía