Dissertations / Theses on the topic 'Manipulation des données'

To see the other types of publications on this topic, follow the link: Manipulation des données.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Manipulation des données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Segoufin, Luc. "Manipulation de données spaciales et topologiques." Paris 11, 1999. http://www.theses.fr/1999PA112033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les objets spatiaux, de par leur complexite, ne peuvent en general pas etre decrits de facon extensive, mais seulement intensionnellement, ce qui pose de serieux problemes aux systemes de gestion de bases de donnees. De la qualite de la modelisation des donnees depend la facilite de leur manipulation et l'efficacite des techniques d'evaluation que l'on peut mettre en uvre. La representation des objets a l'aide de contraintes rend possible une modelisation en terme d'ensembles qui permet une manipulation au moyen d'operations habituelles comme celles de l'algebre relationnelle. L'evaluation des requetes sur les objets spatiaux a generalement une complexite exponentielle en la dimension des donnees, ce qui limite la portee pratique des systemes pour des dimensions elevees. On montre comment dans le cadre du modele contrainte, il est possible d'utiliser des criteres telles que la dimension, la geometrie et la topologie des donnees pour maitriser le cout d'evaluation des requetes. Pour reduire la complexite en une fonction lineaire en la dimension, on propose des techniques d'evaluation basees sur des approximations. On montre aussi comment reconnaitre dans la requete des blocs correspondant a des problemes connus de geometrie. Une evaluation efficace de la requete est alors obtenue en remplacant ces blocs par l'algorithme correspondant. Enfin, on montre comment repondre plus rapidement a des requetes topologiques a l'aide d'une structure finie appelee graphe topologique et des techniques de reecriture de formules. Pour finir, on valide concretement la portee pratique de l'approche par contraintes et des concepts developpes dans cette these a l'aide d'un prototype, dedale, dont on presente la conception et l'implantation.
2

Tekli, Gilbert. "Manipulation des données XML par des utilisateurs non-experts." Phd thesis, Université Jean Monnet - Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00697756.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Aujourd'hui, les ordinateurs et l'Internet sont partout dans le monde : dans chaque maison, domaine et plateforme. Dans ce contexte, le standard XML s'est établi comme un moyen insigne pour la représentation et l'échange efficaces des données. Les communications et les échanges d'informations entre utilisateurs, applications et systèmes d'information hétérogènes sont désormais réalisés moyennant XML afin de garantir l'interopérabilité des données. Le codage simple et robuste de XML, à base de données textuelles semi-structurées, a fait que ce standard a rapidement envahi les communications medias. Ces communications sont devenues inter-domaines, partant de l'informatique et s'intégrant dans les domaines médical, commercial, et social, etc. Par conséquent, et au vu du niveau croissant des données XML flottantes entre des utilisateurs non-experts (employés, scientifiques, etc.), que ce soit sur les messageries instantanées, réseaux sociaux, stockage de données ou autres, il devient incontournable de permettre aux utilisateurs non-experts de manipuler et contrôler leurs données (e.g., des parents qui souhaitent appliquer du contrôle parental sur les messageries instantanées de leur maison, un journaliste qui désire regrouper et filtrer des informations provenant de différents flux RSS, etc.). L'objectif principal de cette thèse est l'étude des manipulations des données XML par des utilisateurs non-experts. Quatre principales catégories ont été identifiées dans la littérature : i) les langages visuels orientés XML, ii) les Mashups, iii) les techniques de manipulation des données XML, et iv) les DFVPL (langages de programmation visuel à base de Dataflow), couvrant différentes pistes. Cependant, aucune d'entre elles ne fournit une solution complète. Dans ce travail de recherche, nous avons formellement défini un Framework de manipulation XML, intitulé XA2C (XML-oriented mAnipulAtion Compositions). XA2C représente un environnement de programmation visuel (e.g., Visual-Studio) pour un DFVPL orienté XML, intitulé XCDL (XML-oriented Composition Definition Language) qui constitue la contribution majeure de cette thèse. XCDL, basé sur les réseaux de Pétri colorés, permet aux non-experts de définir, d'arranger et de composer des opérations de manipulation orientées XML. Ces opérations peuvent être des simples sélections/projections de données, ainsi que des opérations plus complexes de modifications de données (insertion, suppression, tatouage, etc.). Le langage proposé traite les données XML à base de documents ou de fragments. En plus de la définition formelle (syntaxique et sémantique) du langage XCDL, XA2C introduit une architecture complète à base d'un compilateur et un environnement d'exécution dédiés. Afin de tester et d'évaluer notre approche théorique, nous avons développé un prototype, intitulé X-Man, avec un Framework d'évaluation pour les langages et outils visuels de programmation orientés XML. Une série d'études de cas et d'expérimentations a été réalisée afin d'évaluer la qualité d'usage de notre langage, et de le comparer aux solutions existantes. Les résultats obtenus soulignent la supériorité de note approche, notamment en termes de qualité d'interaction, de visualisation, et d'utilisation. Plusieurs pistes sont en cours d'exploration, telles que l'intégration des opérations plus complexes (opérateurs de contrôle, boucles, etc.), les compositions automatiques, et l'extension du langage pour gérer la spécificité des formats dérivés du standard XML (flux RSS, RDF, SMIL, etc.)
3

Teste, Olivier. "Modélisation et manipulation d'entrepôts de données complexes et historisées." Phd thesis, Université Paul Sabatier - Toulouse III, 2000. http://tel.archives-ouvertes.fr/tel-00088986.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le mémoire de cette thèse traite de la modélisation conceptuelle et de la manipulation des données (par des algèbres) dans les systèmes d'aide à la décision. Notre thèse repose sur la dichotomie de deux espaces de stockage : l'entrepôt de données regroupe les extraits des bases sources utiles pour les décideurs et les magasins de données sont déduits de l'entrepôt et dédiés à un besoin d'analyse particulier.
Au niveau de l'entrepôt, nous définissons un modèle de données permettant de décrire l'évolution temporelle des objets complexes. Dans notre proposition, l'objet entrepôt intègre des états courants, passés et archivés modélisant les données décisionnelles et leurs évolutions. L'extension du concept d'objet engendre une extension du concept de classe. Cette extension est composée de filtres (temporels et d'archives) pour construire les états passés et archivés ainsi que d'une fonction de construction modélisant le processus d'extraction (origine source). Nous introduisons également le concept d'environnement qui définit des parties temporelles cohérentes de tailles adaptées aux exigences des décideurs. La manipulation des données est une extension des algèbres objet prenant en compte les caractéristiques du modèle de représentation de l'entrepôt. L'extension se situe au niveau des opérateurs temporels et des opérateurs de manipulation des ensembles d'états.
Au niveau des magasins, nous définissons un modèle de données multidimensionnelles permettant de représenter l'information en une constellation de faits ainsi que de dimensions munies de hiérarchies multiples. La manipulation des données s'appuie sur une algèbre englobant l'ensemble des opérations multidimensionnelles et offrant des opérations spécifiques à notre modèle. Nous proposons une démarche d'élaboration des magasins à partir de l'entrepôt.
Pour valider nos propositions, nous présentons le logiciel GEDOOH (Générateur d'Entrepôts de Données Orientées Objet et Historisées) d'aide à la conception et à la création des entrepôts dans le cadre de l'application médicale REANIMATIC.
4

Jedidi, Faïza. "Conception et manipulation de bases de données dimensionnelles à contraintes." Toulouse 3, 2004. http://www.theses.fr/2004TOU30176.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre des systèmes décisionnels, mes travaux de thèse consistent à étudier la modélisation des données dimensionnelles contraintes et à proposer un langage de manipulation adapté. Nous proposons un modèle dimensionnel organisant les données en une constellation de faits (sujets d'analyse) associés à des dimensions (axes d'analyse). Ces dimensions se caractérisent par leur flexibilité car chaque instance de la dimension peut appartenir à une ou plusieurs hiérarchies (perspectives d'analyse). L'intégration des contraintes dans le modèle dimensionnel a permis de valider la structure dimensionnelle et de désambiguiser les valeurs nulles provenant de la combinaison de hiérarchies incohérentes. Afin de tenir compte de ces contraintes, nous avons défini une algèbre d'interrogation des données dimensionnelles permettant au décideur de préciser les données à analyser. Enfin, nous proposons une méthode de conception d'un schéma dimensionnel intégrant les besoins des décideurs et les données sources. Pour valider nos travaux, nous avons développé un outil d'aide à la conception de schéma dimensionnel contraint
In decisional system framework, my thesis focuses on the conception and the querying of multidimensional data. We provide a constraint-based dimensional model organising data in a constellation of facts (subject of analysis), which are associated with dimensions (axes of analysis). These dimensions are flexible because each dimension instance can belong to one or several hierarchies (perspectives of analysis). Moreover, we integrate constraints in the multidimensional model allowing both the validation of multidimensional structures and consistent analyses by disambiguating null values, which can result from the combination of unsuitable hierarchies. To integrate these constraints, we define a multidimensional algebra enabling decision-makers to precise analysed instances. Finally, we provide a conceptual design method of multidimensional data integrating decision-maker needs and data issued from source schema. To validate our propositions, we provide a CASE tool to help designer to define conceptual multidimensional schema
5

Kabbaj, Younnes el. "MATHUS, un éditeur de relations : contribution à la manipulation des bases de données relationnelles." Paris 11, 1986. http://www.theses.fr/1986PA112279.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
MATHUS est un éditeur, multi-fenêtres et plein écran, de relations. Il sert d'interface utilisateur pour !e SGBD PEPIN. Il y est proposé une façon originale d'interroger une base de données. L'interrogation repose sur le parcours des données et leur marquage pour repérer les données recherchées. Nous présentons dans cette thèse les fonctionnalités de MATHUS et son implémentation. Nous présentons aussi la troisième version du SGBD PEPIN. Nous l'avons développé pour pouvoir lmplémenter MATHUS
Mathus is a full-screen relational editor. It is used as a user interface of the PEPIN data base management system. It offers a new way to query a data base. The user browses through relations and marks the data he is interested in. In this thesis the functionalities and the implementation of MATHUS are presented. The PEPIN's third version developed to make possible the imp!ementation of MATHUS, is also described
6

Hubert, Gilles. "Les versions dans les bases de données orientées objet : modélisation et manipulation." Phd thesis, Université Paul Sabatier - Toulouse III, 1997. http://tel.archives-ouvertes.fr/tel-00378240.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans le domaine des bases de données orientées objet ; elle propose des solutions pour décrire et manipuler des bases de données intégrant des versions. Le concept de version est nécessaire dans de nombreux domaines d'application comme la gestion de documentations techniques, la conception assistée par ordinateur et le génie logiciel. Les versions permettent notamment de conserver et manipuler l'évolution des entités du monde réel gérées dans de tels domaines. Différentes gestions de versions sont possibles. Certains travaux gèrent des versions de base ou d'une partie de base pour décrire l'évolution globale d'une base de données ; notre étude s'intéresse, quant à elle, à la représentation de l'évolution de chaque entité décrite dans la base, de manière indépendante. Nous proposons, d'une part, un modèle conceptuel intégrant la gestion de versions d'objets et de classes. Les relations de composition et d'association, dont la sémantique est affinée à l'aide de cardinalités, intègrent les versions pour des entités complexes. De telles relations, incluant les versions, induisent des contraintes d'intégrité structurelle complexes, dont nous faisons l'étude. D'autre part, nous proposons un langage pour manipuler ce type de bases de données. Ce langage permet notamment une interrogation de type Select From Where qui prend en compte les spécificités liées aux versions ; les différents niveaux d'abstraction liés aux versions c'est-à-dire les forêts de dérivation, les arbres et les versions, peuvent être exploités lors d'une interrogation. Une réalisation du modèle et du langage est effectuée au sein d'un prototype. Ce prototype est une interface destinée à des utilisateurs occasionnels, en permettant de manipuler graphiquement une base de données intégrant des versions.
7

Ouellet, Etienne. "Représentation et manipulation de données de simulation dans un environnement virtuel immersif." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28502/28502.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Blouin, Arnaud. "Un modèle pour l'ingénierie des systèmes interactifs dédiés à la manipulation de données." Phd thesis, Université d'Angers, 2009. http://tel.archives-ouvertes.fr/tel-00477735.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'ingénierie du logiciel s'intéresse, entre autres, à trois aspects du développement des systèmes interactifs (SI) : la liaison entre les données sources et leurs présentations cibles ; la conception de la facette interactive ; l'exécution d'un même SI sur différentes plates-formes d'exécution. Les différentes évolutions du web et des données, la diversification des plates-formes d'exécution, ainsi que les techniques d'interactions modernes amènent à revoir la manière de traiter ces trois aspects. L'ingénierie des modèles (IDM) apporte une solution à l'exécution multi-plateforme en échelonnant la conception d'un SI sur différents niveaux d'abstraction. C'est sur ce principe que nos travaux se fondent. Nous avons tout d'abord défini un langage de correspondance, appelé Malan, dédié au lien entre les données sources d'un SI et leurs présentations cibles. Malan a pour avantages de : s'abstraire des plate-forme de données et d'IHM utilisées ; pouvoir réaliser des calculs complexes pour la disposition des éléments d'une présentation ; avoir été développé spécialement pour la liaison données-présentations, contrairement aux langages de transformations classiques. Nous avons ensuite conçu un modèle conceptuel d'interaction, appelé Malai, réunissant les caractéristiques majeures des principaux modèles d'interactions. Malai vise à : faciliter la conception du feed-back intérimaire des instruments ; réutiliser des interactions déjà définies ; considérer une action comme un objet à part entière ; décrire des interactions classiques et modernes ; générer du code pour une plate-forme d'exécution donnée.
9

Fournié, Laurent Henri. "Stockage et manipulation transactionnels dans une base de données déductives à objets : techniques et performances." Versailles-St Quentin en Yvelines, 1998. http://www.theses.fr/1998VERS0017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse propose des solutions pour mettre en oeuvre, de manière flexible et performante, le stockage et les manipulations transactionnels d'une base de données déductive à objets (dood) ; elle s'inscrit dans le développement du système validity. Outre une analyse et une synthèse de l'état de l'art, nos travaux comportent une validation pratique par la réalisation d'un véritable système de stockage et par son évaluation à l'aide d'un ensemble de mesures de performance. Nous exposons les principes dood et leurs impacts fonctionnels, transactionnels et opérationnels : les convergences et les divergences avec les modèles relationnel et objet sont approfondies. Deux axes principaux sont ensuite étudiés : (1) une synthèse des mécanismes de gestion de la mémoire persistante (organisation sur les supports physiques, contrôle des caches et stratégie de reprise) assurant l'atomicité et la durabilité des écritures, (2) le protocole original rc2pl intégrant le verrouillage a deux phases (2pl) et l'ordonnancement par multiversion pour isoler les transactions. Rc2pl décompose les transactions en deux phases : une phase de mise à jour (lectures et écritures) isolée par verrouillage, suivie d'une phase de vérification (lectures seulement) isolée par multiversion. Ainsi, rc2pl assure une isolation stricte et non conflictuelle des lectures exécutées en fin de transaction pour vérifier les contraintes d'intégrité sans pénaliser la concurrence. L'algorithme, la correction et les techniques de mises en oeuvre sont détaillés. Finalement, nous comparons les performances de rc2pl avec les différentes stratégies de vérification sous 2pl (avant, pendant et après les écritures). Les résultats démontrent que rc2pl réduit le nombre de conflits : la verification des contraintes d'integrité déclaratives après les écritures sous rc2pl offre des performances comparables à la meilleure optimisation des vérifications programmées à la main dans les applications sous 2pl.
10

Pietriga, Emmanuel. "Langages et techniques d'interaction pour la visualisation et la manipulation de masses de données." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00709533.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les récentes avancées en matière d'acquisition, stockage et traitement des données ont résulté en une augmentation spectaculaire de la quantité d'information collectée et analysée, et ce dans de nombreux domaines : disciplines scientifiques, industrie, commerce, bibliothèques numériques, données mises à disposition du public par des organismes gouvernementaux ; domaines auxquels s'ajoutent les contenus que tout un chacun peut mettre à disposition sur le Web à travers les réseaux sociaux, les blogs ou les sites de partage de documents multimédia. La capacité des systèmes et bases de données hétérogènes d'échanger et croiser ces données, mais aussi d'inférer de nouvelles données, s'est aussi grandement améliorée, grâce à des technologies émergentes comme celles issues des recherches liées au Web des données -- par opposition au Web des documents -- s'appuyant sur les technologies du Web sémantique. Mes travaux de recherche s'inscrivent dans le domaine de l'interaction homme-machine (IHM), et portent plus spécifiquement sur la conception, le développement et l'évaluation de techniques d'interactions et de visualisation facilitant la compréhension et la manipulation de ces masses de données. Les représentations graphiques peuvent être d'une grande aide quand elles fournissent des visualisations pertinentes des données, de leur structure, et qu'elles sont couplées à des techniques d'interaction permettant une navigation efficace dans ces grands espaces d'information. Elles jouent à ce titre un rôle important dans la recherche et le développement de systèmes informatiques pour la gestion et l'analyse de masses de données semi-structurées. Mes activités de recherche sont organisées autour de deux thèmes, dont je présenterai les principaux résultats : langages visuels et techniques de visualisation d'information pour aider les utilisateurs à interpréter et manipuler des jeux de données semi-structurés ; conception, développement et évaluation expérimentale de techniques d'interaction multi-échelle pour naviguer dans des masses de données sur différents types de plate-formes : dispositifs mobiles, stations de travail, murs d'images très haute résolution.
11

Khouri, Selma. "Cycle de vie sémantique de conception de systèmes de stockage et manipulation de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2013. http://www.theses.fr/2013ESMA0016/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les ED deviennent des composants incontournables dans les entreprises et les organisations.Le thème de conception des ED a fait l’objet de recherches actives ces dernières années. Laprincipale limitation des approches proposées est le manque d’une vision globale s’inscrivantdans le cadre du cycle de conception des ED, même si la communauté reconnait toutes lesphases de ce cycle. Nos principales contributions dans cette thèse portent sur la proposition d’uneméthode de conception adaptée aux récentes évolutions qu’a connu le cycle de conception, etenglobant l’ensemble de ses phases. Le cycle de conception a connu une diversification importantedes modèles de stockage de données et des architectures de déploiement possibles offrant deschoix de conception variés. Ce cycle reconnait l’importance des besoins des utilisateurs dansle processus de conception, et l’importance d’accès et de représentation de la sémantique desdonnées. Notre première proposition présente une méthode de conception suivant une approcheà base d’ontologies de domaine, permettant de valoriser les besoins des utilisateurs en leur offrantune vue persistante au sein de l’ED. Cette vue permet d’anticiper diverses tâches de conceptionet de simuler les différents choix de conception. Notre deuxième proposition revisite le cycle deconception en exécutant la phase ETL (extraction-transformation-chargement des données) dèsla phase conceptuelle. Cette proposition permet de fournir un moyen de déploiement multiplesur différentes plateformes disponibles
Data Warehouses (DWs) become essential components for companies and organizations.DWdesign field has been actively researched in recent years. The main limitation of the proposedapproaches is the lack of an overall vision covering the DW design cycle. Our main contributionin this thesis is to propose a method adapted to recent evolutions of the DW design cycle,and covering all its phases. These evolutions have given rise to new data storage models andnew deployment architectures, which offers different design choices for designers and administrators.DW literature recognizes the importance of user requirements in the design process, andthe importance of accessing and representing data semantics. We propose an ontology drivendesign method that valorizes users’ requirements by providing them a persistent view in theDW structure. This view allows anticipating diverse design tasks and simulating different designchoices. Our second proposal revisits the design cycle by executing the ETL phase (extractiontransformation-loading of data) in the conceptual stage. This proposal allows a deployment à lacarte of the DW using the different deployment platforms available
12

Khouri, Selma, and Selma Khouri. "Cycle de vie sémantique de conception de systèmes de stockage et manipulation de données." Phd thesis, ISAE-ENSMA Ecole Nationale Supérieure de Mécanique et d'Aérotechique - Poitiers, 2013. http://tel.archives-ouvertes.fr/tel-00926657.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les ED deviennent des composants incontournables dans les entreprises et les organisations.Le thème de conception des ED a fait l'objet de recherches actives ces dernières années. Laprincipale limitation des approches proposées est le manque d'une vision globale s'inscrivantdans le cadre du cycle de conception des ED, même si la communauté reconnait toutes lesphases de ce cycle. Nos principales contributions dans cette thèse portent sur la proposition d'uneméthode de conception adaptée aux récentes évolutions qu'a connu le cycle de conception, etenglobant l'ensemble de ses phases. Le cycle de conception a connu une diversification importantedes modèles de stockage de données et des architectures de déploiement possibles offrant deschoix de conception variés. Ce cycle reconnait l'importance des besoins des utilisateurs dansle processus de conception, et l'importance d'accès et de représentation de la sémantique desdonnées. Notre première proposition présente une méthode de conception suivant une approcheà base d'ontologies de domaine, permettant de valoriser les besoins des utilisateurs en leur offrantune vue persistante au sein de l'ED. Cette vue permet d'anticiper diverses tâches de conceptionet de simuler les différents choix de conception. Notre deuxième proposition revisite le cycle deconception en exécutant la phase ETL (extraction-transformation-chargement des données) dèsla phase conceptuelle. Cette proposition permet de fournir un moyen de déploiement multiplesur différentes plateformes disponibles.
13

Bonhomme, Christine. "Unlangage visuel dédié à l'interrogation et la manipulation de bases de données spatio-temporelles." Lyon, INSA, 2000. http://www.theses.fr/2000ISAL0049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous présentons LVIS, un langage visuel dédié à l’interrogation et la manipulation de bases de données spatio-temporelles et, de manière plus spécifique, de Systèmes d’Information Géographique (SIG). Ce langage repose sur un mode d’interrogation par l’exemple. Des représentations visuelles de requêtes, dites requêtes visuelles, sont construites à l’aide de sélections successives d’icônes. Les icônes du langage sont définies à l’avance et se répartissent en deux catégories : l’ensemble des icônes des types d’objets de la base de données à interroger et l’ensemble des icônes des opérateurs nécessaires à la spécification de critères. Les requêtes visuelles obtenues sont traduites dans un langage textuel intermédiaire nommé langage pivot. Ce dernier est indépendant du SIG sur lequel les requêtes vont être exécutées. Le langage est défini à l’aide de trois grammaires indépendantes et substituables. Une première grammaire définit la sémantique du langage. Une seconde grammaire, dite grammaire visuelle, décrit la sémantique visuelle du langage. Une dernière grammaire définit les mots-clés du langage pivot permettant aux requêtes d’être traduites dans le langage d’interrogation d’un SIG choisi par l’utilisateur final. Un prototype a été développé dans l’optique de tester les interactions du langage avec le SIG MapInfo. Les deux principales contributions de cette étude dans le domaine de l’interrogation visuelle sont les suivantes : (1) La spécification de requêtes spatio-temporelles est prise en charge par l’intégration d’un ensemble d’opérateurs temporels (relations d’Allen) et spatio-temporels (cycle de vie des objets), et par la définition de nouvelles métaphores visuelles concourant à la représentation visuelle de telles requêtes. (2) La validation des icônes du langage est effectuée grâce à la réalisation de tests psycho-cognitifs auprès d’utilisateurs potentiels, ce qui permet notamment d’éprouver la convivialité du langage
This thesis deals with LVIS, a visual query language for spatiotemporal databases and more specifically for Geographical Information Systems (GIS). The language follows a query-by-example philosophy. Visual representations of queries - or visual queries - are incrementally specified by means of two sets of icons: the first one contains the icons that represent the object types of the database to be queried; the second one contains the icons of a minimal set of operators that are useful to express some criteria. Visual queries are then translated into a intermediate textual language - named pivot language. This pivot language is independent of the GIS that will finally execute queries. The language is defined by three independent grammars. A first grammar defines the semantics of the language. The second grammar - or visual grammar - defines the visual semantics of the language. The last grammar defines the keywords of the pivot language and allows the queries to be translated into the query language of a GIS that is chosen by the end user. A prototype has been developed with the aim of testing the interactions of the language with the MapInfo GIS. The two main contributions in the field of visual querying are: (1) The formulation of spatiotemporal queries are handled by both the integration of temporal (Allen relationships) and spatiotemporal (life-cycle of objects) operators and the definition of new visual metaphors allowing to visually represent such queries. (2) The validation of the icons of the language is assumed by psycho-cognitive tests that have been subjected to potential users. These tests aim too at evaluating the user-friendliness of the language
14

Wabbi, Ahmad. "Architectures parallèles systoliques pour la compression de données et la manipulation des sous-chaînes." Amiens, 1998. http://www.theses.fr/1998AMIE0107.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons dans ce travail plusieurs algorithmes et architectures parallèles pour la manipulation des sous-chaînes et la compression de données. Le modèle parallèle choisi est le modèle systolique connu comme étant aussi bien rapide et efficace que facile à implémenter en VLSI. Dans un premier temps, deux architectures systoliques pour la manipulation des sous-chaînes sont présentées. La première est un réseau unidimensionnel pour la détection des répétitions, des motifs de caractères répétés plusieurs fois consécutives, dans une chaîne de caractères. La deuxième est bidimentionnelle. Elle calcule les statistiques des sous-chaînes d'une chaîne donnée, c'est à dire le nombre de fois que chaque sous-chaîne est rencontrée dans la chaîne originale. Ces réseaux sont des améliorations significatives de deux architectures proposées dans [AN84] en y introduisant la notion de division de cycle d'horloge. En ce qui concerne la compression de données, nous étudions trois réseaux systoliques unidimensionnels. La méthode de compression utilisée dans les trois s'appuie sur ce qu'on appelle les self-organizing lists. Son efficacité dépend directement à l'heuristique de mise-à-jour de la liste utilisée. La première architecture est une implémentation efficace d'une heuristique bien étudiée dans la littérature qui s'appelle « Transpose ». Les deux autres sont des implémentations de deux heuristiques hybrides : une qui est déjà proposée dans plusieurs articles mais sans implémentations systoliques et une autre que nous proposons et montrons qu'elle est plus efficace que la première
15

Bui, Quang Ngoc. "Aspects dynamiques et gestion du temps dans les systèmes de bases de données généralisées." Grenoble INPG, 1986. https://theses.hal.science/tel-00321849.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Gordillo, Silvia. "Modélisation et manipulation de phénomènes continus spatio-temporels." Lyon 1, 2001. http://www.theses.fr/2001LYO10118.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse nous présentons un atelier orienté-objet pour la conception des applications géographiques, en particulier, des phénomènes et des champs continus qui permet la représentation d'objets et de relations complexes et de partager l'information spatiale. Les champs continus sont définis en tant que types abstraits des données en encapsulant leurs caractéristiques propres et implémentant les éléments nécessaires pour l'interaction avec d'autres types d'objet. L'atelier rend possible la spécification de différentes méthodes d'interpolation interchangeables dynamiquement, et la détermination de la représentation du champ qui peut être changée pendant l'exécution de sorte que la manipulation des champs soit plus efficace. Grâce à la définition des champs comme type abstraits de données, l'interaction est possible entre les informations continues et celles discrètes. Nous avons défini aussi une algèbre de champs continus grâce à un ensemble d'opérations (unaires et binaires) qui sont définies comme une architecture particulière permettant l'extension et l'indépendance de la résolution. Finalement, nous avons spécifié un langage de requête à la base de langages orienté-objet pour la manipulation de champs.
17

Romat, Hugo. "From data exploration to presentation : designing new systems and interaction techniques to enhance the sense-making process." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS335/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours de la dernière décennie, la quantité de données n'a cessé d'augmenter. Ces données peuvent provenir de sources variées, telles que des smartphones, des enregistreurs audio, des caméras, des capteurs, des simulations, et peuvent avoir différentes structures. Bien que les ordinateurs puissent nous aider à traiter ces données, c'est le jugement et l'expertise humaine qui les transforment réellement en connaissances. Cependant, pour donner un sens à ces données de plus en plus diversifiées, des techniques de visualisation et d'interaction sont nécessaires. Ce travail de thèse contribue de telles techniques pour faciliter l'exploration et la présentation des données, lors d'activités visant à faire sens des données. Dans la première partie de cette thèse, nous nous concentrons sur les systèmes interactifs et les techniques d'interaction pour aider les utilisateurs à faire sens des données. Nous étudions comment les utilisateurs travaillent avec des contenus divers afin de leur permettre d'externaliser leurs pensées par le biais d'annotations digitales. Nous présentons notre approche avec deux systèmes. Le premier, ActiveInk, permet l'utilisation naturelle du stylet pour la lecture active, lors d'un processus d'exploration de données. Dans le cadre d'une étude qualitative menée auprès de huit participants, nous contribuons des observations sur les comportements de la lecture active au cours de l'exploration des données, et, des principes aidant les utilisateurs à faire sens des données.Le second système, SpaceInk, est un espace de conception de techniques en utilisant le stylet et les gestes, qui permet de créer de l'espace pour les annotations, pendant la lecture active, en ajustant dynamiquement le contenu du document. Dans la deuxième partie de cette thèse, nous avons étudié les techniques permettant de représenter visuellement les éléments de réponses aux questions quand les utilisateurs essaient de faire sens des données. Nous nous concentrons sur l'une des structures de données les plus élaborées : les réseaux multi-variés, que nous visualisons à l'aide de diagrammes noeuds-liens. Nous étudions comment permettre un processus de conception itératif flexible lors de la création de diagrammes nœuds-liens pour les réseaux multi-variés. Nous présentons d'abord un système, Graphies, qui permet la création de visualisations expressives de diagrammes noeuds-liens en fournissant aux concepteurs un environnement de travail flexible qui rationalise le processus créatif et offre un support efficace pour les itérations rapides de conception. Allant au-delà de l'utilisation de variables visuelles statiques dans les diagrammes nœuds-liens, nous avons étudié le potentiel des variables liées au mouvement pour encoder les attributs des données. En conclusion, nous montrons dans cette thèse que le processus visant à faire sens des données peut être amélioré à la fois dans le processus d'exploration et de présentation, en utilisant l'annotation comme nouveau moyen de transition entre exploration et externalisation, et en suivant un processus itératif et flexible pour créer des représentations expressives de données. Les systèmes qui en résultent établissent un cadre de recherche où la présentation et l'exploration sont au cœur des systèmes de données visuelles
During the last decade, the amount of data has been constantly increasing. These data can come from several sources such as smartphones, audio recorders, cameras, sensors, simulations, and can have various structure. While computers can help us process these data, human judgment and domain expertise is what turns the data into actual knowledge. However, making sense of this increasing amount of diverse data requires visualization and interaction techniques. This thesis contributes such techniques to facilitate data exploration and presentation, during sense-making activities. In the first part of this thesis, we focus on interactive systems and interaction techniques to support sense-making activities. We investigate how users work with diverse content in order to make them able to externalize thoughts through digital annotations. We present our approach with two systems. The first system, ActiveInk enables the natural use of pen for active reading during a data exploration process. Through a qualitative study with eight participants, we contribute observations of active reading behaviors during data exploration and design principles to support sense-making. The second system, SpaceInk, is a design space of pen & touch techniques that make space for in-context annotations during active reading by dynamically reflowing documents. In the second part, we focus on techniques to visually represent insights and answers to questions that arise during sense-making activities. We focus on one of the most elaborate data structures: multivariate networks, that we visualize using a node-link diagram visualization. We investigate how to enable a flexible iterative design process when authoring node-link diagrams for multivariate networks. We first present a system, Graphies, that enables the creation of expressive node-link diagram visualizations by providing designers with a flexible workflow that streamlines the creative process, and effectively supports quick design iterations. Moving beyond the use of static visual variables in node-link diagrams, we investigated the use of motion to encode data attributes. To conclude, we show in this thesis that the sense-making process can be enhanced in both processes of exploration and presentation, by using ink as a new medium to transition between exploration and externalization, and by following a flexible, iterative process to create expressive data representations. The resulting systems establish a research framework where presentation and exploration are a core part of visual data systems
18

Liu, Can. "Embodied Interaction for Data Manipulation Tasks on Wall-sized Displays." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS207/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De grands ensembles de données sont de plus en plus utilisés dans divers domaines professionnels, tels que la médecine, la sociologie et l'économie. Ceci pose de nombreux défis dans leurs utilisations pour, par exemple, les classifier et la prise de décision. Pour cela nous n'avons pas seulement besoin d'algorithmes élaborés pour leur traitement, il faut aussi que les utilisateurs puissent visualiser et interagir avec les données pour pouvoir les appréhender et éventuellement corriger ou vérifier les traitement fait par les machines. Cette thèse explore cette problématique en étudiant l'interaction d'utilisateurs avec de grands ensembles de données sur des murs d'écrans.Le corps humain est fait pour interagir avec le monde physique, du microscopique aux grandes échelles. Nous pouvons naturellement nous coordonner pour voir, entendre, toucher et nous déplacer pour interagir avec l'environnement à diverses échelles. Au-delà d'un individu, les êtres humains collaborent en communicant et en se coordonnant. En suivant la définition de Dourish, l'Interaction Incorporée encourage les concepteurs d'interaction de profiter de l'expérience existante du monde physique des utilisateurs lors de la conception de l'interaction avec les interfaces numériques.Je soutiens que les grands espaces interactifs permettent une interaction incorporée de l'utilisateur avec des données répartis dans l'espace, en tirant parti des capacités physiques des utilisateurs, comme la marche, l'approche et l'orientation. Au-delà d'un simple utilisateur, ces environnements permettent aussi à plusieurs utilisateurs d'interagir ensemble en utilisant la communication verbale et gestuelle tout en ayant une conscience de la présence physique de chacun. Alors que dans le cadre mono-utilisateur, de nombreuses recherches portent sur la transformation d'actions physiques en modalités d'entrées, le cas des relations entre plusieurs utilisateurs a été très peu étudié. Dans cette thèse, je présente tout d'abord une expérience qui évalue formellement l'avantage pour un utilisateur d'exécuter une tâche de manipulation de données sur un grand mur d'écrans par rapport à un ordinateur de bureau. Cette expérience montre que les mouvements physiques de l'utilisateur l'aide à naviguer dans une grande surface de données, et permet de surpasser les techniques de navigation existantes sur un ordinateur de bureau tels que les techniques de Focus+Contexte. Avec la même tâche expérimentale, j'étudie ensuite la manipulation de données collaborative avec un mur d'écrans, en imposant différents styles de collaboration, de étroitement couplées à lâche. L'expérience mesure l'effet de l'introduction d'une technique d'interaction partagée, dans lequel les collaborateurs effectuent chacun une partie d'une action pour émettre une commande. Les résultats montrent les avantages d'une telle technique en termes d'efficacité, d'engagement des utilisateurs, ainsi que de fatigue physique. Enfin, j'explore le concept d'augmentation de l'interaction humain-à-humain avec des techniques d'interaction partagées, et je propose un espace de conception pour ces techniques pour facilité la manipulation de données collaborative. Je présente la conception, la mise en œuvre et l'évaluation d'un ensemble de ces techniques, ainsi que les travaux futurs qui en découlent
Large data sets are used acceleratingly in various professional domains, such as medicine and business. This rises challenges in managing and using them, typically including sense-making, searching and classifying. This does not only require advanced algorithms to process the data sets automatically, but also need users' direct interaction to make initial judgment or to correct mistakes from the machine work. This dissertation explores this problem domain and study users' direct interaction with scattered large data sets. Human body is made for interacting with the physical world, from micro scope to very large scales. We can naturally coordinate ourselves to see, hear, touch and move to interact with the environment in various scales. Beyond individual, humans collaborate with each other through communication and coordination. Based on Dourish's definitioncite{2001:AFE:513034}, Embodied Interaction encourages interaction designers to take advantage of users' existing skills in the physical world, when designing the interaction with digital artefacts. I argue that large interactive spaces enable embodied user interaction with data spread over space, by leveraging users' physical abilities such as walking, approaching and orienting. Beyond single users, co-located environments provide multiple users with physical awareness and verbal gestural communication. While single users' physical actions have been augmented to be various input modalities in existing research, the augmentation of between-user resources has been less explored. In this dissertation, I first present an experiment that formally evaluates the advantage of single users performing a data manipulation task on a wall-sized display, comparing to on a desktop computer. It shows that using users' physical movements to navigate in a large data surface, outperforms existing digital navigation techniques on a desktop computer such as Focus+Context. With the same experimental task, I then study the interaction efficiency of collaborative data manipulation with a wall-sized display, in loosely or closely coupled collaboration styles. The experiment measures the effect of providing a Shared Interaction Technique, in which collaborators perform part of an action each to issue a command. The results conclude its benefits in terms of efficiency, user engagement as well as physical fatigue. Finally, I explore the concept of augmenting human-to-human interaction with shared interaction techniques, and illustrate a design space of such techniques for supporting collaborative data manipulation. I report the design, implementation and evaluation of a set of these techniques and discuss the future work
19

Gutierrez, Alejandro. "Extraction et manipulation d'information structurée sous la forme de graphe à partir de sources de données existantes." Versailles-St Quentin en Yvelines, 1997. http://www.theses.fr/1997VERS0015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des applications techniques telles que la gestion des réseaux routiers et électriques nécessitent de manipuler un grand volume d'information structurée sous la forme de graphe. Des problèmes typiques portent sur des parcours de chemins (par exemple, calcul du plus court chemin, du chemin avec la capacité maximale, du nombre de sous-composants d'un composant). Trois aspects principaux rendent difficile l'utilisation des algorithmes classiques pour résoudre ces problèmes a savoir, la taille des réseaux, la complexité de la structure des réseaux et la diversité des sources de données. Dans cette thèse, nous proposons un cadre base sur la notion de vue de graphe qui permet la définition des opérations de graphes et s'adapte à leur diversité de représentations. Une vue de graphe définit un graphe spécifique à partir des données stockées dans des sources différentes. La définition d'une vue de graphe consiste à établir une correspondance entre les éléments d'un graphe et les données sous-jacentes par l'intermédiaire de fonctions qui spécifient les éléments du graphe et la façon par laquelle le graphe peut être parcouru. Des opérateurs de dérivation sont proposes pour définir des nouvelles vues de graphes à partir de celles existantes. Ces opérateurs permettent la composition, dans une seule vue de graphe, de graphes contenant des étiquettes différentes de nœuds et des arcs et issus d'implémentations différentes. Des opérations de graphes telles que les parcours de chemins peuvent entre appliquées sur des vues de graphe de base et dérivées. La spécialisation d'un mécanisme de vue au problème spécifique de gestion de graphes, nous permet de proposer des stratégies adaptées au traitement des opérations de parcours de chemins. Nous validons le cadre proposé en supportant l'opération de fermeture transitive généralisée qui permet de résoudre une variété des problèmes de parcours de chemins. Une évaluation analytique des stratégies a été accomplie, nous permettant d'identifier les paramètres principaux qui influencent le comportement des stratégies pour le traitement de cette opération. Les résultats de cette évaluation ont été partiellement valides par un prototype qui implémente les idées principales du cadre proposé
20

Bruno, Emmanuel. "Documents XML : modélisation, manipulation et contrôle d'accès." Toulon, 2001. http://www.theses.fr/2001TOUL0011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est de fournir les bases d'un système sécurisé de publication de données représentées en XML. Il doit offrir les mécanismes permettant d'adapter les données aux besoins et aux contraintes des clients. Les besoins peuvent être liés à l'utilisation qui va être faite des données et les contraintes aux moyens utilisés pour y accéder (accès manuel depuis un navigateur Web ou un téléphone mobile, intégration dans une application,. . . ). De plus, un accès évolué aux données doit être proposé aux utilisateurs à travers un langage de manipulation de haut niveau. Pour répondre à cet objectif, le système que nous proposons, dont le prototype est appelé DAMN, est composé de cinq modules : 1. Un modèle logique des données XML : DAMNi. Le modèle logique des données XML est utilisé pour la représentation interne des données XML. Il sert de fondement à l'algèbre de manipulation et permet l'évaluation efficace des requêtes. Une algèbre de manipulation : Dalgebra. L'algèbre de manipulation des données définit l'ensemble des opérations de base sur les instances du modèle interne. C'est avec elle que les opérateurs du langage de haut niveau sont spécifiés formellement. Un modèle de contrôle d'accès. Le modèle de contrôle d'accès permet de définir la politique de protection du contenu des données XML sources, des données publiées, et des résultats des requêtes exprimées par les utilisateurs. Un modèle externe de données : DAMNe. Le modèle externe permet la représentation de haut niveau des données XML. Il est destiné aux utilisateurs et sert de modèle de données au langage de manipulation. Un langage de manipulation de haut niveau : DQL. DQL est un langage de manipulation de données XML de haut niveau. Il est utilisé par les concepteurs de l'application pour adapter les données publiées et par les utilisateurs pour les interroger. Les points 1,2 et 4 constituent les contributions originales. Les points 3 et 5 sont développés collaboration.
21

Tekli, Gilbert. "XML manipulation by non-expert users." Thesis, Saint-Etienne, 2011. http://www.theses.fr/2011STET4013/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Aujourd’hui, les ordinateurs et l’Internet sont partout dans le monde : dans chaque maison, domaine et plateforme. Dans ce contexte, le standard XML s’est établi comme un moyen insigne pour la représentation et l’échange efficaces des données. Les communications et les échanges d’informations entre utilisateurs, applications et systèmes d’information hétérogènes sont désormais réalisés moyennant XML afin de garantir l’interopérabilité des données. Le codage simple et robuste de XML, à base de données textuelles semi-structurées, a fait que ce standard a rapidement envahi les communications medias. Ces communications sont devenues inter-domaines, partant de l’informatique et s’intégrant dans les domaines médical, commercial, et social, etc. Par conséquent, et au vu du niveau croissant des données XML flottantes entre des utilisateurs non-experts (employés, scientifiques, etc.), que ce soit sur les messageries instantanées, réseaux sociaux, stockage de données ou autres, il devient incontournable de permettre aux utilisateurs non-experts de manipuler et contrôler leurs données (e.g., des parents qui souhaitent appliquer du contrôle parental sur les messageries instantanées de leur maison, un journaliste qui désire regrouper et filtrer des informations provenant de différents flux RSS, etc.). L'objectif principal de cette thèse est l'étude des manipulations des données XML par des utilisateurs non-experts. Quatre principales catégories ont été identifiées dans la littérature : i) les langages visuels orientés XML, ii) les Mashups, iii) les techniques de manipulation des données XML, et iv) les DFVPL (langages de programmation visuel à base de Dataflow), couvrant différentes pistes. Cependant, aucune d’entre elles ne fournit une solution complète. Dans ce travail de recherche, nous avons formellement défini un Framework de manipulation XML, intitulé XA2C (XML-oriented mAnipulAtion Compositions). XA2C représente un environnement de programmation visuel (e.g., Visual-Studio) pour un DFVPL orienté XML, intitulé XCDL (XML-oriented Composition Definition Language) qui constitue la contribution majeure de cette thèse. XCDL, basé sur les réseaux de Pétri colorés, permet aux non-experts de définir, d’arranger et de composer des opérations de manipulation orientées XML. Ces opérations peuvent être des simples sélections/projections de données, ainsi que des opérations plus complexes de modifications de données (insertion, suppression, tatouage, etc.). Le langage proposé traite les données XML à base de documents ou de fragments. En plus de la définition formelle (syntaxique et sémantique) du langage XCDL, XA2C introduit une architecture complète à base d’un compilateur et un environnement d'exécution dédiés. Afin de tester et d’évaluer notre approche théorique, nous avons développé un prototype, intitulé X-Man, avec un Framework d’évaluation pour les langages et outils visuels de programmation orientés XML. Une série d'études de cas et d’expérimentations a été réalisée afin d'évaluer la qualité d'usage de notre langage, et de le comparer aux solutions existantes. Les résultats obtenus soulignent la supériorité de note approche, notamment en termes de qualité d’interaction, de visualisation, et d’utilisation. Plusieurs pistes sont en cours d’exploration, telles que l'intégration des opérations plus complexes (opérateurs de contrôle, boucles, etc.), les compositions automatiques, et l’extension du langage pour gérer la spécificité des formats dérivés du standard XML (flux RSS, RDF, SMIL, etc.)
Computers and the Internet are everywhere nowadays, in every home, domain and field. Communications between users, applications and heterogeneous information systems are mainly done via XML structured data. XML, based on simple textual data and not requiring any specific platform or environment, has invaded and governed the communication Medias. In the 21stcentury, these communications are now inter-domain and have stepped outside the scope of computer science into other areas (i.e., medical, commerce, social, etc.). As a consequence, and due to the increasing amount of XML data floating between non-expert users (programmers, scientists, etc.), whether on instant messaging, social networks, data storage and others, it is becoming crucial and imperative to allow non-experts to be able to manipulate and control their data (e.g.,parents who want to apply parental control over instant messaging tools in their house, a journalist who wants to gather information from different RSS feeds and filter them out, etc.). The main objective of this work is the study of XML manipulations by non-expert users. Four main related categories have been identified in the literature: XML-oriented visual languages, Mashups, XML manipulation by security and adaptation techniques, and Dataflow visual programming languages. However, none of them provides a full-fledged solution for appropriate XML data manipulation. In our research, we formally defined an XML manipulation framework, entitled XA2C (XML Alteration/Adaptation Composition Framework). XA2C represents a visual studio for an XML-oriented DFVPL (Dataflow Visual Programming Language), called XCDL (XML-oriented Composition Definition Language) which constitutes the major contribution of this study. XCDL is based on Colored Petri Nets allowing non-expert users to compose manipulation operations. The XML manipulations range from simple data selection/projection to data modification (insertion, removal, obfuscation, etc.). The language is oriented to deal with XML data (XML documents and fragments), providing users with means to compose XML oriented operations. Complementary to the language syntax and semantics, XA2C formally defines also the compiler and runtime environment of XCDL. In addition to the theoretical contribution, we developed a prototype, called X-Man, and formally defined an evaluation framework for XML-oriented visual languages and tools that was used in a set of case studies and experiments to evaluate the quality of use of our language and compare it to existing approaches. The obtained assessments and results were positive and show that our approach outperforms existing ones. Several future tracks are being studied such as integration of more complex operations (control operators, loops, etc.), automated compositions, and language derivation to define specific languages oriented towards different XML-based standards (e.g., RSS, RDF, SMIL, etc.)
22

Lakhal, Lotfi. "Contribution à l'étude des interfaces pour non-informaticien dans la manipulation de bases de données relationnelles." Nice, 1986. http://www.theses.fr/1986NICE4067.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous avons enrichi la sémantique du modèle relationnel par la définition d'un réseau sémantique associé aux chemins de requête potentiels. Pour contrôler la sémantique des questions posées, nous avons conçu un système de validation des requêtes relationnelles. Celle-ci propose à l'utilisateur: une traduction de sa requête dans d'autres langages relationnels; un paraphrasage de sa requête en langage pseudo-naturel
23

Alexandre, Thomas. "Manipulation de données multimédia dans la carte à micro-processeur : application à l'identification biométrique et comportement." Lille 1, 1995. http://www.theses.fr/1995LIL10010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il existe aujourd'hui de nombreuses applications qui exploitent les atouts caractéristiques de la carte à micro-processeur : le regroupement de données sur cet unique support de taille réduite assure de façon sécurisée la portabilité d'informations associées à une personne ou un objet. Pour supporter la plupart des nouvelles applications cartes liées au multimédia et aussi variées que la sécurité, la santé, le travail ou les loisirs, la carte doit disposer de fonctionnalités plus avancées. C'est pourquoi nous avons défini dans cette thèse les fonctions de base nécessaires au stockage et traitement de données multimédia dans la carte étant données les lourdes contraintes associées à l'environnement carte que sont la faible capacité de stockage et la puissance réduite de traitement. Nous nous sommes particulièrement intéressés aux nouvelles approches de la sécurité alliant multimédia et carte à micro-processeur, d'une part au travers de la biométrie qui a pour but d'identifier un individu sur la base de critères physiologiques (empreintes digitales, reconnaissance vocale), et d'autre part, en étudiant l'identification comportementale qui vise à caractériser un individu par l'étude de ses pratiques en réponse à des situations qui lui sont propres (reconnaître sa façon de conduire ou de dépenser quotidiennement son argent). Les contraintes techniques de la carte nous ont conduits à définir des outils de stockage spécifiques utilisant des méthodes de compression et des primitives de traitement adaptées à la carte issues de techniques de l'intelligence artificielle telles que systèmes experts et réseaux de neurones.
24

Ravat, Franck. "Modèles et outils pour la conception et la manipulation de systèmes d'aide à la décision." Habilitation à diriger des recherches, Université des Sciences Sociales - Toulouse I, 2007. http://tel.archives-ouvertes.fr/tel-00379779.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nos travaux se situent dans le cadre des Systèmes d'Aide à la Décision (SAD). Au début de nos travaux, nous étions en présence de solutions d'ordre technique pour l'alimentation des SAD (vues matérialisées) ainsi que de quelques solutions parcellaires pour la modélisation et les manipulations multidimensionnelles. Durant ces dernières années, notre objectif a été d'offrir une solution globale pour la conception et la manipulation de SAD. Dans un premier temps, nous avons identifié deux espaces de stockage pour les données décisionnelles : un Entrepôt de Données (ED) et des Magasins de Données (MD). Un ED centralise et historise les données issues des sources de production et chaque MD présente les données à un décideur pour faciliter ses prises de décisions.
Pour les ED, notre objectif a été d'apporter des solutions pour la modélisation de l'évolution des données décisionnelles (extension de modèle objet) et pour l'intégration de données textuelles sans en fixer le schéma à priori. Pour les MD, nous avons proposé un modèle multidimensionnel de base avec différentes extensions répondant aux besoins des décideurs. Ces extensions permettent de prendre en compte la gestion d'indicateurs et de données textuelles, l'évolution temporelle (versions), la cohérence des données et de ses analyses (contraintes sémantiques), l'intégration et la capitalisation de l'expertise des décideurs (annotations) ainsi que la personnalisation des schémas multidimensionnels (poids). Ces travaux ont été complétés par la proposition d'une démarche de conception qui présente l'avantage de prendre en compte les besoins des décideurs et les sources de données. Cette démarche permet de modéliser aussi bien l'aspect statique (données décisionnelles) que l'aspect dynamique (processus d'alimentation du SAD).
D'un point de vue manipulation des données, nous avons proposé une algèbre complétée d'un langage graphique orienté décideur et d'un langage déclaratif. Nos propositions ont été validées par la participation à différents projets ainsi que le co-encadrement de 5 thèses de doctorat et le suivi de travaux de plusieurs Master Recherche.
25

Faudemay, Pascal. "Un processeur VLSI pour les opérations de bases de données." Paris 6, 1986. http://www.theses.fr/1986PA066468.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce processeur est capable d'effectuer toutes les opérations des langages de manipulation de données relationnels, des bases de textes et les opérations essentielles des bases de connaissances. Il est optimum dans un environnement à limitation par les transferts en mémoire. Ce co-processeur est formé d'un vecteur de composants VLSI identiques dont chacun est connecté avec le suivant. Il dérive des filtres à comparateurs et des mémoires associatives, dont il étend les fonctionnalités. Nous montrons que ce VLSI est faisable dans la technologie CMOS actuelle. Il conduit à des performances très compétitives pour la jointure, la sélection relationnelle et l’édition de textes. Ce processeur est en cours de réalisation.
26

Moussa, Ahmad. "Pour une cohérence du résultat d'un opérateur dans un contexte spatial, temporel et alphanumérique." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR31/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'information géographique peut être perçue selon trois dimensions : une dimension spatiale (e.g., ville), une dimension temporelle (e.g., date) et une dimension alphanumérique (e.g., population). L'intégration de ces différents types de données est l'un des challenges actuels de la production d'applications permettant la représentation et le traitement d'informations géographiques. Nous nous proposons de contribuer à cette problématique en proposant une méthode afin d'aider à la gestion de la cohérence des données impliquant deux des trois dimensions. Cette cohérence peut se poser après application d'un opérateur sur les informations géographiques. La méthode que nous proposons est basée sur des liens sémantiques entre les dimensions. Une liaison sémantique représente le rapport logique entre les dimensions. Cette liaison associée à des règles de comportement des opérateurs de manipulation, nous permet de garantir la cohérence du modèle de données associé au résultat d’un opérateur
Geographic information can be perceived according to three dimensions: a spatial dimension (e.g., city), a temporal dimension (e.g., date) and an alphanumeric dimension (e.g., population). The integration of these various types of data is one of the current challenges in order to model geographic representation and to process geographic information. We contribute to this challenge by proposing a method to help in the management of data coherency involving two on three dimensions. This coherency can be settled after applying an operator on geographic information. Our method is based on semantic links between dimensions. A semantic link represents the logical interaction between (two) dimensions. This connection, associated with a set of rules depending on data manipulation operators, allows us to guarantee the coherency of the data model associated with the result of an operator
27

Gérardin, Benoit. "Manipulation et contrôle d'ondes élastiques guidées en milieux complexes." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC230/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Quelle que soit la nature des ondes utilisées et des milieux traversés, le contrôle de la propagation ondes est d'un intérêt majeur pour de nombreuses applications. D'une part, la complexité du milieu peut être exploitée en exerçant un contrôle cohérent du front d’onde incident. D'autre part, on peut forcer une onde à se propager suivant un chemin désiré en concevant soi-même le milieu de propagation. Dans cette thèse, nous étudions ces deux aspects à partir d'expériences ultrasons-laser mettant en jeu la propagation d'ondes de Lamb dans des plaques.La propagation des ondes à travers un milieu diffusant est tout d’abord étudiée à partir de sa matrice de diffusion. Une prédiction théorique importante est l’existence de canaux de propagation totalement ouverts ou fermés. Une première partie de ces travaux consiste à démontrer expérimentalement ce résultat en mettant en évidence la possibilité de transmettre totalement une onde à travers un milieu désordonné. Dans un second temps, la mesure d’une matrice des temps de vol nous permet d’étudier ces canaux dans le domaine temporel. Ceux-ci donnent lieu à des paquets d’onde dont la cohérence spatiale et temporelle est conservée tout au long de leur propagation dans le milieu.Le second volet de cette thèse consiste à tirer profit des phénomènes de réflexion et réfraction négative afin de contrôler la propagation des ondes de Lamb. D’une part, la réflexion négative est mise à profit pour réaliser une conjugaison de phase passive des ondes de Lamb. D’autre part, le concept des milieux complémentaires est exploré afin d’annuler la diffraction des ondes et ainsi camoufler certaines zones du milieu de propagation
Whatever their nature or the propagation medium, controlling the propagation of waves is of fundamental interest for many applications. On the one hand, one can tame wave-fields in order to take advantage of the complexity of the medium. On the other hand, one can force waves along desired paths through a careful design of manmade materials. In this thesis, we study those two aspects on the basis of laser-ultrasonic experiments involving the propagation of Lamb waves in elastic plates.The control of wave propagation through complex systems is first investigated by means of the scattering matrix approach. In diffusive media, theorists have demonstrated the existence of propagation channels either closed or open through which the wave can travel. The first part of this work present a direct experimental evidence of this result as well as the ability to fully transmit a wave through a disordered medium. In a second part, the measurement of the time-delay matrix allows the study of such channels in the time domain. They are shown to give rise to particle-like wave packets that remain focused in time and space throughout their trajectory in the medium.The second part of this thesis consists in studying the concepts of negative reflection and refraction for the manipulation of Lamb wave propagation. On the one hand, negative reflection is taken advantage of to perform a passive phase conjugation of Lamb waves. On the other hand, the notion of complementary media is investigated in order to cancel the diffraction of waves and cloak some areas of the plate
28

Jullien, Christian. "Le-cool : un langage orienté objet à héritage multiple permettant la manipulation des concepts et des données en intelligence artificielle." Paris 6, 1986. http://www.theses.fr/1986PA066264.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Après un bref aperçu des techniques employées, les caractéristiques de la programmation orientée objet sont exposées. Les nouvelles structures de contrôle sont abordées, ainsi que la gestion des liens collatéraux. Quelques exemples d'application sont présentés.
29

Toussaint, Marion. "Une contribution à l'industrie 4.0 : un cadre pour sécuriser l'échange de données standardisées." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0121.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La récente transformation numérique de l'industrie a entraîné de nombreux avantages, allant de produits de meilleure qualité à une productivité accrue et à des délais de mise sur le marché plus courts. Dans ce monde numérique, les données sont devenues un élément essentiel dans de nombreuses décisions et processus critiques au sein et entre les organisations. L'échange de données est désormais un processus clé pour la communication, la collaboration et l'efficacité des organisations. L'adoption par l'industrie 4.0 de technologies de communication modernes a rendu ces données disponibles et partageables à un rythme plus rapide que nous ne pouvons les consommer ou les suivre. Cette vitesse apporte des défis importants tels que l'interopérabilité des données et la traçabilité des données, deux défis interdépendants auxquels les industriels sont confrontés et doivent comprendre pour adopter la meilleure position pour les relever. D'une part, les problèmes d'interopérabilité des données sont un frein à des innovations et des collaborations plus rapides. Le volume croissant d'échanges de données est associé à un nombre accru de systèmes hétérogènes qui ont besoin de communiquer et de se comprendre. Les normes d'information sont une solution prouvée, mais leur processus de développement long et complexe les empêche de suivre le rythme rapide de l'environnement qu'elles ont besoin de soutenir et d'assurer l'interopérabilité, ce qui ralentit leur adoption. Cette thèse propose une transition de la gestion de projet prédictive à adaptative avec l'utilisation de méthodes Agiles pour raccourcir les itérations de développement et augmenter la vitesse de livraison, augmentant ainsi l'adoption des normes. Alors que les environnements adaptatifs se sont révélés être une solution viable pour aligner les normes sur le rythme rapide de l'innovation de l'industrie, la plupart des solutions de gestion des exigences des projets n'ont pas évolué pour s'adapter à ce changement. Cette thèse introduit également un modèle pour soutenir une meilleure élicitation des exigences lors de l'élaboration des normes avec une traçabilité et une visibilité accrues. D'autre part, les décisions basées sur les données sont exposées à la vitesse à laquelle les données falsifiées peuvent se propager dans les organisations et corrompre ces décisions. Avec un temps moyen pour identifier (MTTI) et un temps moyen pour contenir (MTTC) une telle menace déjà proche de 300 jours, la croissance constante des données produites et échangées ne fera qu'accroître le MTTI et le MTTC. Bien que les signatures numériques aient déjà prouvé leur utilité pour identifier une telle corruption, un cadre formel de traçabilité des données est toujours nécessaire pour suivre l'échange de données sur des réseaux vastes et complexes d'organisations afin d'identifier et de contenir la propagation des données corrompues. Cette thèse analyse les cadres de cybersécurité existants, leurs limites et introduit un nouveau cadre basé sur des normes, sous la forme d'un profil NIST CSF étendu, pour se préparer, atténuer, gérer et suivre les attaques de manipulation de données. Ce cadre est également accompagné de conseils de mise en œuvre pour faciliter son adoption et sa mise en œuvre par les organisations de toutes tailles
The recent digital transformation of the manufacturing world has resulted in numerous benefits, from higher quality products to enhanced productivity and shorter time to market. In this digital world, data has become a critical element in many critical decisions and processes within and across organizations. Data exchange is now a key process for the organizations' communication, collaboration, and efficiency. Industry 4.0 adoption of modern communication technologies has made this data available and shareable at a quicker rate than we can consume or track it. This speed brings significant challenges such as data interoperability and data traceability, two interdependent challenges that manufacturers face and must understand to adopt the best position to address them. On one hand, data interoperability challenges delay faster innovation and collaboration. The growing volume of data exchange is associated with an increased number of heterogeneous systems that need to communicate with and understand each other. Information standards are a proven solution, yet their long and complex development process impedes them from keeping up with the fast-paced environment they need to support and provide interoperability for, slowing down their adoption. This thesis proposes a transition from predictive to adaptive project management with the use of Agile methods to shorten the development iterations and increase the delivery velocity, increasing standards adoption. While adaptive environments have shown to be a viable solution to align standards with the fast pace of industry innovation, most project requirements management solutions have not evolved to accommodate this change. This thesis also introduces a model to support better requirement elicitation during standards development with increased traceability and visibility. On the other hand, data-driven decisions are exposed to the speed at which tampered data can propagate through organizations and corrupt these decisions. With the mean time to identify (MTTI) and mean time to contain (MTTC) such a threat already close to 300 days, the constant growth of data produced and exchanged will only push the MTTI and MTTC upwards. While digital signatures have already proven their use in identifying such corruption, there is still a need for formal data traceability framework to track data exchange across large and complex networks of organizations to identify and contain the propagation of corrupted data. This thesis analyses existing cybersecurity frameworks, their limitations, and introduces a new standard-based framework, in the form of an extended NIST CSF profile, to prepare against, mitigate, manage, and track data manipulation attacks. This framework is also accompanied with implementation guidance to facilitate its adoption and implementation by organizations of all sizes
30

Teste, Olivier. "Modélisation et manipulation des systèmes OLAP : de l'intégration des documents à l'usager." Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00479460.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Mes travaux de recherche se situent dans le domaine de l'informatique décisionnelle, et portent en particulier sur les entrepôts de données (Data Warehouse) et l'analyse en ligne (OLAP, On-Line Analytical Processing). L'originalité de la démarche scientifique suivie par ces recherches réside dans une double orientation consistant à proposer des mécanismes de description couplés aux mécanismes de manipulation des données entreposées dans les systèmes OLAP. Les travaux que je mène depuis 2001 s'articulent en trois axes :  la modélisation et la manipulation des systèmes OLAP,  l'intégration des documents dans les systèmes OLAP, et  la prise en compte de l'usager par la personnalisation des systèmes OLAP. Malgré de nombreux travaux sur la modélisation et la manipulation dans les systèmes OLAP, il n'existe ni standard, ni consensus, que ce soit au niveau des modèles multidimensionnels ou des opérateurs OLAP. Mes premiers travaux ont donc consisté à définir un modèle conceptuel de représentation des données pour les systèmes OLAP basé sur trois concepts clairement formalisés. Ce socle homogène a permis dans un second temps de définir les manipulations OLAP au travers d'un noyau minimum fermé d'opérateurs OLAP. Ce fondement théorique nous permet aujourd'hui d'élaborer des langages assertionels et/ou graphiques dont la complétude au regard de l'algèbre OLAP garanti la couverture du modèle en constellation et la performance des manipulations incrémentales. Pour rendre opérant les systèmes OLAP sur l'ensemble des données d'une organisation, j'ai orienté mes recherches sur l'intégration des documents. Mes recherches ont débouché sur la proposition d'un modèle de représentation unificateur en galaxie. Ce modèle repose sur un unique mécanisme de description des données et supporte les documents dans la globalité de leurs spécificités (contenu, structure, métadonnées). Le défis essentiel a été de maintenir opérants les principes de navigation et d'interrogation des données définis par l'algèbre OLAP. Pour cela, une contribution importante de ces recherches est la spécification de mécanismes d'agrégation textuelle (TOP_KW et AVG_KW) permettant d'assurer des forages dans des amas multidimensionnels de données textuelles. Les systèmes OLAP se sont principalement attachés à faciliter l'accès aux données décisionnelles laissant la charge aux usagers d'expertiser les données par des restitutions destinées à un groupe d'usagers supposés partager des besoins identiques. J'ai donc élargi mes recherches à la personnalisation des systèmes OLAP, par une approche quantitative qui permet à l'usager de définir ses préférences dans une constellation et d'ancrer des annotations qui matérialisent ses analyses et son expertise décisionnelle autorisant ainsi une composante collaborative dans le système OLAP. Enfin, j'ai complété ces propositions par une approche qualitative qui exploite les préférences exprimées par des relations d'ordre pour définir un processus générique autorisant trois types de recommandations contextuelles lors des manipulations OLAP : alternatives, par anticipation et enrichissement. Ces recherches ont fait l'objet de développements dans trois prototypes et s'inscrivent dans le cadre de différents projets et collaborations industrielles notamment dans le milieu médical (Hôpitaux de Paris, Institut Claudius Regaud). Elles ont également donné lieu à plusieurs thèses de doctorat.
31

Liu, Jiangping. "Conception, implémentation et évaluation d'opérateurs de manipulation des objets structurés pour le langage fonctionnel de programmation de base de données GRIFFON." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these est consacree a l'etude d'une representation non fragmentee pour les objets structures, principalement les ensembles et les ensembles etiquetes, du langage fonctionnel de programmation de base de donnees griffon. L'importance d'une representation non fragmentee est de faciliter la recopie d'un objet structure. Considerant que dans un langage fonctionnel, la facon d'evaluer une expression d'une requete est realisee a partir de la recopie des objets intervenant dans la requete, une recopie facile est necessaire pour ameliorer la performance globale d'un langage fonctionnel comme griffon. Nous avons utilise les techniques de signature et de hachage dynamique pour organiser les elements d'un ensemble ou d'un ensemble etiquete. La combinaison de ces deux methodes permet de rejeter rapidement les objets qui ne satisfont pas les criteres de selection d'une requete avant de comparer directement les objets eux-memes. Nous avons egalement implante certaines primitives, programme quelques operateurs avec ces primitives, et mesure la performance des certains operateurs sur un prototype obtenu
32

Zechinelli-Martini, José-Luis. "Construction et manipulation de présentations spatio-temporelles multi-médias à partir de serveurs d'objets répartis : applications aux données sur le Web." Université Joseph Fourier (Grenoble), 2001. http://www.theses.fr/2001GRE10052.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse propose une infrastructure pour la spécification de gestionnaires de présentations multimédias spatio-temporelles (JAGUAR). Un gestionnaire assure la définition, le stockage, l'interrogation et la mise en forme des présentations qui sont stockées dans un système de gestion de bases de données multimédias. Les gestionnaires spécifiés servent de médiateurs entre des applications multimédias et des sources hétérogènes d'objets réparties et accessibles au travers du Web (via leur URL). Les objets gérés par un gestionnaire pour un ensemble d'applications sont décrits par un schéma de données qui associe à chaque type une présentation par défaut. Ainsi ce schéma définit la manière dont les objets sont vus par les applications. Un modèle spatio-temporel a été défini pour traiter de manière homogène les objets intégrés dans les présentations. Ce modèle permet également de décrire un objet composé en mettant en évidence les relations spatio-temporelles entre ses composants. Nous proposons également le langage OQLiST qui intègre des opérateurs spatiaux et temporels pour la spécification et l'interrogation de présentations. Ainsi, le langage et le modèle permettent de spécifier, d'interroger et de représenter de manière homogène les descriptions inter et intra-médias. Un prototype de gestionnaire a été implanté pour valider l'infrastructure JAGUAR. Il a été adapté à la construction d'applications sur des plates-formes SMIL et Java Media Framework (JMF). Ce gestionnaire a été utilisé pour la spécification et la mise en œuvre d'une application touristique. Il a également été employé pour spécifier un outil de visualisation d'objets stockés dans un entrepôt de données
We propose an infrastructure (JAGUAR) for specifying spatio-temporal multimedia presentations managers. These managers are mediators between applications and distributed heterogeneous object sources accessible through the Web (via their URL). A manager is able to define, query, and build presentations that are stored in a multimedia database system. All objects are described by a schema that associates a default presentation to each of them. We defined a spatio-temporal model to integrate objects and presentations. The model describes objects composition through spatio-temporal relations. We also proposed OQLiST a language that provides spatio-temporal operators. Language and model can be used for specifying, querying and representing homogeneously inter and intra-media descriptions. In order to validate the JAGUAR infrastructure, a presentation manager prototype was implemented using SMIL and Java Media Framework (JMF) platforms. The manager has been used for specifying and implementing (1) a touristic application and (2) a visualization tool for objects stored in a data warehouse. For the later, the manager provides a specific schema for the data cube
33

Lambert, de Cambray Béatrix. "Etude de la modélisation de la manipulation et de la représentation de l'information spatiale tridimensionnelle dans les bases de données géographiques." Paris 6, 1994. http://www.theses.fr/1994PA066518.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De plus en plus de domaines d'application des systèmes d'information géographique ont besoin de gérer l'information spatiale 3D. Cette thèse traite la modélisation, la représentation et la manipulation de l'information spatiale 3D (c'est-à-dire de l'information géographique localisée dans un espace 3D) dans les bases de données géographiques. Cependant, les données saisies dans une base de données géographique peuvent être définies dans une dimension autre que 3D, bien qu'elles reflètent des données géographiques réelles qui sont, elles, situées dans un espace 3D. Afin de résoudre ce problème, cette thèse propose de modéliser les relations spatiales selon l'axe z entre objets géographiques. Ces relations permettent de plonger toute donnée géographique dans l'espace 3D. De plus, grâce à ces relations et aux descriptions géométriques, le modèle de manipulation de données est capable, pour chaque donnée, de dériver sa représentation à la dimension attendue par une opération spatiale à partir de celle stockée dans la base de données. Cette thèse propose un modèle de données multidimensionnel unifié qui intègre les données du relief (données 2. 5D) avec les données spatiales 2D et 3D. Elle propose aussi une extension du langage de requêtes sql aux données géographiques multidimensionnelles
34

Sallaberry, Christian. "Cholq : une interface de manipulation de base de données orientée objet pour non-spécialistes. Mise en oeuvre dans le cadre d'une application industrielle." Toulouse 3, 1992. http://www.theses.fr/1992TOU30180.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these s'inscrit dans le contexte des bases de donnees orientees objet et des interfaces utilisateur associees. Les travaux correspondants ont ete effectues et experimentes dans le cadre d'une application developpee pour la compagnie ibm: le projet supplier profile. Ce projet a pour objectif la mise a disposition d'utilisateurs non-informaticiens d'informations complexes et multimedia de la compagnie. Nous avons oriente nos travaux vers des solutions basees sur les approches connaissance, hypertexte et orientee objet. Les developpements successifs de deux prototypes demontrent les imperatifs ergonomiques de l'application: le supplier profile necessite a la fois la puissance d'expression des langages declaratifs et la souplesse de navigation des systemes hypertextes. Par consequent, nous proposons un modele de donnees et de requetes oriente objet, adapte aux preoccupations du projet. Nous definissons ensuite le langage de manipulation de type hypertexte cholq associe a ce modele. L'interface cholq offre a ses utilisateurs une gestion homogene de l'application en termes d'objets. Nous distinguons deux niveaux d'abstractions: la manipulation d'ensembles d'objets qui permet notamment la definition d'un contexte de travail et le cheminement d'objet en objet a travers un reseau de nuds limite au contexte specifie precedemment. Enfin, nous decrivons une demarche de conception de la base d'objets pour mettre en uvre le supplier profile et son interface. Cholq apporte une solution interessante au probleme de manipulation d'informations complexes et multimedia en faisant abstraction de la structure des classes d'objets et en proposant une formulation graphique des requetes. Ce langage a pour vocation d'etre un outil accessible aux utilisateurs non-informaticiens ou occasionnels d'une application operationnelle
35

Rhazi, Aicha. "Automatisation de la gestion et de la manipulation des données issues d'un chantier de fouilles archéologiques depuis leur enregistrement jusqu'à leur interrogation." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25692/25692.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La fouille archéologique est un processus technique visant à recueillir toutes les informations pertinentes sur les manifestations présentes dans un site archéologique; Le processus de la fouille d’un site archéologique peut être décrit par les étapes suivantes : - Explorer le site pour repérer les vestiges; - Récolter et enregistrer les objets trouvés; - Agréger et interpréter les objets pour reconstruire le site; - Analyser ces objets par des requêtes prédéfinies par les archéologues et diffuser les résultats. Les démarches de la fouille nécessitent le développement d’un système informatique qui aide l’archéologue à structurer les données dans une base de données et qui facilite, par la suite, l’interrogation de ces données pendant l’étape d’analyse et d’interrogation, qui peut être considérée comme l’étape la plus importante dans le processus de fouille archéologique. L’objectif de ce mémoire est la réalisation du système NESTOR. C’est un logiciel qui permet aux archéologues d’enregistrer, d’une manière conviviale, toutes les données que les fouilleurs peuvent recueillir sur un chantier de fouilles. Il permet aussi de modifier ces données, une fois enregistrées, afin de tenir compte de l’évolution des travaux sur le terrain, ou tout simplement de les consulter en cours de fouille pour s’assurer de leur adéquation avec la réalité du chantier et de la complétude de l’enregistrement. NESTOR, offre aussi aux archéologues la possibilité de regrouper et d’agréger les données archéologiques. Ce processus est modifiable et réversible. Enfin, les archéologues/fouilleurs pourront interroger la base de données par l’entremise des requêtes préprogrammées dans le système.
An archaeological excavation is a technical process aiming to collect all relevant information related to every entity or fact that appears on an archeological site. The excavation process of an archeological site can be described according to the following stages: - To explore the site in order to locate the uncovered remains ; - To collect and record excavated objects; - To assemble and interpret these objects in order to reconstruct the site; - To analyze these objects following predefined queries by archaeologists, and to disseminate the results. The steps of an excavation require the development of a computing system which could help field archaeologists to structure their data in a data base and to explore their data by meaningful queries during the analytical stage, the latter being considered as the main one in the process of excavation. Our project aims to develop such a computing system; we named it NESTOR. It is a database system that helps archaeologists to store every collected data from an excavated site in a user-friendly way. It also allows updating data, once recorded, in order to take into account the evolution of related works on site, or to check them in the course of the excavation in order to make sure of their adequacy with the reality of the excavation site and the completeness of the stored data. NESTOR also makes it possible for archaeologist’s to collect and incorporate archaeological data in the database. This process is modifiable and reversible. Lastly, archaeologists are able to query the database using some predefined queries offered by the NESTOR system.
36

Zanotti, Andrea. "Modélisation de type multi-agents en archéologie : l'expansion des premiers agriculteurs Balkaniques : adaptation du modèle OBRESOC : manipulation et exploration des données simulées." Thesis, Paris, EPHE, 2016. http://www.theses.fr/2016EPHE3057/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thématique de l'expansion du système agricole depuis l'Anatolie vers les Balkans est depuis longtemps un important sujet de recherche. Les approches archéologiques classiques ont permis de mieux comprendre le parcours et le temps de cette expansion, mais ils n'expliquent rien de ce qui n'est pas observable dans les traces archéologiques : notamment, la structure socio-économique d'une société agricole préhistorique. Dans cette thèse, un modèle de type multi-agents a été utilisé pour explorer ces éléments qui sont invisibles en archéologie. Ce modèle, appelé BEAN (Bridging European and Anatolian Neolithic), consiste en une adaptation du modèle OBRESOC (Un OBservatoire REtrospectif d'une SOCiété archéologique). OBRESOC avait été crée pour simuler l'expansion des agriculteurs rubanées en Europe Centrale, et a été modifié pour s'adapter au contexte archéologique balkanique. L'expansion des premiers agriculteurs Balkaniques est simulée en combinant des données archéologiques avec des inférences ethnohistoriques et paléodémographiques. Un environnement réaliste a été modélisé, où les zones d'optimum agricole sont déterminées par des estimations de la météorologie et de la fertilité des sols. Chaque agent correspond à un foyer domestique ; les agents interagissent dans cet environnement en suivant des modèles partiaux intermédiaires socioéconomiques qui déterminent les règles de leur comportement. Par exemple : maisons avec des familles nucléaires ; système agricole intensif sur des petits champs avec chasse et cueillette complémentaires ; expansion déterminée par le scalar stress villageois ; réseaux de solidarité entre apparentés ; disettes et famines causées par des événements météorologiques. De cette façon, le modèle simule le fonctionnement et l'expansion géographique d'une société agricole Néolithique. De nombreuses simulations ont été effectuées, en faisant varier les paramètres les plus importants, identifiés grâce à une analyse de sensibilité. L'adhérence entre les données archéologiques et les données simulées a été mesurée principalement avec des critères géographiques : la simulation qui produit le patron d'expansion simulé qui coïncide le mieux avec l'expansion archéologique est considérée la meilleure. De procédures spécifiques ont été crées pour manipuler la grande quantité de données simulées produites par le modèle. L'observation de ces données a permis l'exploration de certains aspects qui sont invisibles en archéologie ; par exemple, le modèle a aidé à questionner des croyances archéologiques basées sur des hypothèses qui n'étaient pas vérifiables autrement. Le modèle a permis aussi l'exploration d'autres sujets, comme la comparaison entre le front pionner de colonisation et les zones d'ancienne occupation, ainsi que l'influence de la météorologie sur l'expansion du système agricole. Le modèle a produit des patrons d'expansion qui adhèrent, géographiquement et chronologiquement, à l'expansion suggérée par les traces archéologiques. L'exploration des sorties socio-économiques a permis la formulation de nouvelles hypothèses qui ne pourraient pas être faites simplement sur la base de ce qui est trouvé dans les vestiges archéologiques. Même quand il y a un large écart entre ce qui est observé en archéologie et ce qui est produit par le modèle, cette approche de modélisation multi-agents ouvre à des nouvelles questions, en ajoutant de nouvelles idées et perspectives à la recherche actuelle
A topic of great importance in archaeological research throughout the last decades concerns the expansion of the first farmers from Anatolia through the Balkans. The standard archaeological approaches allowed the understanding of the path and timing of this expansion; however, they lack explanation of what is unobservable in the archaeological record: in particular, the socio-economic structure of a prehistoric farming society. Throughout this thesis, an agent-based model was built in order to explore those elements which are hidden in archaeology. This model, called BEAN (Bridging European and Anatolian Neolithic), is an adaptation of the OBRESOC model (Un OBservatoire REtrospectif d'une SOCiété archéologique). OBRESOC was created to simulate the expansion of the LBK farmers in central Europe, and was adapted to the Balkan archaeological context. The expansion of the first Neolithic farmers in the Balkans was simulated by combining the archaeological records to ethnohistoric and paleodemographic inferences. A realistic environment has been modelled where the areas of optimum farming are determined by meteorology and soil fertility estimates. An agent corresponds to a household; agents interact on this landscape, following socioeconomic partial intermediate models. For instance: households composed of a nuclear family; intensive farming system on small plot completed by hunting-gathering; expansion determined by scalar stress at the hamlet scale; family clan solidarity; shortages and famines caused by meteorological events). Thus, the model simulates the functioning of the Neolithic farming society and its geographic expansion. Several simulations have been executed, testing different combinations of the key parameters, identified through a sensitivity analysis. The goodness of fit of simulated data to the archaeological data is measured mostly on geographic criteria : the best simulation is the one that produces the expansion pattern that better fits to the archaeological data. Specific procedures have been developed in order to process the large amount of data produced by the model. The observation of this data permitted to explore some aspects that are invisible in archaeological record : for example, the model helped to investigate some archaeological beliefs, based on assumptions that could not be verified. The model also permitted the exploration of other topics, such as the comparison between the pioneer front of colonization and the zones of previous occupation, as well as the effect of meteorology on the expansion of the farming system. The model produced an expansion pattern that corresponds geographically and chronologically to the expansion suggested by the archaeological evidence. The exploration of socio-economic outputs permitted the formulation of new hypothesis that could not be made using purely archaeological record. Even when there's a large gap between what is found in archaeology and what is produced by the model, this agent-based modelling approach helps to raise new questions, adding new ideas and perspective to the actual state of research
37

Guillot, Bernard. "Réalisation d'un outil autonome pour l'écriture et l'interrogation de systèmes de gestion de bases de données et de connaissances sur une machine multiprocesseur : évolution du concept de bases de données vers la manipulation d'objets image et graphique." Compiègne, 1986. http://www.theses.fr/1986COMPI219.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La mise en œuvre d’un système MUMPS autonome sur la machine multimicroprocesseur SM90 nous a permis de dégager certaines fonctionnalités, associées aux niveaux conceptuel et interne des SGBD, qui s’avèrent particulièrement utiles comme outils pour l’écriture de SGBD. Le noyau principal de ces outils réside dans l’intégration d’une organisation hiérarchique et dynamique de données dans le langage MUMPS accessible à partir de la notion de variable globale. La modélisation des informations permet l’usage du système MUMPS dans un contexte de base de données relationnelles et en logique : l’espace de stockage directement accessible à travers le langage est celui des disques du système. Une extension du langage est proposée sous la forme d’une fonction pour l’interrogation et le parcours de l’espace global. Nous montrons une utilisation de l’espace global en déduction dans le cadre d’une interrogation basée sur la logique. La représentation de faits élémentaires, de règles dans une base de connaissances s’expriment à travers la notion de variable globale. L’adjonction de potentialités graphiques au systèmes MUMPS par l’apport d’un coprocesseur spécialisé permet d’envisager la réalisation d’interfaces graphiques de haut niveau. Enfin nous montrons que l’évolution du concept de base de données est lié à sa capacité à manipuler de nouveaux types d’objets, principalement les types graphique et image.
38

Duque, Hector. "Conception et mise en oeuvre d'un environnement logiciel de manipulation et d'accès à des données réparties : application aux grilles d'images médicales : le système DSEM / DM2." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0050/these.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vision que nous défendons est celle de grilles biomédicales partenaires des systèmes médicaux (hôpitaux), à la fois fournisseuses de puissance de calcul et plates-formes de partage d'informations. Nous proposons une architecture logicielle de partage d'images médicales réparties à grande échelle. S'appuyant sur l'existence a priori d'une infrastructure de grille, nous proposons une architecture multi-couche d'entités logicielles communicantes (DSE : Distributed Systems Engines). Fondée sur une modélisation hiérarchique sémantique, cette architecture permet de concevoir et de déployer des applications réparties performantes, fortement extensibles et ouvertes, capables d'assurer l'interface entre grille, systèmes de stockage de données et plates-formes logicielles locales (propres aux entités de santé) et dispositifs d'acquisition d'images, tout en garantissant à chaque entité une maîtrise complète de ses données dont elle reste propriétaire
Our vision, in this thesis, is the one of a bio-medical grip as a partner of hospital's information systems, sharing computing resources as well as a platform for sharing information. Therefore, we aim at (i) providing transparent access to huge distributed medical data sets, (ii) querying these data by their content, and (iii), sharing computing resources within the grip. Assuming the existence of a grip infrastructure, we suggest a multi-layered architecture (Distributed Systems Engines – DSE). This architecture allows us to design High Performance Distributed Systems which are highly extensible, scalable and open. It ensures the connection between the grip, data storing systems, and medical platforms. The conceptual design of the architecture assumes a horizontal definition for each one of the layers, and is based on a multi-process structure. This structure enables the exchange of messages between processes by using the Message Passing Paradigm. These processes and messages allow one to define entities of a higher level of semantic significance, which we call Drivers and, which instead of single messages, deal with different kinds of transactions: queries, tasks and requests. Thus, we define different kinds of drivers for dealing with each kind of transaction, and in a higher level, we define services as an aggregation of drivers. The architectural framework of drivers and services eases the design of components of a Distributed System (DS), which we call engines, and also eases the extensibility and scalability of DS
39

Carbonneaux, Yves. "Conception et réalisation d'un environnement informatique sur la manipulation directe d'objets mathématiques, l'exemple de Cabri-graphes." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004882.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre travail s'intègre dans la conception et la réalisation d'un environnement informatique sur la manipulation directe d'objets mathématiques, en l'occurrence l'extension de Cabri-graphes dans le cadre du projet Cabri. Dans la première partie, nous exposons le concept d'interface de manipulation directe. Nous présentons une évolution des principes associés à la manipulation directe. Nous montrons l'importance accordée à ce mode d'interaction. Dans une deuxième partie, nous exposons des motivations associées à la mise en oeuvre d'environnements informatiques sur la théorie des graphes. Nous analysons plusieurs environnements en fonction de trois critères : la visualisation, les fonctionnalités, et le mode d'interaction. Dans une troisième partie, nous construisons un éditeur de graphes en fonction des principes de manipulation directe énoncés dans la première partie. Nous établissons les limites d'une telle interface en fonction des outils à notre disposition. Dans la quatrième partie, plus théorique, nous présentons une étude sur le produit fibré de graphes, et sur la contraction de graphes comme un outil de visualisation de graphes.
40

Robidou, Sébastien. "Représentation de l'imperfection des connaissances dans les bases de situation des systèmes de commandement." Rouen, 1997. http://www.theses.fr/1997ROUES083.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On peut définir la fusion de données comme un processus visant à unifier un flux d'informations issues de capteurs hétérogènes dans le but d'élaborer une représentation la plus exacte, complète et cohérente possible du monde extérieur, appelée situation. Cependant les informations capteurs en entrée des systèmes de fusion ne constituent qu'une description partielle entachée d'incertitude et d'imprécision de la réalité, dont il faut pouvoir rendre compte de manière pertinente, en particulier au sein des bases de données utilisées par ces systèmes. Dans ce contexte nous proposons une approche formelle originale basée sur les notions de collection floue et de quantité fonctionnelle floue, afin de rendre compte des formes d'imprécision et d'incertitudes complexes rencontrées : représenter le doute sur l'existence d'une entité perçue ou exprimer une situation perçue comme un ensemble de situations possibles constituées d'objets de situation décrits de manière plus ou moins précise et complète. Afin de rendre compte de ces différentes formes d'imperfection au sein d'une base de données de situation nous introduisons un langage de description de données et un langage de manipulation de données dans le cadre du standard ODMG-93, permettant d'interroger la base de données au moyen de critères portant sur des attributs imprécis et sur des objets dont l'existence est plus ou moins certaine.
41

Cruz, Christophe. "Intégration et manipulation de données hétérogènes au travers de scènes 3D dynamiques, évolutives et interactives : application aux IFC pour la gestion collaborative de projets de génie civil." Dijon, 2004. http://www.theses.fr/2004DIJOS035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

He, Wuwei. "Reactive control and sensor fusion for mobile manipulators in human robot interaction." Phd thesis, Université Paul Sabatier - Toulouse III, 2013. http://tel.archives-ouvertes.fr/tel-00979633.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Afin de partager un espace de travail avec les humains, les robots de services doivent être capable d'interagir dans des environnements peu structurés. Dans ce contexte, le robot doit réagir et adapter son comportement aux évolutions de l'environnement et aux activités des humains.L'utilisation de planificateur de mouvement ne permet pas au robot d'être suffisamment réactif, aussi nous proposons un controleur de trajectoire réactif capable de suivre une cible, de réagir aux changement d'atitudes des humains ou de prévenir les évènements et, en particulier, les collisions. Pour fiabiliser le contrôleur de trajectoire, nous utilisons des techniques de fusion de données récentes afin d'identifier les mouvements ou de détecter des forces associées à des évènements. Nous proposons d'utiliser un capteur de force six axes pour estimer les param'etres d'inertie des objets manipulés, puis d'utiliser ces paramètres pour compléter le contrôle visuel et calculer les forces de contact entre l'organe terminal du robot et son environnement. L'utilisation de technique d'apprentissage permet d'analyser et de classifier les forces de contact pour détecter différents évènements tels que la saisie de l'objet par un humain ou le contact entre le robot ou l'objet transporté et l'environnement. Ce travail a été intégré et testé sur les robots jido et PR2 du LAAS-CNRS dans le cadre des projets europ'eens DEXMART et SAPHARI et des projets ANR ASSIST et ICARO.
43

Abdelmoula, Mariem. "Génération automatique de jeux de tests avec analyse symbolique des données pour les systèmes embarqués." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4149/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un des plus grands défis dans la conception matérielle et logicielle est de s’assurer que le système soit exempt d’erreurs. La moindre erreur dans les systèmes embarqués réactifs peut avoir des conséquences désastreuses et coûteuses pour certains projets critiques, nécessitant parfois de gros investissements pour les corriger, ou même conduire à un échec spectaculaire et inattendu du système. Prévenir de tels phénomènes en identifiant tous les comportements critiques du système est une tâche assez délicate. Les tests en industrie sont globalement non exhaustifs, tandis que la vérification formelle souffre souvent du problème d’explosion combinatoire. Nous présentons dans ce contexte une nouvelle approche de génération exhaustive de jeux de test qui combine les principes du test industriel et de la vérification formelle académique. Notre approche construit un modèle générique du système étudié à partir de l’approche synchrone. Le principe est de se limiter à l’analyse locale des sous-espaces significatifs du modèle. L’objectif de notre approche est d’identifier et extraire les conditions préalables à l’exécution de chaque chemin du sous-espace étudie. Il s’agit ensuite de générer tout les cas de tests possibles à partir de ces pré-conditions. Notre approche présente un algorithme de quasi-aplatissement plus simple et efficace que les techniques existantes ainsi qu’une compilation avantageuse favorisant une réduction considérable du problème de l’explosion de l’espace d’états. Elle présente également une manipulation symbolique des données numériques permettant un test plus expressif et concret du système étudié
One of the biggest challenges in hardware and software design is to ensure that a system is error-free. Small errors in reactive embedded systems can have disastrous and costly consequences for a project. Preventing such errors by identifying the most probable cases of erratic system behavior is quite challenging. Indeed, tests in industry are overall non-exhaustive, while formal verification in scientific research often suffers from combinatorial explosion problem. We present in this context a new approach for generating exhaustive test sets that combines the underlying principles of the industrial test technique and the academic-based formal verification approach. Our approach builds a generic model of the system under test according to the synchronous approach. The goal is to identify the optimal preconditions for restricting the state space of the model such that test generation can take place on significant subspaces only. So, all the possible test sets are generated from the extracted subspace preconditions. Our approach exhibits a simpler and efficient quasi-flattening algorithm compared with existing techniques and a useful compiled internal description to check security properties and reduce the state space combinatorial explosion problem. It also provides a symbolic processing technique of numeric data that provides a more expressive and concrete test of the system. We have implemented our approach on a tool called GAJE. To illustrate our work, this tool was applied to verify an industrial project on contactless smart cards security
44

Schmitt, Alan. "Analyses Statiques pour Manipulations de Données Structurées Hiérarchiquement." Habilitation à diriger des recherches, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00637917.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Selon le Larousse, un programme informatique est un "ensemble d'instructions et de données représentant un algorithme et susceptible d'être exécuté par un ordinateur." Une forte adéquation entre instructions et données est donc nécessaire afin d'éviter tout dysfonctionnement d'un programme. Nous nous sommes ainsi intéressés ces dernières années aux analyses statiques, réalisées avant l'exécution du programme, permettant de garantir que la manipulation des données se passera correctement. Nous illustrerons nos recherches sur ce thème en considérant trois grandes familles de données: les arbres non ordonnés, les arbres ordonnés (dont XML), et les programmes eux-mêmes en tant que données. Dans chacun de ces domaines, nous avons conçu des analyses statiques, sous forme de système de types ou de bisimulations, adaptés à plusieurs problématiques telles que la manipulation de messages dans un système à composants, les langages bidirectionnels, la manipulation de XML ou les calculs de processus d'ordre supérieur avec passivation.
45

Marcel, Patrick. "Manipulations de données multidimensionnelles et langages de règles." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0093.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail est une contribution à 1' étude des manipulations dans les entrepôts de données. Dans la première partie, nous présentons un état de l'art concernant les langages de manipulations de données multidimensionnelles dans les systèmes d'analyse en ligne de données (systèmes OLAP). Nous mettons en évidence des possibilités de combinaisons intéressantes qui n'ont pas été étudiées. Ces pistes sont utilisées dans la deuxième partie pour proposer un langage de manipulation de données simple à base de règles, qui permet de spécifier les traitements typiques dans les systèmes OLAP. Dans une troisième partie, nous illustrons l'exploitation de ce langage pour décrire des traitements de type OLAP dans les tableurs, et automatiser en partie la génération des feuilles de calcul
This works is a contribution to the study of the manipulations in data warehouses. In the first part, we present a state of the art about multidimensional data manipulation languages in systems dedicated to On-Line analytical Processing (OLAP systems). We point out interesting combinations that haven't been studied. These conclusions are used in the second part to propose a simple rule-based language allowing specifying typical treatments arising in OLAP systems. In a third part, we illustrate the use of the language to describe OLAP treatments in spreadsheets, and to generate semi automatic spreadsheet programs
46

Faiza, Ghozzi. "CONCEPTION ET MANIPULATION DE BASES DE DONNEES DIMENSIONNELLES À CONTRAINTES." Phd thesis, Université Paul Sabatier - Toulouse III, 2004. http://tel.archives-ouvertes.fr/tel-00549421.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'accroissement du volume de données dans les systèmes d'information est de nos jours une réalité à laquelle chaque entreprise doit faire face. Notamment, elle doit permettre à ses responsables de déceler les informations pertinentes afin de prendre les bonnes décisions dans les plus brefs délais. Les systèmes décisionnels répondent à ces besoins en proposant des modèles et des techniques de manipulation des données. Dans le cadre de ces systèmes, mes travaux de thèse consistent à étudier la modélisation des données décisionnelles et à proposer un langage de manipulation adapté. Dans un premier temps, nous proposons un modèle dimensionnel organisant les données en une constellation de faits (sujets d'analyse) associés à des dimensions (axes d'analyse) pouvant être partagées. Notre modèle assure une plus grande cohérence des données par sa propriété de multi instanciations qui permet de spécifier des conditions d'appartenance des instances des dimensions aux hiérarchies. De plus, nous avons défini des contraintes exprimant des relations sémantiques entre les hiérarchies intra et inter dimensions (Inclusion, Exclusion, Totalité, Partition, Simultanéité). Au niveau de la manipulation des données, nous avons redéfini les opérateurs dimensionnels afin de permettre à l'utilisateur de mieux définir ses besoins en précisant l'ensemble des instances à analyser. Cette extension a permis d'éviter les incohérences lors de la manipulation des données dimensionnelles. Nous avons étudié également l'impact de ces contraintes sur l'optimisation des manipulations basée sur la technique de matérialisation des vues. La prise en compte des contraintes sémantiques a permis de supprimer des vues incohérentes et de réduire le nombre de vues candidates à la matérialisation. Dans un second temps, nous proposons un processus de conception d'un schéma dimensionnel comportant une démarche descendante, basée sur les besoins des décideurs, et une démarche ascendante basée sur les données sources. Une phase de confrontation, permet d'intégrer les résultats des deux démarches pour obtenir un schéma dimensionnel en constellation intégrant à la fois les besoins des décideurs et les données sources. Afin de valider nos propositions, nous avons développé un outil d'aide à la conception de schémas dimensionnels contraints intitulé GMAG (Générateur de MAGasin de données dimensionnelles).
47

BADAOUI, SAID. "Base d'images medicales, le modele de donnees, l'interface de manipulation." Paris 11, 1990. http://www.theses.fr/1990PA112220.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les objets a gerer en imagerie medicale comprennent des tableaux volumineux de valeurs (images, courbes,. . . ) et des donnees associees aux tableaux (identite du patient, conditions d'acquisition,. . . ). Leur structure, qui depend des sources d'acquisition ou des traitements effectues, est complexe. Il en va de meme pour leurs contraintes de validation. Leur nombre peut etre modifie par l'apparition de nouveaux generateurs (sources, traitements). Nous avons decrit formellement ces objets, ainsi que les contraintes de coherence grace aux concepts suivants: les types de base (pour les attributs atomiques), le type construit (pour les proprietes multi-attributs) et le type classe (pour les entites complexes et les contraintes). Le modele resultant est relationnel non normalise. Ce modele est implante au-dessus d'un sgbdr par un dictionnaire (meta-base) qui definit entierement la base par intention et qui controle son evolution. Un outil lie au modele etablit la correspondance avec le modele relationnel. Nous avons defini egalement une interface entre la base et l'utilisateur final, qui inclut les fonctionnalites de consultation simultanee des images et des donnees associees et d'insertion des donnees brutes ou traitees dans la base. L'interface est basee sur le mecanisme d'acces (lecture, ecriture) logique a la base et utilise le concept de relation localement universelle. L'interface cerne la semantique de la requete grace aux informations fournies par l'utilisateur et par le dictionnaire. L'apport de ces travaux en imagerie medicale consiste principalement en: la description formelle et uniforme des donnees quelles que soient leur provenance et leur modalite, l'independance entre l'utilisateur et la structure de la base et l'utilisation du standard acr/nema (american college of radiology and national electrical manufactures association) etendu permettant l'echange des donnees. Nos concepts sont concretises p
48

Dennebouy, Yves. "Un langage visuel pour la manipulation de données /." Lausanne, 1993. http://library.epfl.ch/theses/?nr=1182.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Renault, Thomas. "Three essays on the informational efficiency of financial markets through the use of Big Data Analytics." Thesis, Paris 1, 2017. http://www.theses.fr/2017PA01E009/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’augmentation massive du volume de données générées chaque jour par les individus sur Internet offre aux chercheurs la possibilité d’aborder la question de la prédictibilité des marchés financiers sous un nouvel angle. Sans prétendre apporter une réponse définitive au débat entre les partisans de l’efficience des marchés et les chercheurs en finance comportementale, cette thèse vise à améliorer notre compréhension du processus de formation des prix sur les marchés financiers grâce à une approche Big Data. Plus précisément, cette thèse porte sur (1) la mesure du sentiment des investisseurs à fréquence intra-journalière, et le lien entre le sentiment des investisseurs et les rendements agrégés du marché,(2) la mesure de l’attention des investisseurs aux informations économiques et financières en temps réel, et la relation entre l’attention des investisseurs et la dynamique des prix des actions des sociétés à forte capitalisation, et enfin, (3) la détection des comportements suspicieux pouvant amoindrir le rôle informationnel des marchés financiers, et le lien entre le volume d’activité sur les réseaux sociaux et le prix des actions des entreprises de petite capitalisation. Le premier essai propose une méthodologie permettant de construire un nouvel indicateur du sentiment des investisseurs en analysant le contenu des messages publiés sur le réseau social Stock-Twits. En examinant les caractéristiques propres à chaque utilisateur (niveau d’expérience, approche d’investissement, période de détention), cet essai fournit des preuves empiriques montrant que le comportement des investisseurs naïfs, sujets à des périodes d’excès d’optimisme ou de pessimisme, a un impact sur la valorisation du marché action, et ce en accord avec les théories de la finance comportementale. Le deuxième essai propose une méthodologie permettant de mesurer l’attention des investisseurs aux informations en temps réel, en combinant les données des médias traditionnels avec le contenu des messages envoyés par une liste d’experts sur la plateforme Twitter. Cet essai démontre que lorsqu’une information attire l’attention des investisseurs, les mouvements de marchés sont caractérisés par une forte hausse des volumes échangés, une hausse de la volatilité et des sauts de prix. Cet essai démontre également qu’il n’y a pas de fuite d’information significative lorsque les sources d’informations sont combinées pour corriger un potentiel problème d’horodatage. Le troisième essai étudie le risque de manipulation informationnelle en examinant un nouveau jeu de données de messages publiés sur Twitter à propos des entreprises de petite capitalisation. Cet essai propose une nouvelle méthodologie permettant d’identifier les comportements anormaux de manière automatisée en analysant les interactions entre les utilisateurs. Étant donné le grand nombre de recommandations suspicieuses d’achat envoyées par certains groupes d’utilisateurs, l’analyse empirique et les conclusions de cet essai soulignent la nécessité d’un plus grand contrôle par les régulateurs de l’information publiée sur les réseaux sociaux ainsi que l’utilité d’une meilleure éducation des investisseurs individuels
The massive increase in the availability of data generated everyday by individuals on the Internet has made it possible to address the predictability of financial markets from a different perspective. Without making the claim of offering a definitive answer to a debate that has persisted for forty years between partisans of the efficient market hypothesis and behavioral finance academics, this dissertation aims to improve our understanding of the price formation process in financial markets through the use of Big Data analytics. More precisely, it analyzes: (1) how to measure intraday investor sentiment and determine the relation between investor sentiment and aggregate market returns, (2) how to measure investor attention to news in real time, and identify the relation between investor attention and the price dynamics of large capitalization stocks, and (3) how to detect suspicious behaviors that could undermine the in-formational role of financial markets, and determine the relation between the level of posting activity on social media and small-capitalization stock returns. The first essay proposes a methodology to construct a novel indicator of investor sentiment by analyzing an extensive dataset of user-generated content published on the social media platform Stock-Twits. Examining users’ self-reported trading characteristics, the essay provides empirical evidence of sentiment-driven noise trading at the intraday level, consistent with behavioral finance theories. The second essay proposes a methodology to measure investor attention to news in real-time by combining data from traditional newswires with the content published by experts on the social media platform Twitter. The essay demonstrates that news that garners high attention leads to large and persistent change in trading activity, volatility, and price jumps. It also demonstrates that the pre-announcement effect is reduced when corrected newswire timestamps are considered. The third essay provides new insights into the empirical literature on small capitalization stocks market manipulation by examining a novel dataset of messages published on the social media plat-form Twitter. The essay proposes a novel methodology to identify suspicious behaviors by analyzing interactions between users and provide empirical evidence of suspicious stock recommendations on social media that could be related to market manipulation. The conclusion of the essay should rein-force regulators’ efforts to better control social media and highlights the need for a better education of individual investors
50

Jannin, Pierre. "Modelisation, visualisation et manipulation de donnees volumiques par arbre octal en imagerie medicale." Rennes 1, 1988. http://www.theses.fr/1988REN10055.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography