Дисертації з теми "Conception pour les données"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Conception pour les données.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Conception pour les données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Mordan, Taylor. "Conception d'architectures profondes pour l'interprétation de données visuelles." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS270.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Aujourd’hui, les images sont omniprésentes à travers les smartphones et les réseaux sociaux. Il devient alors nécessaire d’avoir des moyens de traitement automatiques, afin d’analyser et d’interpréter les grandes quantités de données disponibles. Dans cette thèse, nous nous intéressons à la détection d’objets, i.e. au problème d’identification et de localisation de tous les objets présents dans une image. Cela peut être vu comme une première étape vers une interprétation complète des scènes. Nous l’abordons avec des réseaux de neurones profonds à convolutions, sous le paradigme de l’apprentissage profond. Un inconvénient de cette approche est le besoin de données annotées pour l’apprentissage. Puisque les annotations précises sont longues à produire, des jeux de données plus gros peuvent être construits à l’aide d’annotations partielles. Nous concevons des fonctions d’agrégation globale pour travailler avec celles-ci et retrouver l’information latente dans deux cas : l’apprentissage de représentations spatialement localisée et par parties, à partir de supervisions aux niveaux de l’image et des objets respectivement. Nous traitons la question de l’efficacité dans l’apprentissage de bout en bout de ces représentations en tirant parti de réseaux complètement convolutionnels. En outre, l’exploitation d’annotations supplémentaires sur les images disponibles peut être une alternative à l’obtention de plus d’images, particulièrement quand il y a peu d’images. Nous formalisons ce problème comme un type spécifique d’apprentissage multi-tâche avec un objectif primaire, et concevons une méthode pour apprendre de cette supervision auxiliaire
Nowadays, images are ubiquitous through the use of smartphones and social media. It then becomes necessary to have automatic means of processing them, in order to analyze and interpret the large amount of available data. In this thesis, we are interested in object detection, i.e. the problem of identifying and localizing all objects present in an image. This can be seen as a first step toward a complete visual understanding of scenes. It is tackled with deep convolutional neural networks, under the Deep Learning paradigm. One drawback of this approach is the need for labeled data to learn from. Since precise annotations are time-consuming to produce, bigger datasets can be built with partial labels. We design global pooling functions to work with them and to recover latent information in two cases: learning spatially localized and part-based representations from image- and object-level supervisions respectively. We address the issue of efficiency in end-to-end learning of these representations by leveraging fully convolutional networks. Besides, exploiting additional annotations on available images can be an alternative to having more images, especially in the data-deficient regime. We formalize this problem as a specific kind of multi-task learning with a primary objective to focus on, and design a way to effectively learn from this auxiliary supervision under this framework
2

Abdelhédi, Fatma. "Conception assistée d’entrepôts de données et de documents XML pour l’analyse OLAP." Thesis, Toulouse 1, 2014. http://www.theses.fr/2014TOU10005/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Aujourd’hui, les entrepôts de données constituent un enjeu majeur pour les applications décisionnelles au sein des entreprises. Les sources d’un entrepôt, c’est à dire l’origine des données qui l’alimentent, sont diverses et hétérogènes : fichiers séquentiels, feuilles de tableur, bases de données relationnelles, documents du Web. La complexité est telle que les logiciels du marché ne répondent que partiellement aux attentes des décideurs lorsque ceux-ci souhaitent analyser les données. Nos travaux s’inscrivent donc dans le contexte des systèmes décisionnels qui intègrent tous types de données (principalement extraites de bases de données relationnelles et de bases de documents XML) et qui sont destinés à des décideurs. Ils visent à proposer des modèles, des méthodes et des outils logiciels pour élaborer et manipuler des entrepôts de données. Nos travaux ont plus précisément porté sur deux problématiques complémentaires : l’élaboration assistée d’un entrepôt de données ainsi que la modélisation et l’analyse OLAP de documents XML
Today, data warehouses are a major issue for business intelligence applications within companies. Sources of a warehouse, i.e. the origin of data that feed, are diverse and heterogeneous sequential files, spreadsheets, relational databases, Web documents. The complexity is such that the software on the market only partially meets the needs of decision makers when they want to analyze the data. Therefore, our work is within the decision support systems context that integrate all data types (mainly extracted from relational databases and XML documents databases) for decision makers. They aim to provide models, methods and software tools to elaborate and manipulate data warehouses. Our work has specifically focused on two complementary issues: aided data warehouse and modeling and OLAP analysis of XML documents
3

Chelghoum, Kamel. "Un modèle de données sémantique pour la C. A. O." Lyon 1, 1989. http://www.theses.fr/1989LYO10173.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le domaine de la conception assistee par ordinateur (cao) a fait naitre des besoins tres specifiques en matiere de gestion de donnees. Outre les fonctionnalites classiques des sgbd, la cao exige de nouvelles fonctionnalites qui se resument principalement en la prise en compte d'objets complexes, des structures de donnees dynamiques, la cohabitation de donnees de types differents et la representation multiple d'un meme objet. Pour repondre a ces exigences, les techniques de bases de donnees apportees par les sgbd classiques ne suffisent pas. On a donc fait appel aux outils de l'intelligence artificielle (ia). Le but de ce travail et de developper un systeme de gestion de donnees repondant aux exigences du domaine de la cao. Pour cela un modele de donnees a ete elabore, il s'inspire a la fois des modeles semantiques de bases de donnees et des modes de representation de connaissances en ia. Le modele est base sur les reseaux semantiques et la logique des predicats. Le systeme offre a l'utilisateur des outils permettant la description et la manipulatin d'objets. Les donnees manipulees representent des structures et des valeurs. Une maquette du systeme a ete developpee avec un langage de programmatin logique
4

Tlili, Assed. "Structuration des données de la conception d'un bâtiment pour une utilisation informatique." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1986. http://tel.archives-ouvertes.fr/tel-00529509.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette recherche propose une structure et un dictionnaire de données de la conception thermique d'un bâtiment d'habitation. L'analyse qui y est effectuée facilite la tâche des créateurs de logiciels spécifiques aux différents domaines de la conception des bâtiments en les dispensant des analyses séparées et répétées. Ces logiciels se partagent les données, saisies et manipulées une seule fois, et les échangent entre eux sans problèmes de compatibilité. La démarche se résume en quatre points : - L'analyse préliminaire de la conception d'un bâtiment fournit des listes, de phases, de fonctions et tâches, de dossiers et documents, et enfin d'ouvrages, à partir desquelles pourraient être collectées les données. - Cette collecte sera effectuée dans le domaine restreint de la conception thermique, pour permettre une analyse plus détaillée. Celle-ci aboutit, grâce aux méthodes de structuration, à la "structure brute" du premier niveau, qui contient des fichiers, et à la "structure simplifiée" du second niveau, qui contient des structures de données. - La "méta-structure" du troisième niveau contient la totalité des résultats dans le fichier "STRUCTURE" : nomenclature des données classées par types, et le fichier "DICTIONNAIRE" : tous les paramètres des données classées par ordre alphabétique. - L'application est réalisée grâce au fichier "BASE", dont le contenu (identifiants et valeurs des données) est saisi une seule fois par le premier utilisateur. La méthode qui a permis la proposition de ces résultats pour ce domaine restreint reste valable pour les domaines non traités. Le traitement de tous les domaines de la conception d'un bâtiment aboutirait à un système de CAO global.
5

Kahwati, Ghassan. "Conception et réalisation d'une interface pour l'interrogation d'une base de données documentaire." Grenoble 2, 1986. http://www.theses.fr/1986GRE21021.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail réalisé comprend une étude critique sur la structure de base des langages d'interrogation et leurs caractéristiques linguistiques (abrévation, vocabulaire et syntaxe). Une réflexion est faite sur les différents types d'utilisateurs pour comprendre les facteurs humains qui influencent leur comportement en face d'un système informatisé. A partir de là, nous avons défini l'utilisateur occasionnel visé par l'interface et un langage de commande (Lasydo) lui est adapté. Les caractéristiques de ce langage, ses fonctions et ses éléments sont discutés. Un traducteur ayant la structure de compilateur assure la transformation de la requête de l'usager en une forme acceptee par SGDB. Nous utilisons dans ce but un logiciel d'aide à l'écriture des traducteurs. La structure interne de Lasydo et celle de la base de données y sont prises en considération. Ce traducteur est défini et réalisé. Une étude synthétique et comparative sur les modèles de données à débouché sur la mise en oeuvre d'une base de données selon le modèle relationnel. En exploitant les propriétés de ce modèle, nous proposons deux schémas de la base, à relation unique et à relations multiples. Nous discutons la représentation de ces schémas sous forme de graphe extensible et nous décrivons le mécanisme de edéduction des chemins d'accès à l'information recherchée. Enfin, l'implantation de la base et de l'interface (modulaire et extensible) sous le système multics du HB68 est décrite
This survey deals with basic structure of query languages and their linguistic characteristics (i. E abbreviations, vocabulary and syntax). A part of the work carried out is about the different types of users in order to apprehend human factors influencing their behaviour when facing an automatized system. Next, the occasional user affected by the interface is defined and a command language (Lasydo) is adapted to him. The characteristics, functions and elements of this language are analysed here. A translator with a compiler structure realizes the transformations of the user's request into a form accepted by DBMS. For this purpose we use a software as a support to the writing of translator. It takes into account the internal structure of Lasydo and that of the data base. The translator is defined and realized. A comparative and synthetic study about data models has allowed the implementation of a database consistent with the relational model. By working out the properties of this model, we suggest two schemes for this base : a one-relational basis and multiple-relational basis. Moreover, we study the representation of these schemes as a dynamic graph ; and we express the deduction mechanism of the access path to the required information. At last, we study the implementation of the base and the interface under the multics system of the HB68
6

Serna, Encinas María Trinidad. "Entrepôts de données pour l'aide à la décision médicale : conception et expérimentation." Université Joseph Fourier (Grenoble), 2005. http://www.theses.fr/2005GRE10083.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les entrepôts de données intègrent les informations en provenance de différentes sources, souvent réparties et hétérogènes et qui ont pour objectif de fournir une vue globale de l'information aux analystes et aux décideurs. L'ensemble des données avec leurs historiques sert pour l'aide à la décision. La conception et la mise en œuvre d'un entrepôt se fait en trois étape : extraction-intégration, organisation et interrogation. Dans cette thèse, nous nous intéressons aux deux dernières. Pour nous, l'organisation est une tâche complexe et délicate, pour cela, nous la divisons en deux parties : structuration et gestion des données. Ainsi, pour la structuration, nous proposons la définition d'un modèle multidimensionnel qui se compose de trois classes : Cube, Dimension et Hiérarchie. Nous proposons également un algorithme pour la sélection de l'ensemble optimal des vues à matérialiser. La gestion de données doit prendre en compte l'évolution des entrepôts. Le concept d'évolution de schéma a été introduit pour récupérer les données existantes par le biais de leur adaptation au nouveau schéma. Néanmoins, dans les systèmes qui doivent gérer des données historiques, l'évolution de schéma n'est pas suffisante et la maintenance de plusieurs schémas est requise. Pour cela, nous proposons l'utilisation des versions de schémas bitemporels pour la gestion, le stockage et la visualisation des données courantes et historisées (intensionneIles et extensionneIles). Finalement, pour l'interrogation, nous avons développé une interface graphique qui permet la génération (semi-automatique) des indicateurs. Ces indicateurs (par exemple, "le nombre de séjours par établissement et par maladie") sont déterminés par le cadre applicatif. Nous avons eu l'opportunité de travailler dans le cadre d'un projet médical, ce qui nous a permis de vérifier et de valider notre proposition sur des données réelles
Data warehouses integrate infonnation coming from different data sources which are often heterogeneous and distributed. Their main goal is to provide a global view for analysts and managers to make decisions based on data sets and historical logs. The design and construction of a data warehouse are composed by three phases : extraction-integration, organisation and interrogation. Ln this thesis, we are interested in the latter two. For us, the organisation is a complex and delicate task. Hence, we divide it into two parts : data structuring and data managing. For structuring we propose a multidimensional model which is composed by three classes : Cube, Dimension and Hierarchy. We propose also an algorithm for selecting the optimal set of materialized views. We consider that data management should include warehouse evolution. The concept of schema evolution was adapted here and we propose to use bitemporal schema versions for the management, storage and visualization of current and historical data (intentional and extensional). Finally, we have implemented a graphie interface that allows semi-automatic query generation (indicators). These queries (for example, "number of patients by hospitals and diseases") are determined by the application domain. We had the opportunity to work in a medical project ; it allowed us to verify and 10 validate our proposition using real data
7

Mammar, Amel. "Un environnement formel pour le développement d'applications bases de données." Paris, CNAM, 2002. http://www.theses.fr/2002CNAM0437.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail présente une approche formelle pour le développement d'applications bases de données sûres. Cette approche consiste en la génération d'une implémentation relationnelle à partir de spécifications formelles. On décrit préalablement l'application à l'aide de notations UML, puis un processus automatique est appliqué afin de les traduire en spécifications B. En utilisant le processus de raffinement, un ensemble de règles de raffinement; opérant sur les données et les opérations, est utilisé sur les spécifications obtenues. Ces phases de raffinement ont pour but de rendre les spécifications proches du langage d'implémentation cible choisi, la dernière phase de codage devient intuitive et naturelle. De manière générale, le raffinement est manuel, relativement coûteux, en particulier en phase de preuve. Grâce au caractère générique de ces règles de raffinement, un outil de raffinement assisté peut être réalisé, permettant la réduction du côut du processus de raffinement
This work presents a formal approach for developing safety database applications. This approach consists of generating relational database implementations from formal specifications. We begin by designing the application with graphical notations such as UML, OMT,. . . Then an automatic process is used to translate them into B formal specifications. Using the B refinement process, a set of refinement rules, acting on both data and operations (programs), are applied on the specifications. These refinement process is generally a manuel and very costy task especially in proff phase. Thanks to the generic feauture of the refinement rules, an assistant refiner can be elaborated, allowing the cost of the refienement process to be reduced
8

Benadjaoud, Ghazi Nourdine. "Dee : Un environnement d'échange de données pour l'intégration des applicatons." Ecully, Ecole centrale de Lyon, 1996. http://www.theses.fr/1996ECDL0027.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'environnement d'echanges de donnees (dee) remedie a l'isolement des applications. Il permet une coordination et un controle des echanges de donnees entre des applications qui peuvent etre geographiquement eloignees et qui travaillent sur des systemes de gestion de donnees eventuellement differents. Le modele de reference, appele mer (modele extensible de reference), que nous proposons, sert de schema unificateur des donnees traitees par les differentes applications. Le mer est exprime grace au modele objet que nous avons egalement concu. Ce modele, appele mo-mer, est un modele objet qui s'inspire du modele standard defini par le groupe odmg (object database mangement group) odmg 93. Une demarche de construction du mer pour soutenir les concepteurs dans toutes les etapes de modelisation du mer a ete definie. Elle est constituee d'un ensemble de directives et de conseils guidant les concepteurs dans la construction, le maintien et l'evolution du mer. Elle s'appuie sur le caractere extensible du mer et met l'accent sur l'etape d'integration qui nous parait importante pour favoriser une demarche incrementale pour la construction du mer. Nous avons egalement concu un outil qui facilite la conception et le developpement des interfaces locales, les composants necessaires au transfert des donnees des applications vers le dee et vice versa. Cet outil, baptise list (local interface specification tool) prend en compte la diversite des gestionnaires de donnees utilises par les applications. Pour valider nos propositions, nous avons construit le mer des applications septen, realise un outil de generation de translateurs specialises dans le transfert de donnees des bases de donnees relationnelles vers les fichiers, et nous avons egalement realise une maquette du dee.
9

Meziane, Madjid. "Développement d'une approche orientée objet actif pour la conception de systèmes d'information." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0124.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes d'information (SI) présentent deux aspects fortement dépendants : un aspect structurel (ou statique) et un aspect comportemental (ou dynamique). Traiter de façon distincte ces deux aspects rend plus difficile l'analyse et la conception du SI, ainsi que son évolution. Même les méthodes de conception orientées objet, qui intègrent partiellement le comportement du système au niveau de la structure (par le biais de méthodes), ne permettent pas de prendre en compte toute la dimension dynamique du SI. Nous constatons en effet que les règles de gestion (au sens large, c'est-à-dire contraintes d'intégrité, règles de dérivation et règles actives) qui expriment, pour beaucoup d'entre elles, les activités du SI ainsi que les conditions de leur exécution, sont généralement diffusées à travers de nombreux modèles (d'une même méthode). Ceci appauvrit la sémantique au niveau de la modélisation du comportement. En nous inscrivant dans le contexte de l'approche objet, nous préconisons, dans ce travail, l'utilisation du concept d'objet actif comme entité de modélisation, car il constitue un support idéal pour exprimer non seulement les parties données et traitements d'un objet, mais également l’ensemble des règles de gestion qui le régissent. Le concept d'objet actif rend ainsi plus aisée la conception des SI en intégrant efficacement le mécanisme Evénement-Condition-Action (ECA), mécanisme clé dans les bases de données actives. L’introduction de ce concept nécessite de nouveaux modèles pour exprimer et traduire les comportements passif et actif du SI. Nous proposons pour cela une extension aux diagrammes d'états. Par ailleurs, le nombre important de règles produites au niveau conceptuel nécessite leur partitionnement. Nous le réalisons par une stratification des règles. Enfin, sur le plan des outils, nous avons été amenés à ajouter de nouvelles fonctionnalités aux Ateliers de Génie Logiciel (AGL)
Information systems (IS) present two very dependant aspects: a structural (or static) aspect and a behavior (or dynamic) one. Working distinctly over these two aspects makes the information systems analysis, conception and also evolution more complicated. Even the methods of object-oriented conception, which integrate partially the system behavior at structure level (through methods), cannot take into account the IS dynamic dimension. We deduce that management rules (we mean integrity constraints, derivation rules and active ones), that describe the IS activities and execution conditions, are generally diffused through multiple models (of method). Stated in the object approach context, we propose, in this work, the u e of active object concept as modeling entity because it constitutes an ideal support in describing not only the data parts and object treatments, but also the set of management rules. The active object concept makes easier the IS conception in integrating efficacy the «Event-condition-Action mechanism”, key of active databases. The introduction of such concept needs some new models to describe and traduce the passive and active behavior of IS. For that reason, we propose an extension of state diagrams. Nevertheless, the important number of produced rules at conceptual level requires its partition. We realize it by rules stratification. Finally, over the utilities plan, we had to add some new functionality to CASE Tools
10

M'Sir, Mohamed El Amine. "Conception d'architectures rapides pour codes convolutifs en télécommunications : application aux turbo-codes." Metz, 2003. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2003/Msir.Mohamed.El.Amine.SMZ0315.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En télécommunication, l'intégration des services et la diversité des données échangées (voix, vidéo, cellules ATM, etc. ) exigent des systèmes de plus en plus rapides pour traiter des volumes d'information en augmentation constante, tout en conservant des délais d'attente les moins contraignants possibles pour l'utilisateur, ces deux contraintes liées au traitement de l'information s'ajoute la nécessité de protéger les données émises dans des canaux soumis à des bruits perturbateurs. De la qualité du service (QoS) rendu en termes de communication, quelles que soient les conditions de transmission, se dégagent deux mots clés : fiabilité et rapidité. Le travail de cette thèses fait partie d'un projet global mené dans le laboratoire LICM concernant la conception architecturale d'une chaîne de transmission à haut débit et à faible coût. Coût. Ce travail se situe dans le cadre d 'un contrat CIFRE entre le laboratoire LICM et la société 2 MG Communication. L'objectif est de concevoir une architecture rapide pour un système de codage de faible coût et à haut débit permettant une protection optimale des données. Une étude approfondie sur les stratégies de codage canal dans le domaine des télécommunications a été effectuée. Il en ressort que les stratégies FEC (Forward Error Correction) offrent les meilleurs compromis débit/protection. L'emploi de codes convolutifs est l'une des approches F EC les plus répandues : la possibilité de les utiliser, soit comme entités indépendantes soit dans des structures concaténées avec d'autres codes, soit encore comme éléments constituants de turbo-codes( techniques de codage offrant actuellement les meilleurs niveaux de protection), les rend très attractifs. A partir de ce constat, quatre types d'architecture de codeurs convolutifs ainsi qu'une architecture de tubo-codeur ont été développés au niveau RTL et validés sur FPGA. Les résultats obtenus sont compris, pour le codeur convolutif haut débit, entre 1 et 7. 45 Gbits/s pour des degrés de parallélisme 8 et 32, respectivement. Dans le cas du turbo-code,I 'implantation d 'un turbo-codeur à deux niveaux avec un rendement 1/3 a permis d 'atteindre des débits compris entre 1 et 2 Gbits/s et entre 3 et 5 Gbits/s pour des degrés de parallélisme de 8 et 32, respectivement. L'étude a été complétée par le développement d'un décodeur de syndrome pour codes convolutifs,exploitant l'architecture parallèle du codeur haut débit, qui a permis d'atteindre des débits de 4. 78 Gbits/s pour un rendement de 1/2
11

Barbar, Aziz. "Extraction de schémas objet pour la rétro-conception de bases de données relationnelles." Nice, 2002. http://www.theses.fr/2002NICE5762.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Petit, Jean-Marc. "Fondements pour un processus réaliste de rétro-conception de bases de données relationnelles." Lyon 1, 1996. http://www.theses.fr/1996LYO19004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La gestion des donnees permanentes prend une part de plus en plus importante dans tous les domaines de l'informatique. Pour beaucoup d'applications operationnelles, ces donnees sont indispensables a la perennite des entreprises. Pour autant, il n'est pas rare que l'organisation logique des donnees soit ignoree ou mal comprise. Les phases de maintenance de l'existant, notamment a des fins d'evolution ou d'interoperabilite avec d'autres applications, sont rendues difficiles. Nous avons defini un processus de retro-conception de bases de donnees relationnelles. Nous voulons fournir une abstraction des donnees sous la forme d'un schema conceptuel. Notre travail repose sur les fondements du modele relationnel et ameliore significativement l'automatisation de certaines parties du processus. Les travaux dans ce domaine font generalement des hypotheses peu realistes: disciplines de nommage des attributs cles, connaissances des dependances entre les donnees ou disponibilite des administrateurs. Nous proposons une approche modulaire et realiste. Le processus s'articule autour de cinq modules: comprehension de la navigation logique en analysant les jointures effectuees dans les programmes d'application ; extraction de la semantique des donnees a partir de cette navigation logique et de l'extension de la base ; restructuration du schema relationnel pour expliciter des objets caches et les transformer en relations ; traduction du schema relationnel ainsi restructure dans un schema conceptuel de type entite-association, et enfin validation du schema conceptuel obtenu. Si des connaissances sont remises en cause lors de cette validation, une partie du processus peut etre reiteree. Ce processus de retro-conception a ete valide sur un cas reel. Il faut noter qu'il semble etre prometteur pour realiser l'audit de bases de donnees relationnelles operationnelles
13

Bonneville, François. "Élaboration d'une base de données d'équipements pour la conception des systèmes d'assemblage réactifs." Besançon, 1994. http://www.theses.fr/1994BESA2034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these s'inscrit dans une demarche globale de conception rationnelle des ateliers d'assemblage. Elle est consacree plus precisement au probleme du choix des equipements et a l'evaluation du potentiel de reactivite des systemes d'assemblage. La premiere partie presente l'etat de l'art des methodes de conception des ateliers d'assemblage, et montre le besoin d'une base de donnees d'equipements d'assemblage pour ces methodes. La problematique de la reactivite est ensuite introduite en analysant les causes de la vulnerabilite des systemes d'assemblage et en presentant des moyens pour augmenter leur fiabilite. La seconde partie propose une classification des elements formant les equipements, ainsi qu'une typologie des taches d'assemblage. Cette analyse des equipements et des taches permet, dans une troisieme partie, de definir un modele conceptuel d'une base de donnees d'equipements d'assemblage. La quatrieme partie presente la maniere d'utiliser cette base de donnees dans une demarche rationnelle de conception des systemes d'assemblage. La derniere partie propose une methode d'evaluation du potentiel de reactivite d'un systeme d'assemblage, par l'estimation du gain productivite
14

Veltri, Pierangelo. "Un système de vues pour les données XML du Web : conception et implantation." Paris 11, 2002. http://www.theses.fr/2002PA112146.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La contribution de cette thèse consiste dans la conception et l'implantation d'un mécanisme de vues pour interroger un entrepôt des données XML. Chaque document XML peut être associé à une structure (schéma), la DTD, qui peut être utilisée pour l'interrogation. Toutefois ces structures sont très hétérogènes. L'utilisateur doit donc connaître toutes les DTDs pour pouvoir formuler une requête sur tous les documents de la base. L'idée est de classifier les données XML par domaine, et de définir, pour chaque domaine, une DTD virtuelle qui permette une interrogation homogène des documentes dans un domaine. Dans le système proposé, une vue est constituée d'une DTD virtuelle et d'un ensemble de mappings qui lient la DTD virtuelle avec les documents de la base. Lorsque une requête est adressée sur la vue, le système traduit la requête en une union de requêtes sur les DTDs pertinentes par rapport à la requête initiale. Une de difficulté majeure à la quelle nous nous sommes intéressés, est le passage à l'échelle du système propose. Pour cela nous proposons une distribution des vues de façon à rendre optimale la traduction des requêtes sur un système constitue de nombreuse machines indépendantes. Ce mécanisme de vues a été implanté et l'implantation a été intégrée dans Xyleme, un entrepôt contenant les données XML du Web
The thesis presents the design and implementation of a view mechanism to query a large and highly heterogeneous XML repository. XML documents can be queried using their structure (DTD). Nevertheless, to query many XML documents, users need to know the structure of all of them. We classify XML documents by domain (e. G. , art, tourism, etc. ), and we define an abstract DTD to represent each domain. A view definition consists of an abstract DTD and a set of mappings that map paths in the abstract DTD into paths in the actual documents of the domain. When a view is queried, the system translates the query into a union of queries against actual data that the query processor evaluates. An important issue that we considered is the scalability of the system. To achieve high scalability and to allow an efficient query translation, we distribute views over the machines of a distributed system. The view mechanism has been fully implemented in Xyleme system, and patented by Xyleme S. A, the society that sells Xyleme
15

Nauer, Emmanuel. "Principes de conception de systèmes hypertextes pour la fouille de données bibliographiques multibases." Nancy 1, 2001. http://www.theses.fr/2001NAN10008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le besoin en information est primordial pour la recherche et la veille scientifiques et techniques. L'importante quantité de données disponibles actuellement sur un domaine d'activité nécessite de mettre en oeuvre des moyens adaptés pour exploiter ces données. Le but de ce travail de recherche est de fournir un environnement pour exploiter les données d'un domaine (références bibliographiques et Web) pour des besoins de recherches bibliographiques ou d'analyses de domaines. Dans ce cadre une approche générale pour construire un système hypertexte de fouille de données bibliographiques est proposé. L'hypertexte favorise l'accès exploratoire des données. Des fonctionnalités de fouille (dénombrements, classifications, extractions de règles) sont déclenchées à la demande pour analyser plus précisément les données. L'idée principale de cette thèse est que la fouille de données et la recherche d'information sont deux approches complémentaires pour appréhender des données : la fouille de données permet de guider la recherche d'information à partir des connaissances extraites des données. Inversement, la recherche d'information permet de guider la fouille de données par l'exploitation des connaissances issues de la fouille. La fouille de données favorise également l'accès à l'information sur le Web. Concrètement, les connaissances extraites des données bibliographiques fournissent une aide à la formulation de requêtes et permettent d'améliorer la précision des réponses obtenues lors de l'interrogation de moteurs de recherche. La mise en place d'un tel système nécessite d'exploiter les travaux de recherche en fouille de données, recherche d'information et bases de données. D'un point de vue technique, les outils de ces différents domaines sont combinés grâce à une approche modulaire exploitant XML pour la représentation et l'échange des données manipulées, et un traitement par flux de données
Information is essential in scientific and technical research and watch. The significant quantity of currently available data in a domain requires to implement adapted tools to exploit them. The goal of this research is to provide an environment in which the data of a domain (bibliographical references and Web) can be exploited for bibliographical search or domain analysis needs. In this framework, a general approach to build an hypertextual datamining system on bibliographical data is proposed. The use of hypextext capabilities favorizes an explorative access to data. Functionalities of datamining (statistical information, classifications, rules extraction) may be available to analyze data more precisely. The principal idea of this thesis is that datamining and information retrieval are two complementary approaches to access and analyse data : datamining allows to guide the information retrieval by using the knowledge extracted from the data. Conversely, information retrieval allows to guide the datami- ning pro cess by taking into account the extracted knowledge. The datamining process also favours the information access on the Web. Concretely, the knowledge extracted from bibliographical data provides a help for query formulation and improve the answer's precision of web search engine Building such a system requires the exploitation of different technics, Le. Datamining, information retrieval and database management. From a technical point of view, the tools of these fields are combined thanks to a modular approach exploiting XML for the representation and the exchange of the data, and a data flow processing
16

Paquet, Marie-France. "Une approche à simulation pour le traitement des données longitudinales incomplètes." Paris 1, 2001. http://www.theses.fr/2001PA010080.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Afin d'analyser des modèles à caractère dynamique, nous colligeons des informations individuelles sur plusieurs périodes de façon à produire des bases de données de type longitudinales. Ces données peuvent être de type panel, panel incomplet ou non balancé. La solution conventionnelle au problème des panels incomplets est de créer des panels à partir de moyennes prises sur des groupes d'unités. Le regroupement à chaque période de ces moyennes constitue des pseudo panels. L'objectif de la thèse est de proposer une approche alternative à la technique conventionnelle des pseudo panels. L'exploitation des nouvelles techniques à augmentation de données permet de conserver pour l'estimation toute l'information que comportent les unités de base. Cette approche est si flexible qu'elle peut être utilisée pour traiter tant le cas extrême , soit la combinaison de coupes transversales indépendantes, que les situations de panels incomplets proprement dits.
17

Barkat, Okba. "Utilisation conjointe des ontologies et du contexte pour la conception des systèmes de stockage de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous assistons à une époque où toute entreprise (ou organisme), dans le but d’augmenter son pou- voir décisionnel, est fortement intéressée par la collecte et l’analyse des données provenant de multiples sources hétérogènes et variées. Ces sources présentent également une autre spécificité à savoir la sensibilité au contexte. Cette situation nous met face à un enjeu scientifique crucial, du fait qu’elle réunit trois problématiques complémentaires : (i) la résolution de l’hétérogénéité qui peut exister entre les sources,(ii) la construction d’un système d’intégration décisionnel, et (iii) la prise en compte du contexte dans cette intégration. Afin de répondre à ces problématiques, nous nous intéressons dans cette thèse à la conception des applications contextuelles basées sur une ontologie de domaine, supposée existante. Pour ce faire, nous proposons d’abord un modèle de contexte qui intègre les dimensions principales identifiées dans la littérature. Une fois construit, il est lié au modèle de l’ontologie. Cette façon de procéder augmente la flexibilité dans la conception des applications avancées. Ensuite, nous proposons deux cas d’étude : (1) la contextualisation de sources de données sémantiques où nous étendons le système On- toBD/OntoQL afin qu’il prenne en compte le contexte, et (2) la conception d’un entrepôt de données contextuel où le modèle de contexte est projeté sur les différentes phases de conception du cycle de vie. Afin de valider notre proposition, nous présentons un prototype d’outil d’aide à la conception implémentant les différentes étapes de l’approche de conception proposée
We are witnessing an era when any company is strongly interested in collecting and analyzing data from heterogeneous and varied sources. These sources also have another specificity, namely con- text awareness. Three complementary problems are identified: the resolution of the heterogeneity of the sources, (ii) the construction of a decisional integrating system, and (iii) taking into account the context in this integration. To solve these problems, we are interested in this thesis in the design of contextual applications based on a domain ontology.To do this, we first propose a context model that integrates the main dimensions identified in the literature. Once built, it is linked to the ontology model. This approach increases flexibility in the design of advanced applications. Then, we propose two case studies: (1) the contextualization of semantic data sources where we extend the OntoBD/OntoQL system to take the context into account, and (2) the design of a contextual data warehouse where the context model is projected on the different phases of the life cycle design. To validate our proposal, we present a tool implementing the different phases of the proposed design approach
18

Nguyen, Kim. "Langage de combinateurs pour XML : conception, typage, implantation." Paris 11, 2008. http://www.theses.fr/2008PA112071.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse détaille l'étude théorique et pratique d'un langage de combinateurs pour XML. Les documents XML, standard de fait permettant de représenter des données hétérogènes de manière structurée et uniforme de manière à ce qu'elles soient réutilisable par plusieurs programmes, sont traditionnellement manipulés par des langages généralistes (JAVA, C,. . . ). Parallèlement à ces langages généralistes existent des langages spécialisés, dont le seul but est le traitement de document XML (récupération d'information dans un document, transformation d'un format de document vers un autre. . . ). On s'intéresse plus particulièrement aux langages spécialisés à typage statique. En effet, il est possible de spécifié précisément la « forme » d'un document XML (balises qu'il contient, ordre,. . . ) au moyen d'un schéma. Les langages statiquement typés effectuent une analyse statique du code du programme pour vérifier qu'aucune opération ne viole les contraintes spécifiées dans le schéma d'un document traité. L'analyse est dites statique en cela qu'elle ne repose que sur le code du programme et non sur des exemples de documents ou d'informations disponibles lors de l'exécution du programme. Cette thèse présente les fondements théoriques d'un langage de manipulation de document XML, typé statiquement. Elle propose aussi une implantation ainsi qu'une étude de son utilisation en pratique. Elle présente aussi plusieurs cas d'utilisation du typage statique pour l'optimisation d'opérations sur les documents XML (transformation, chargement en mémoire. . . )
This thesis details the theoretical and practical study of a language of combinators for XML. XML documents, which are a de facto standard used to represent heterogeneous data in a structured and generic way so that they can be easily shared by many programs, are usually manipulated by all-purpose languages (JAVA, C,. . . ). Alongside these languages, one finds specialised languages, designs specifically to deal with XML documents (retrieving information from a document, transforming from a document format to another. . . ). We focus on statically typed languages. It is indeed possible to specify the ''shape'' of a document (sets of tags, order,. . . ) by the mean of a schema. Statically typed languages perform a static analysis of the source code of the program to ensure that every operation is valid with respect to the schema of a processed document. The analysis is said to be static because it only relies on the source code of the program, not on any runtime information or document sample. This thesis presents the theoretical foundations of a language for manipulating XML documents, in a statically typed way. It also features a practical study as well as an implementation of the formal language. Lastly, it presents many use case of type based optimisation in the context of XML processing (transformation, loading of a document in memory. . . )
19

Favre, Cécile. "Evolution de schémas dans les entrepôts de données : mise à jour de hiérarchies de dimension pour la personnalisation des analyses." Lyon 2, 2007. http://theses.univ-lyon2.fr/documents/lyon2/2007/favre_c.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons une solution pour la personnalisation des analyses dans les entrepôts de données. Cette solution se base sur une évolution du schéma de l'entrepôt guidée par les utilisateurs. Il s'agit en effet de recueillir les connaissances de l'utilisateur et de les intégrer dans l'entrepôt de données afin de créer de nouveaux axes d'analyse. Cette solution se base sur la définition d'un modèle formel d'entrepôt de données évolutif, basé sur des règles <>, que nous appelons règles d'agrégation. Notre modèle d'entrepôt évolutif est soutenu par une architecture qui permet de modéliser le processus de personnalisation. Cette architecture comprend quatre modules qui comprennent : l’acquisition des connaissances utilisateurs sous forme de règles d'agrégation ; l’intégration des règles d'agrégation dans l'entrepôt de données ; l’évolution du schéma ; l’analyse en ligne sur le nouveau schéma. Pour mettre en œuvre cette architecture globale, nous proposons un modèle d'exécution avec l'approche relationnelle, qui vise à gérer l'ensemble des processus liés à l'architecture globale. Nous nous sommes par ailleurs intéressés à l'évaluation de la performance de notre modèle d'entrepôt de données évolutif. Pour cela, nous proposons une méthode de mise à jour incrémentale d’une charge donnée en répercutant l’évolution de schéma. Pour valider nos différentes contributions, nous avons développé la plateforme WEDriK (data Warehouse Evolution Driven by Knowledge). Les problèmes posés dans ce mémoire sont directement issus de la réalité de l'entreprise LCL avec laquelle nous avons collaboré dans le cadre d'une thèse CIFRE
In this thesis, we propose a solution to personalize analyses in data warehousing. This solution is based on schema evolution driven by users. More precisely, it consists in users’ knowledge and integrating it in the data warehouse to build new analysis axes. To achieve that, we propose an evolving rule-based data warehouse formal model. The rules are named aggregation rules. To exploit this model, we propose an architecture that allows the personalization process. This architecture includes four modules: users’ knowledge acquisition under the form of if-then rules, integration of these rules in the data warehouse; schema evolution; on-line analysis on the new schema. To realize this architecture, we propose an executive model in the relational context to deal with the process of the global architecture. Besides we interested in the evaluation of our evolving model. To do that, we propose an incremental updating method of a given workload in response to the data warehouse schema evolution. To validate our proposals, we developed the WEDriK (data Warehouse Evolution Driven by Knowledge) platform. The problems evoked in this thesis come from the reality of the LCL bank
20

Mebarki, Abdelkrim. "Implantation de structures de données compactes pour les triangulations." Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00336178.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La modélisation des objets géométriques est incontournable dans de nombreuses disciplines et applications. L'évolution des moyens l'acquisition et de stockage a produit une hausse énorme des volumes utilisés pour stocker ces objets. La réduction des tailles de ces volumes fait l'objet de plusieurs domaines de recherches ; comme la compression, qui vise à compresser le volume au maximum, et l'élaboration de structures théoriques compactes qui minimisent la taille nécessaire à la représentation. Le but de cette thèse est de concevoir, et d'évaluer des solutions pratiques et exploitables pour représenter de
façon compacte les triangulations. Pour ce faire, deux issues sont explorées : modifier la représentation interne en mémoire des objets géométriques, et redéfinir les types abstraits des objets géométriques correspondants. Une première solution consiste à utiliser des indices sur une taille arbitraire de bits, au lieu des références absolues. Les gains dépendent de la taille de la triangulation, et aussi de la taille du mot mémoire de la machine. Le handicap majeur est le coût élevé de la méthode en termes de temps d'exécution. Une deuxième piste consiste à utiliser des catalogues stables. L'idée consiste à regrouper les triangles dans des micro-triangulations, et de représenter la triangulation comme un ensemble de ces micro-triangulations. Le nombre des références multiples vers les sommets, et des références réciproques entre voisins est alors nettement réduit. Les résultats sont
prometteurs, sachant que le temps d'exécution n'est pas dramatiquement altéré par la modification des méthodes d'accés aux triangles. Une troisième solution consiste à décomposer la triangulation en plusieurs sous-triangulations permettant ainsi de coder les références dans une sous-triangulation sur un nombre réduit de bits par rapport aux références absolues. Les résultats de cette techniques sont encourageants, et peuvent être amplifiés par d'autres techniques comme le codage relatif des références, ou le partage de l'information géométrique des sommets sur les bords entre les différentes sous-triangulations. L'élaboration de structures compactes nécessite encore plus d'intérêts, et plusieurs pistes sont à explorer pour pouvoir arriver à des solutions plus économiques en termes d'espace mémoire.
21

Bogo, Gilles. "Conception d'applications pour systèmes transactionnels coopérants." Habilitation à diriger des recherches, Grenoble INPG, 1985. http://tel.archives-ouvertes.fr/tel-00315574.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les moyens offerts par les systèmes de gestion de base de données et les systèmes transactionnels pour maintenir la cohérence et l'intégrité des systèmes d'information sont tout d'abord analysés tant en centralisé qu'en réparti. La seconde partie est consacrée à l'étude de deux grandes classes de méthodes de conception, l'une fondée sur les modèles de description de données, l'autre sur les types abstraits. Dans chaque cas, une méthode particulière est présentée et analysée. Après présentation de l'application bancaire pilote, la troisième partie définit un modèle pour la description des applications transactionnelles. Celui-ci est appliqué et confronté à l'application pilote. La dernière partie décrit la réalisation de ce modèle dans le langage ADA. Un environnement de conception est construit et se présente comme un sur-ensemble du langage ADA. Enfin, cet outil est comparé à d'autres propositions du domaine de la recherche
22

Cantzler, Olivier. "Une architecture conceptuelle pour la pérennisation d'historiques globaux de conception de produits industriels complexes." Châtenay-Malabry, Ecole centrale de Paris, 1997. http://www.theses.fr/1997ECAP0665.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les résultats ici présentés contribuent à la spécification d'une méthode et d'un produit logiciel qui permettront d'entretenir et d'enrichir les connaissances générées autour d'un projet de développement. Ils portent essentiellement sur une vue globale de l'historique de conception et de ses liens avec l'activité du bureau d'études. L'architecture conceptuelle est composée de modèles informationnels pour lesquels nous proposons une structure selon un espace d'existence, un espace de représentation, un espace de conceptualisation et un espace de classification. La plateforme répondant aux deux besoins qui sont la capitalisation et la réutilisation, repose sur une trilogie dans laquelle l'organisation crée l'activité qui génère les connaissances caractérisant le produit. La plate-forme supporte une certaine démarche de conception qui comporte plusieurs phases : l'expression du besoin, le choix de principes fonctionnels, la définition d'une structure fonctionnelle, la recherche de principes physiques et principes technologiques et l'élaboration d'une structure technologique. Les évolutions du produit entre ces étapes sont représentées par des éléments cognitifs : les questions, les décisions et les justifications. Dans le modèle d'activités plusieurs niveaux de description sont distingués : la description de la finalité d'un projet, le séquencement physique des processus et des taches mises en œuvre. A un autre niveau d'abstraction, le niveau fonctionnel, la description des procédés sert essentiellement à la réutilisation des informations. Le modèle d'organisation, nécessaire pour établir les liens entre les modèles est organisé autour du concept de moyen et de structure. Parmi les fonctions de la plate-forme de démonstration on trouve des méthodologies associées à la structuration, à la capitalisation et à la vérification des informations, mais aussi des méthodologies associées à des outils de consultations.
23

Naciri, Hanane. "Conception et réalisation d'outils pour l'interaction homme machine dans les environnements de démonstrations mathématiques." Nice, 2002. http://www.theses.fr/2002NICE5755.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Afficher du texte mathématique et interagir avec les formules sont des atouts primordiaux pour les outils dédiés aux mathématiques. Dans ce but, nous avons étendu FIGUE, moteur d'affichage interactif, incrémental et bidimensionnel, pour présenter et manipuler des documents mathématiques, en particulier des preuves. Des problèmes particuliers proviennent de la structure complexe et bidimensionnelle des formules mathématiques. Pour nous conformer aux technologies Web dans les environnements de preuves, nous avons adapté nos outils au standard MathML. Enfin nous avons étudié l'affichage des formules mathématiques dans différents systèmes d'écriture. Dans le cas de l'arabe, les formules peuvent être écrites dans le sens inverse du texte impliquant un mélange de direction. Nous proposons une approche générale pour manipuler les formules mathématiques dans un contexte bidirectionnel. Ce travail a aussi servi à définir l'usage de la norme MathML dans un contexte bidirectionnel.
24

Moumouni, Kairou. "Etude et conception d'un modèle mixte semiparamétrique stochastique pour l'analyse des données longitudinales environnementales." Phd thesis, Université Rennes 2, 2005. http://tel.archives-ouvertes.fr/tel-00012164.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la recherche d'un modèle statistique adapté à l'analyse de données longitudinales rencontrées dans le domaine environnemental. L'approche générale est basée sur le modèle linéaire mixte stochastique. Nous proposons une extension de ce modèle par l'utilisation des techniques sémiparamétriques, en particulier les splines cubiques pénalisées. Des méthodes d'estimation adaptées au modèle mixte sémiparamétrique stochastique sont proposées. Des simulations sont ensuite effectuées pour l'évaluation des performances des estimateurs construits.
Dans une deuxième partie, une extension de la méthode d'influence locale de Cook au modèle mixte modifié est proposée, elle fournit une analyse de sensibilité permettant de détecter les effets de certaines perturbations sur les composantes structurelles du modèle. Quelques propriétés asymptotiques de la matrice d'influence locale sont exhibées.
Enfin, le modèle proposé est appliqué à deux jeux de données réelles : une analyse des données de concentrations de nitrates issues de différentes stations de mesures d'un bassin versant, puis une analyse de la pollution bactériologiques d'eaux de baignades.
25

Bassand, Agnès. "Proposition d'un modèle de données de référence pour la conception des systèmes de supervision." Cachan, Ecole normale supérieure, 1997. http://www.theses.fr/1997DENS0003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La diversité des outils, de conception et de réalisation d'un système automatisé de production, intervenant dans les différentes activités de l'entreprise (production, gestion, maintenance, qualité) a fait apparaitre le besoin d'un système d'information global de l'entreprise qui permette de garantir l'intégrité des données. Les systèmes de supervision, au sein de la hiérarchie de commande des systemes de production, contribuent à l'intégration synchronique de ces activités. Par ailleurs, dans une perspective d'intégration diachronique des activités de spécification et de conception de la commande, il est important de relier les concepts manipules par les exploitants a ceux utilises par les automaticiens. Les systemes de supervision représentent la réunion de ces univers du discours, nous montrons alors l'intérêt et l'applicabilité du modèle de référence base-PTA, qui s'inscrit dans le domaine du génie automatique, pour la conception des systemes de supervision. Afin de recenser les données de l'univers du discours de la supervision, un modèle fonctionnel générique, au sens de Cimosa, d'un systeme de supervision en exploitation est établi. Un modèle, présentant les données génériques utiles aux exploitants pour l'implantation de leur application de supervision, est défini. Ce modèle de référence comporte plusieurs volets qui décrivent d'une part l'architecture opérative du système de production, les données représentatives de la production et du produit ainsi que celles du processus, et d'autre part les données caractéristiques d'un systeme de supervision. Enfin, une application à une plate-forme expérimentale illustre notre démarche, avec les concepts de Cimosa pour expliciter le modèle fonctionnel, le modèle de données particulier étant obtenu a partir du modèle de référence, par application d'un processus de spécialisation
26

Moumouni, Kairou. "Etude et conception d'un modèle mixte sémiparamétrique stochastique pour l'analyse des données longitudinales environnementales." Rennes 2, 2005. http://www.theses.fr/2005REN20052.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la recherche d'un modèle statistique adapté à l'analyse de données longitudinales rencontrées dans le domaine environnemental. L'approche générale est basée sur le modèle linéaire mixte stochastique. Nous proposons une extension de ce modèle par l'utilisation des techniques sémiparamétriques, en particulier les splines cubiques pénalisées. Des méthodes d'estimation adaptées au modèle mixte sémiparamétrique stochastique sont proposées. Des simulations sont ensuite effectuées pour l'évaluation des performances des estimateurs construits. Dans une deuxième partie, une extension de la méthode d'influence locale de Cook au modèle mixte modifié est proposée, elle fournit une analyse de sensibilité permettant de détecter les effets de certaines perturbations sur les composantes structurelles du modèle. Quelques propriétés asymptotiques de la matrice d'influence locale sont exhibées. Enfin, le modèle proposé est appliqué à deux jeux de données réelles : une analyse des données de concentrations de nitrates issues de différentes stations de mesures d'un bassin versant, puis une analyse de la pollution bactériologiques d'eaux de baignades
This thesis is dealing with the analysis of longitudinal data that can be encountered in environmental studies. The general approach is based on the stochastic linear mixed model, that we extend using semiparametric techniques, such as penalized cubic splines. First, estimation methods are developed for the semiparametric stochastic mixed model, and then a simulation study is performed to measure the performances of the parameter estimates. In a second part, we propose an extension of the Cook's local influence method, in order to produce a sensibility analysis of our model and detect the effect of the perturbation of the structural components of the model. Some asymptotic properties of the local influence matrix are exhibited. Finally, the proposed model is applied to two real datasets : first, the analysis of nitrate concentration measurements in different locations of a watershed ; second, the analysis of bacteriological pollution of coastal bathing waters
27

Wakim, Bernadette. "La Conception des bases de données orientées objet : Propositions pour la construction d'un AGL." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'arrivée sur le marché des premiers SGBD orientés objet conduit à poser le problème de conception de ces bases de données orientées objet. En effet, plus systèmes d'information sont complexes, plus les outils pour les traiter deviennent sophistiqués, plus le recours à des méthodes et outils de conception deviennent nécessaires. Il convient donc d'explorer de nouvelles voies afin que ces SGBD puissent être pleinement utilisés. Nous proposons quelques concepts pour une approche méthodologique orientée objet. Le but cherché consiste à offrir un ensemble de représentations graphiques permettant de traduire les notions de d'attribut-tuple , d'attributs atomiques, de liens d'agrégation et d'héritage. La finalité est, bien-sûr, la génération de code permettant d'implanter le schéma d'une base de données d'un SGBD orienté objet (cible 02). La méthode se caractérise par une phase d'intégration impliquant des tâches algorithmiques, des décisions humaines (choix de certaines relations , etc. . . ). Parmi ces décisions, certaines ont codées ·et enregistrées comme des règles expérimentales applicables par défaut, d'autres interviennent lors du dialogue entre le système et l'utilisateur. Des processus d'intégration sont proposés afin de fournir une vision un recours aides outils de conception (AGL ). Nous avons mis au oint un permettant de visualiser graphiquement les objets suivant les au modèle et assurant d'une manière automatique (ou semi-automatique des vues utilisateurs
The recent apparition of the Object Oriented DBMSs requires an enhancement of classical information system design. The complexity of the Information System is accompanied by the development of more sophisticated aide tools and by having recourse to design methodologies. Using the traditional design methods are insufficient to abject approach. For example, the methods formed upon the Entity - Association model are not convenient for the design of applications developed on abject oriented DBMSs. New means must be explored to benefit as much as possible from such DBMSs. We propose some concepts for an Object Oriented methodology. The proposed method, folloing an object oriented approach provides a static and dynamic representation of the applications. Our approach considers different aspects of the same object, depending on the viewpoint of each users. We proceed then to integrate all these views in a global conceptual scheme. The views integration, tockled in some classical conceptual methods arises new problems features and highlights the complexity of phenomena. E can mention, for example. Inheritance conflicts, data semantic, synonymy and polysemy. The target DBMS which guides us is 02. We have developed a tool. (CASE)
28

Amin, Mohsin. "Conception d'une architecture journalisée tolérante aux fautes pour un processeur à pile de données." Thesis, Metz, 2011. http://www.theses.fr/2011METZ017S/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons une nouvelle approche pour la conception d'un processeur tolérant aux fautes. Celle-ci répond à plusieurs objectifs dont celui d'obtenir un niveau de protection élevé contre les erreurs transitoires et un compromis raisonnable entre performances temporelles et coût en surface. Le processeur résultant sera utilisé ultérieurement comme élément constitutif d'un système multiprocesseur sur puce (MPSoC) tolérant aux fautes. Les concepts mis en œuvre pour la tolérance aux fautes reposent sur l'emploi de techniques de détection concurrente d'erreurs et de recouvrement par réexécution. Les éléments centraux de la nouvelle architecture sont, un cœur de processeur à pile de données de type MISC (Minimal Instruction Set Computer) capable d'auto-détection d'erreurs, et un mécanisme matériel de journalisation chargé d'empêcher la propagation d'erreurs vers la mémoire centrale (supposée sûre) et de limiter l'impact du mécanisme de recouvrement sur les performances temporelles. L'approche méthodologique mise en œuvre repose sur la modélisation et la simulation selon différents modes et niveaux d'abstraction, le développement d'outils logiciels dédiées, et le prototypage sur des technologies FPGA. Les résultats, obtenus sans recherche d'optimisation poussée, montrent clairement la pertinence de l'approche proposée, en offrant un bon compromis entre protection et performances. En effet, comme le montrent les multiples campagnes d'injection d'erreurs, le niveau de tolérance au fautes est élevé avec 100% des erreurs simples détectées et recouvrées et environ 60% et 78% des erreurs doubles et triples. Le taux recouvrement reste raisonnable pour des erreurs à multiplicité plus élevée, étant encore de 36% pour des erreurs de multiplicité 8
In this thesis, we propose a new approach to designing a fault tolerant processor. The methodology is addressing several goals including high level of protection against transient faults along with reasonable performance and area overhead trade-offs. The resulting fault-tolerant processor will be used as a building block in a fault tolerant MPSoC (Multi-Processor System-on-Chip) architecture. The concepts being used to achieve fault tolerance are based on concurrent detection and rollback error recovery techniques. The core elements in this architecture are a stack processor core from the MISC (Minimal Instruction Set Computer) class and a hardware journal in charge of preventing error propagation to the main memory (supposedly dependable) and limiting the impact of the rollback mechanism on time performance. The design methodology relies on modeling at different abstraction levels and simulating modes, developing dedicated software tools, and prototyping on FPGA technology. The results, obtained without seeking a thorough optimization, show clearly the relevance of the proposed approach, offering a good compromise in terms of protection and performance. Indeed, fault tolerance, as revealed by several error injection campaigns, prove to be high with 100% of errors being detected and recovered for single bit error patterns, and about 60% and 78% for double and triple bit error patterns, respectively. Furthermore, recovery rate is still acceptable for larger error patterns, with yet a recovery rate of 36%on 8 bit error patterns
29

Amin, Mohsin. "Conception d'une architecture journalisée tolérante aux fautes pour un processeur à pile de données." Electronic Thesis or Diss., Metz, 2011. http://www.theses.fr/2011METZ017S.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons une nouvelle approche pour la conception d'un processeur tolérant aux fautes. Celle-ci répond à plusieurs objectifs dont celui d'obtenir un niveau de protection élevé contre les erreurs transitoires et un compromis raisonnable entre performances temporelles et coût en surface. Le processeur résultant sera utilisé ultérieurement comme élément constitutif d'un système multiprocesseur sur puce (MPSoC) tolérant aux fautes. Les concepts mis en œuvre pour la tolérance aux fautes reposent sur l'emploi de techniques de détection concurrente d'erreurs et de recouvrement par réexécution. Les éléments centraux de la nouvelle architecture sont, un cœur de processeur à pile de données de type MISC (Minimal Instruction Set Computer) capable d'auto-détection d'erreurs, et un mécanisme matériel de journalisation chargé d'empêcher la propagation d'erreurs vers la mémoire centrale (supposée sûre) et de limiter l'impact du mécanisme de recouvrement sur les performances temporelles. L'approche méthodologique mise en œuvre repose sur la modélisation et la simulation selon différents modes et niveaux d'abstraction, le développement d'outils logiciels dédiées, et le prototypage sur des technologies FPGA. Les résultats, obtenus sans recherche d'optimisation poussée, montrent clairement la pertinence de l'approche proposée, en offrant un bon compromis entre protection et performances. En effet, comme le montrent les multiples campagnes d'injection d'erreurs, le niveau de tolérance au fautes est élevé avec 100% des erreurs simples détectées et recouvrées et environ 60% et 78% des erreurs doubles et triples. Le taux recouvrement reste raisonnable pour des erreurs à multiplicité plus élevée, étant encore de 36% pour des erreurs de multiplicité 8
In this thesis, we propose a new approach to designing a fault tolerant processor. The methodology is addressing several goals including high level of protection against transient faults along with reasonable performance and area overhead trade-offs. The resulting fault-tolerant processor will be used as a building block in a fault tolerant MPSoC (Multi-Processor System-on-Chip) architecture. The concepts being used to achieve fault tolerance are based on concurrent detection and rollback error recovery techniques. The core elements in this architecture are a stack processor core from the MISC (Minimal Instruction Set Computer) class and a hardware journal in charge of preventing error propagation to the main memory (supposedly dependable) and limiting the impact of the rollback mechanism on time performance. The design methodology relies on modeling at different abstraction levels and simulating modes, developing dedicated software tools, and prototyping on FPGA technology. The results, obtained without seeking a thorough optimization, show clearly the relevance of the proposed approach, offering a good compromise in terms of protection and performance. Indeed, fault tolerance, as revealed by several error injection campaigns, prove to be high with 100% of errors being detected and recovered for single bit error patterns, and about 60% and 78% for double and triple bit error patterns, respectively. Furthermore, recovery rate is still acceptable for larger error patterns, with yet a recovery rate of 36%on 8 bit error patterns
30

Michel, Gabriel. "Contribution à la conception et réalisation d'un système de gestion de bases de données pour la conception assistée par ordinateur." Metz, 1988. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1988/Michel.Gabriel.SMZ8818.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous nous proposons d'introduire un outil de gestion de bases de données pour la CAO. Les informations circulant dans un processus de conception peuvent être classées en deux bases de données : la base de données projet et la base de données de connaissances. Les informations modélisées concernent essentiellement la base de données projet : dans ce but est défini un système BD-CAO, appelé encore modèle, composé d'un modèle de données orienté-objet et d'un ensemble d'opérations s'appliquant sur ce modèle de données. Ce système BD-CAO permet d'exprimer pour les objets de conception, contraintes sur ces objets et des liens entre eux. Il possède des fonctionnalités adaptées à la CAO : conception ascendante, descendante et imbriquée, déduction, dynamicité de la structure, propriétés calculées, gestion d'objets incohérents ou incomplets. Nous étudions le cadre d'utilisation du modèle par l'intermédiaire d'exemples de conception dans le domaine de la mécanique puis nous définissons le dialogue par l'intermédiaire de deux propositions d'interfaces. Une maquette de ce système BD-CAO est en cours de réalisation
31

Damier, Christophe. "Omega : un SGBD multimedia orienté objet pour les applications géographiques." Grenoble 1, 1989. https://theses.hal.science/tel-00333131.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Antoniu, Gabriel. "Contribution à la conception de services de partage de données pour les grilles de calcul." Habilitation à diriger des recherches, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00437324.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce manuscrit décrit les travaux de recherche que nous avons mené pendant les six dernières années sur le thème du partage transparent des données réparties à grande échelle. L'infrastructure visée a été celle des grilles de calcul. Notre objectif a été de répondre à la question: comment serait-il possible de construire un système fournissant un modèle transparent d'accès aux données, tout en tenant compte des contraintes spécifiques aux infrastructures physiques utilisées (architecture hiérarchique, distribution à grande échelle, volatilité, tolérance aux défaillances, etc.)? En réponse à ce défi, nous avons proposé le concept de service de partage de données pour grilles, pour lequel nous avons défini une spécification, une architecture et une mise en oeuvre. Ce travail se situe à la frontière de plusieurs domaines: systèmes à mémoire virtuellement partagée, systèmes pair-à-pair, systèmes tolérants aux fautes. En nous appuyant sur des résultats déjà existants qui proposaient des solutions partielles à notre problème, notre approche a consisté à étendre, adapter et coupler ces solutions partielles et à rajouter les "briques" manquantes, afin de construire une solution globale, plus complexe, mais qui satisfasse l'ensemble des propriétés recherchées. Un résultat issu de cette approche est la notion de groupe hiérarchique auto-organisant, qui combine des protocoles de cohérence issus des systèmes à mémoire virtuellement partagée avec des protocoles de gestion de groupe tolérants aux fautes. Sur cette notion repose notre approche pour la définition de protocoles de cohérence tolérants aux fautes, adaptés aux grilles. Nous avons attaché une importance particulière à la validation expérimentale} de notre proposition par une mise en oeuvre et par une évaluation sur des plates-formes réelles à travers des prototypes expérimentaux. Ceci nous a permis de réaliser des expériences multisites en grandeur nature sur la plate-forme Grid'5000, avec l'objectif d'évaluer les bénéfices apportés par notre service de partage de données aux environnements de calcul réparti sur grille. A cet effet, nous avons évalué la capacité de JuxMem à s'intégrer avec plusieurs modèles de programmation pour grille d'une part (GridRPC, modèles à base de composants) et avec d'autres technologies de stockage d'autre part (Gfarm, ASSIST). Cette intégration a été réalisée en collaboration avec des équipes françaises, telles que les équipes-projets REGAL et GRAAL de l'INRIA, mais aussi avec des équipes étrangères des universités de Pise et de Calabre en Italie, d'Illinois/Urbana-Champaign aux Etats-Unis et de Tsukuba au Japon. Enfin, nous avons travaillé en étroite concertation avec l'équipe JXTA de Sun Microsystems (Santa Clara, Etats-Unis), qui a soutenu nos efforts à travers un contrat de collaboration industrielle.
33

Pastor, Julien. "Conception d'une légende interactive et forable pour le SOLAP." Thesis, Université Laval, 2004. http://www.theses.ulaval.ca/2004/21994/21994.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Afin de palier au manque d'efficacité des SIG en tant qu'outil d'aide à la décision (granularités multiples, rapidité, convivialité, temporalité), différentes saveurs d'outils SOLAP (Spatial OLAP) ont vu le jour dans les centres de recherche et fournisseurs de logiciels (CRG/Kheops/Syntell, SFU/DBMiner, Proclarity, Cognos, Microsoft, Beyond 20/20, ESRI, MapInfo, etc.). Combinant des fonctions SIG avec l'informatique décisionnelle (entrepôts de données, OLAP, data mining), le SOLAP est décrit comme un "logiciel de navigation rapide et facile dans les bases de données spatiales qui offre plusieurs niveaux de granularité d’information, plusieurs époques, plusieurs thèmes et plusieurs modes de visualisation synchronisés ou non: cartes, tableaux et graphiques statistiques (Bédard 2004). Le SOLAP facilite l’exploration volontaire des données spatiales pour aider l'utilisateur à détecter les corrélations d’informations, les regroupements potentiels, les tendances dissimulées dans un amas de données à référence spatiale, etc. Le tout se fait par simple sélection/click de souris (pas de langage SQL) et des opérations simples comme : le forage, le remontage ou le forage latéral. Il permet à l’utilisateur de se focaliser sur les résultats des opérations au lieu de l’analyse du processus de navigation. Le SOLAP étant amené à prendre de l’essor au niveau des fonctions qu’il propose, il devient important de proposer des améliorations à son interface à l'usager de manière à conserver sa facilité d’utilisation. Le développement d’une légende interactive et forable fut la première solution en ce genre proposée par Bédard (Bédard 1997). Nous avons donc retenu cette piste pour la présente recherche, étudié la sémiologie graphique et son applicabilité à l'analyse multidimensionnelle, analysé ce qui existait dans des domaines connexes, exploré différentes alternatives permettant de résoudre le problème causé par l'enrichissement des fonctions de navigation, construit un prototype, recueilli des commentaires d'utilisateurs SOLAP et proposé une solution. Tout au long de cette recherche, nous avons été confrontés à une absence de littérature portant explicitement sur le sujet (les SOLAP étant trop nouveaux), à des corpus théoriques qu'il fallait adapter (sémiologie, interface homme-machine, visualisation scientifique, cartographie dynamique) et à des besoins en maquettes et prototypes pour illustrer les solutions envisagées. Finalement, cette recherche propose une solution parmi plusieurs; cependant, son principal intérêt est davantage l'ensemble des réflexions et considérations mises de l'avant tout au long du mémoire pour arriver au résultat proposé que la solution proposée en elle-même. Ce sont ces réflexions théoriques et pratiques qui permettront d'améliorer l'interface à l'usager de tout outil SOLAP grâce au nouveau concept de légende interactive et forable.
34

Ferrettini, Gabriel. "Système adaptatif pour l'aide à la conception de processus d'analyse." Thesis, Toulouse 1, 2021. http://www.theses.fr/2021TOU10004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Lahire, Philippe. "Conception et realisation d'un modele de persistance pour la langage eiffel." Nice, 1992. http://www.theses.fr/1992NICE4543.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these presente une integration de la persistance dans la langage a objets eiffel, dans le cadre du projet esprit ii business class qui demande la realisation d'un prototype pour des applications variees construites avec des composants reutilisables, evolutifs, fiables et efficaces. La premiere partie analyse les problemes poses pour une bonne integration et illustre l'espace des solutions possibles. Le modele propose vise une solution beaucoup plus generale que celle d'eiffel v2. 3, satisfait les principes de transparence et d'orthogonalite d'atkinson et exploite les acquis des produits existants. Les objets persistants sont stockes dans des p collections qui autorisant aussi bien les manipulations navigationnelles qu'associatives par selections. La deuxieme partie concoit une integration de ce modele a l'environnement eiffel. Quatre solutions sont proposees et evaluees pour le langage de requetes. La solution retenue generalise le concept d'iterateur et exprime les criteres par des routines parametriques. La fiabilite repose sur un mecanisme transactionnel, le plus transparent possible. Le partitionnement du monde persistant est realise par des pviews. La troisieme partie decrit l'implementation en utilisant le sgbd oriente objet o#2. Cela implique une traduction des classes eiffel dans le langage de o#2 et une modification de l'executif eiffel. Cette traduction est proposee de deux manieres, l'une dynamique, mais sans la propagation des methodes en memoire persistante et l'autre statique, par traduction complete. La gestion des transitions de statut (volatile persistant) se fait par une table integree dans l'executif. Les criteres de selection sont optimises par une reorganisation de leur syntaxe abstraite. La derniere partie fait un bilan de ce travail et suggere des perspectives de recherche
36

Petit, Laurent. "Etude de la qualité des données pour la représentation des réseaux techniques urbains : applications au réseau d'assainissement." Artois, 1999. http://www.theses.fr/1999ARTO0203.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La mise en place de la BDU ou de SIG nécessite de nombreuses données d'un coût très conséquent. La cause essentielle de ce coût important est l'énorme masse d'informations à emmagasiner, mais également la précision de ces données. Nous nous sommes alors demandés si l'acquisition de données précises était nécessaire vis-à-vis de leur utilité. Nous avons donc décidé de tester l'influence de la précision des données sur un domaine porteur qui est l'assainissement. Nous allons plus particulièrement nous intéresser aux simulations hydrauliques par le modèle Muskingum, des réseaux d'assainissement. Notre choix s'est fixé sur les coordonnées planimétriques et altimétriques décrivant les réseaux, mais nous avons également voulu tester un paramètre qui était très souvent inconnu : la rugosité des conduites. Nous avons tout d'abord mis au point une méthode de comparaison entre un réseau comportant des données correctes, et un réseau composé de données imprécises. Cette méthode nous a permis de montrer que de fortes imprécisions en planimétrie n'influençaient guère les débits. Par contre des imprécisions en altimétrie ou une rugosité engendraient de plus ou moins grosses fluctuations. Nous avons également déterminé que l'évolution des écarts obtenus dépendait essentiellement de la pente des réseaux et de l'intensité de la pluie utilisée : plus la pente ou la pluie étaient faibles, plus les écarts étaient importants. Nous avons ensuite comparé les écarts obtenus en introduisant des imprécisions à ceux obtenus en comparant les modèles BSV et Muskingum, et nous avons montré que le choix du modèle n'était pas forcément prioritaire vis-à-vis de la qualité des données, lorsque nous avions des valeurs faibles pour les pentes ou la ramification des réseaux, le taux de remplissage ou le taux de parcours. Nous terminons notre étude sur différentes perspectives envisageables : généralisation des réseaux types à des réseaux réels, étude de sensibilité des imprécisions des données pour un autre modèle
37

Ahmed, Bacha Adda Redouane. "Localisation multi-hypothèses pour l'aide à la conduite : conception d'un filtre "réactif-coopératif"." Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0051/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
“ Lorsqu'on utilise des données provenant d'une seule source,C'est du plagiat;Lorsqu'on utilise plusieurs sources,C'est de la fusion de données ”Ces travaux présentent une approche de fusion de données collaborative innovante pour l'égo-localisation de véhicules routiers. Cette approche appelée filtre de Kalman optimisé à essaim de particules (Optimized Kalman Particle Swarm) est une méthode de fusion de données et de filtrage optimisé. La fusion de données est faite en utilisant les données d'un GPS à faible coût, une centrale inertielle, un compteur odométrique et un codeur d'angle au volant. Ce travail montre que cette approche est à la fois plus robuste et plus appropriée que les méthodes plus classiques d'égo-localisation aux situations de conduite urbaine. Cette constatation apparait clairement dans le cas de dégradations des signaux capteurs ou des situations à fortes non linéarités. Les méthodes d'égo-localisation de véhicules les plus utilisées sont les approches bayésiennes représentées par le filtre de Kalman étendu (Extended Kalman Filter) et ses variantes (UKF, DD1, DD2). Les méthodes bayésiennes souffrent de sensibilité aux bruits et d'instabilité pour les cas fortement non linéaires. Proposées pour couvrir les limitations des méthodes bayésiennes, les approches multi-hypothèses (à base de particules) sont aussi utilisées pour la localisation égo-véhiculaire. Inspiré des méthodes de simulation de Monte-Carlo, les performances du filtre à particules (Particle Filter) sont fortement dépendantes des ressources en matière de calcul. Tirant avantage des techniques de localisation existantes et en intégrant les avantages de l'optimisation méta heuristique, l'OKPS est conçu pour faire face aux bruits, aux fortes dynamiques, aux données non linéaires et aux besoins d'exécution en temps réel. Pour l'égo-localisation d'un véhicule, en particulier pour les manœuvres très dynamiques sur route, un filtre doit être robuste et réactif en même temps. Le filtre OKPS est conçu sur un nouvel algorithme de localisation coopérative-réactive et dynamique inspirée par l'Optimisation par Essaim de Particules (Particle Swarm Optimization) qui est une méthode méta heuristique. Cette nouvelle approche combine les avantages de la PSO et des deux autres filtres: Le filtre à particules (PF) et le filtre de Kalman étendu (EKF). L'OKPS est testé en utilisant des données réelles recueillies à l'aide d'un véhicule équipé de capteurs embarqués. Ses performances sont testées en comparaison avec l'EKF, le PF et le filtre par essaim de particules (Swarm Particle Filter). Le filtre SPF est un filtre à particules hybride intéressant combinant les avantages de la PSO et du filtrage à particules; Il représente la première étape de la conception de l'OKPS. Les résultats montrent l'efficacité de l'OKPS pour un scénario de conduite à dynamique élevée avec des données GPS endommagés et/ou de qualité faible
“ When we use information from one source,it's plagiarism;Wen we use information from many,it's information fusion ”This work presents an innovative collaborative data fusion approach for ego-vehicle localization. This approach called the Optimized Kalman Particle Swarm (OKPS) is a data fusion and an optimized filtering method. Data fusion is made using data from a low cost GPS, INS, Odometer and a Steering wheel angle encoder. This work proved that this approach is both more appropriate and more efficient for vehicle ego-localization in degraded sensors performance and highly nonlinear situations. The most widely used vehicle localization methods are the Bayesian approaches represented by the EKF and its variants (UKF, DD1, DD2). The Bayesian methods suffer from sensitivity to noises and instability for the highly non-linear cases. Proposed for covering the Bayesian methods limitations, the Multi-hypothesis (particle based) approaches are used for ego-vehicle localization. Inspired from monte-carlo simulation methods, the Particle Filter (PF) performances are strongly dependent on computational resources. Taking advantages of existing localization techniques and integrating metaheuristic optimization benefits, the OKPS is designed to deal with vehicles high nonlinear dynamic, data noises and real time requirement. For ego-vehicle localization, especially for highly dynamic on-road maneuvers, a filter needs to be robust and reactive at the same time. The OKPS filter is a new cooperative-reactive localization algorithm inspired by dynamic Particle Swarm Optimization (PSO) metaheuristic methods. It combines advantages of the PSO and two other filters: The Particle Filter (PF) and the Extended Kalman filter (EKF). The OKPS is tested using real data collected using a vehicle equipped with embedded sensors. Its performances are tested in comparison with the EKF, the PF and the Swarm Particle Filter (SPF). The SPF is an interesting particle based hybrid filter combining PSO and particle filtering advantages; It represents the first step of the OKPS development. The results show the efficiency of the OKPS for a high dynamic driving scenario with damaged and low quality GPS data
38

Schmitt, Gabriel. "Un système pour la description et la gestion de méthodologies et de données en conception." Montpellier 2, 1996. http://www.theses.fr/1996MON20207.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux presentes dans ce memoire ont pour objet l'etude et le developpement d'une infrastructure de cao. Nous avons opte pour une approche mixte d'integration (par les donnees et par les outils) dans l'objectif de pouvoir guider, a la fois, les utilisateurs finals experimentes et non-experimentes, dans leurs processus de conception. Nous proposons un modele de description des applications (mad), qui distingue les connaissances des differents interlocuteurs: l'algorithmicien (qui developpe de nouvelles procedures et qui encapsule les outils), le gestionnaire de bibliotheques (qui construit et gere les bibliotheques d'elements standard) et le constructeur d'applications (qui decrit les scenari adaptes a la resolution des sous-problemes couverts parla banque d'algorithmes). Ce modele contient d'une part la structure de l'application: donnees et outils necessaires a cette application (connaissances fournies respectivement par le gestionnaire de bibliotheques et l'algorithmicien) et d'autre part, la description de la maniere d'utiliser cette structure pour la resolution d'un probleme particulier (connaissance fournie par le constructeur d'applications). Au cours du processus de conception, le systeme aides (acquisition d'informations pour la definition et l'execution de scenario) exploite ces connaissances et propose a l'utilisateur final les outils et les donnees utiles a la resolution de son probleme. Il lance egalement les procedures a lancement automatique et effectue les mises-a-jour qui lui sont dictees par les regles d'actualisation. Nous presentons, enfin, une application possible du modele dans le cadre d'un atelier de conception de circuits integres. L'analyse est completee en proposant une extension dans le domaine de la conduite de processus industriels (systeme de conduite de haut-fourneaux sachem)
39

Pedraza, Linares Esperanza. "SGBD sémantiques pour un environnement bureautique : intégrité et gestion de transactions." Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00009437.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail traite deux problèmes rencontrés dans les environnements où l'on utitlise un SGBD de haut niveau sémantique et où les traitements réalisés sont peu structurés et évolutifs et se font sur des objets complexes et volumineux. II s"appui sur l'expérience acquise dans la réalisation des projets TIGRE ET DOEOIS. Le premier aspect porte sur la cohérence sémantique, ce qui concerne plus particulièrement les contraintes implicitement établies lors de la définition du schéma conceptuel de la base. La sémantique introduite dans les modèles que nous avons utilisés, est réalisée en intégrant des concepts déjà existants comme celui d'agrégation et de spécialisation qui se traduisent au niveau du schéma conceptuel par des dépendances existentielles entre les entités. Nous proposons pour les opérations de mise à jour, un ensemble de règles de propagations pour assurer que la base de données soit cohérente par rapport à son propre schéma conceptuel. Le deuxième aspect prend en compte l'exécution des opérations elles mêmes. Fournir la notion de transaction, c'est donner au programmeur d'application le moyen de définir' une séquence d'opérations comme étant un tout qui permet à la base de données d'évoluer entre deux états cohérents. Le problème que nous nous posons est de fournir un support pour l'exécution des applications qui assure le maintien de la cohérence, compte tenu des données et des caractéristiques des traitements faits aux données dans l'activité bureautique. Cet étude a abouti à la réalisation d'un mécanisme transactionnel simple et fléxible
40

Gardès, Julien. "Étude et conception in silico d'amorces PCR pour l'identification des principaux pathogènes bactériens." Nice, 2011. http://www.theses.fr/2011NICE4061.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La détection d’organismes pathogènes est une priorité de la recherche médicale. Depuis les années 2000, cette discipline subit une transition technologique : les méthodes moléculaires (e. G. La PCR), plus rapides et plus précises, sont en train de remplacer progressivement les méthodes traditionnelles de cultures cellulaires et de tests biochimiques. Néanmoins, la sensibilité et la spécificité de la PCR sont tributaires de la bonne conception des amorces. On admet généralement que ces amorces sont bonnes si leur température d’hybridation est supérieure à 55°C, qu’elles sont spécifiques du gène et de l’espèce cibles, et qu’elles s'hybrident à tous les allèles connus du gène. Au cours de ma thèse, nous avons réalisé une procédure semi-automatique pour collecter toutes les séquences d’un gène pour une espèce, les informations des différentes bases de données, la littérature et toutes les amorces publiées. Puis l’efficacité de chaque amorce a été estimée en vérifiant leur spécificité, leur sensibilité et leurs caractéristiques thermodynamiques. Ce pipeline a été appliqué à tous les gènes annotés de plusieurs organismes d’intérêt biodéfense. Les résultats ont été organisés sous la forme d’une site internet : http://patho-genes. Org, afin de fournir un système clef en main pour les biologistes désirant développer des tests de détection moléculaire pour ces espèces. En outre, nos travaux ont permis de montrer pour les gènes de virulence de Vibrio cholerae que seulement un tiers des amorces publiées sont "bonnes" selon les critères mentionnés précédemment, et que la date de publication et le nombre de citations d’une amorce ne sont pas des facteurs permettant d'estimer leur qualité
The detection of pathogens is a priority for medical research. Since 2000, the discipline underwent a technological transition: molecular methods (e. G. PCR), faster and more accurate, are gradually replacing the traditional methods of cell culture and biochemical tests. However, the sensitivity and the specificity of PCR are dependent on the good design of primers. It is generally accepted that these primers are good if the annealing temperature exceeds 55 °C, they are specific to the target gene and species, and they hybridize to all known alleles of the gene. During my PhD, we performed a semi-automatic procedure to collect every sequence of a gene for a species, information from different public databases, literature and every published primer. Then the efficiency of each primer was estimated by checking their specificity, their sensitivity and their thermodynamic characteristics. This pipeline was applied to every annotated gene of several organisms of biodefense interest. The results were organized in the form of a website: www. Pathogenes. Org, to provide a turnkey system for biologists wishing to develop molecular tests for these species. In addition, our work showed for the virulence genes of Vibrio cholerae that only one third of published primers are "good" according to the criteria mentioned above, and the date of publication and citation counts of a primer are not factors permitting to estimate their quality
41

Sahnouni, Belblidia Yasmine. "Modélisation des données dans le bâtiment pour le développement d'outils d'assistance à la conception technique : un modèle pour la simulation du cycle de la conception technique." Vandoeuvre-les-Nancy, INPL, 1999. http://www.theses.fr/1999INPL033N.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le bâtiment est caractérisé par une forte segmentation des activités entre les différents acteurs, et produit un fractionnement dans la conduite du processus de conception-réalisation, souvent dans la phase de conception technique de l'ouvrage. Dans ce travail, nous proposons un modèle de données pour le bâtiment, destiné à instrumenter le cycle de la conception technique, du point de vue de la construction/ mise en oeuvre. Ce modèle permet de rétablir une continuité dans le processus de conception-réalisation et constitue un support au développement d'outils d'assistance à la conception technique. Nous nous appuyons sur l'hypothèse qu'il est possible d'identifier un processus continu de transformation des données, indépendamment des acteurs ou du découpage du projet. Ce processus évolue d'un niveau géométrique et fonctionnel (en amont) jusqu'à un niveau où les objets sont complètement décrits pour être fabriqués (en aval), en intégrant de manière progressive les contraintes de réalisation (règles de mise en oeuvre des matériaux, etc. ). Nous définissons une sémantique du domaine par la structuration des objets du bâtiment et des opérations de base sur ces objets. Ces opérations permettent de réaliser la dynamique du processus. Elles sont validées sur les composants du bâtiment (murs, planchers, ouvertures, poteaux, poutres) et dans différentes technologies (blocs de ciment apparent, ossature légère bois, etc. ). Nous développons un prototype informatique pour mettre en oeuvre les concepts du modèle, à la fois sur les objets et sur les technologies. Nous conduisons une expérimentation dans un contexte réel avec une entreprise. Cette expérimentation permet de valider le modèle dans un cadre de transfert d'informations, tel qu'il peut être pratiqué entre les acteurs d'un projet.
42

Bogo, Gilles. "Conception d'applications pour systèmes transactionnels coopérants." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00315574.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Tercinet, Fabrice. "Méthodes arborescentes pour la résolution des problèmes d'ordonnancement, conception d'un outil d'aide au développement." Tours, 2004. http://www.theses.fr/2004TOUR4034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous présentons dans ce document une étude sur les méthodes arborescentes pour la résolution de problèmes d'ordonnancement conduisant à une démarche globale pour l'aide au développement de PSE. Pour cela, nous avons réalisé une étude approfondie des méthodes arborescentes de la littérature telles que les PSE, mais également de méthodes approchées basées sur des arbres de recherche telles que les méthodes par faisceaux avec récupération, les méthodes à nombre limité de divergences ou encore les méthodes de type Branch-and-Greed. Cette étude nous a permis de montrer l'utilité d'une approche orientée objet pour la conception de nœuds de l'arborescence afin de les rendre réutilisables par la suite. Nos modèles objets de \noeud ont été réalisés à partir de l'étude de PSE remarquables de la littérature couvrant les principaux problèmes d'ordonnancement et les principaux schémas de séparation. Tout ce travail s'intègre à la plate-forme e-OCEA. Par ailleurs, nous avons étudié le problème P|ri,qi |Cmax plus précisément car il joue un rôle central dans la résolution de divers problèmes d'ordonnancement. Cette place privilégiée lui vaut l'attention de la communauté au travers de nombreux algorithmes comme par exemple des bornes supérieures, des bornes inférieures ou encore des tests de faisabilité appliqués à sa version décisionnelle. Nous avons alors proposé des nouveaux outils pour améliorer sa résolution, principalement basés sur l'amélioration de deux tests de faisabilité, l'introduction d'un nouveau schéma de séparation et la proposition de plusieurs méthodes approchées basées sur des parcours tronqués d'arborescence
We present in this PhD thesis a study on tree search based methods (TSM) for scheduling problems solving. It leads us to define global approach for the development helping of branch-and-bound algorithms. So, we have done an important study of TSM from the literature such that branch-and-bound algorithms, Recovering Beam Search methods, Limited Discrepancy Search methods or Branch-and-Greed algorithms. From this study, we have showed the need to have an object-oriented approach for the designing of tree nodes which are re-usable for future developments. So, we have identified from the literature a pool of interesting branch-and-bound methods for their branching rule and for the solved scheduling problem from which we have designed node object-oriented models. Moreover, this work is integrated in the e-OCEA project. However, we have studied more precisely the problem P|ri,qi |Cmax because it plays a central role in the solving of scheduling problems. This particular place has lead many researchers to develop algorithms to improve the exact solving of this problem such that upper bounds, lower bounds or satisfiability tests. So, we have developped new satisfiability tests based on energetic reasoning and max-flow formulation. We have also designed a new branching rule and several truncated branch-and-bounds methods
44

Sayah, Marguerite. "Un environnement d'interrogation graphique de bases de données orientées objet (EIGOO) pour des utilisateurs non informaticiens." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0046.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail, nous nous sommes penchés sur la problématique de l'interrogation des bases de données orientées objet par des utilisateurs non informaticiens. Cette problématique est principalement liée à la complexité du schéma de la base et à la difficulté des langages textuels existants. Nous proposons, dans ce cadre, un Environnement d'Interrogation Graphique de bases de données Orientées Objet (EIGOO) utilisant la technique des vues pour réduire la complexité du schéma et offrant un langage graphique pour l'interrogation de la base. Le module de définition des vues de notre environnement s'adresse à des utilisateurs experts du domaine de l'application non nécessairement informaticiens. Il supporte un langage graphique et permet de définir, en fonction du contexte de travail, des besoins en informations et des droits d'accès, des vues sur la base pour chaque groupe d'utilisateurs finals. Le deuxième module concerne l'interrogation de la base à travers les vues et s'adresse à des utilisateurs non informaticiens. Il propose un langage d'interrogation graphique et assure la conversion des requêtes graphiques en Object Query Language (OQL) pour être exécutées sous le SGBD utilisé. Le langage graphique supporte les opérations classiques de projection et de sélection, les jointures implicite et explicite, le groupement et le tri. Il permet la spécification de quantificateurs et l'élaboration de requêtes réflexives. Le schéma de la vue est visualisé graphiquement. Les requêtes sont formulées directement sur le graphe et se divisent en deux catégories : les requêtes de jointure implicite et les requêtes de jointure explicite. Les requêtes construites peuvent être sauvegardées et réutilisées pour la création de nouvelles requêtes. En ce qui concerne la conversion des requêtes graphiques en OQL, elle s'effectue à travers les opérations de définition de la vue support. Une méthode de conversion est proposée pour chaque catégorie de requêtes
Our work concerns the interrogation of abject oriented databases by non computer specialists. The problem they face relates mainly to the complexity of the database schema and to the difficulty of the textual query languages. . In this context, we propose a graphical query environment (EIGOO) that uses the v1ew technique to reduce the schema complexity and offers a graphical query language to consult databases through the defined views. . The view definition module of our environment proposes a graph1cal language and addresses users that are experts in the application domain. The views are defined for groups’ end users. They are adapted to their working context, to their application needs and to the1r access rights. The second main module concerns the database interrogation through v1ews and addresses non computer specialists’ users. It offers a query language and guarantees the conversion of graphical queries into Object Query Language (OQL) in order to execute them under any ODMG compliant DBMS. The graphical query language supports projection, selection, implicit join, explicit join, grouping and sorting operations. It also allows the specification of quantifiers and the elaboration of reflexive queries. The schema of the view is graphically visualized. The queries are directly formulated on the graph and are divided in two categories: the implicit join queries and the explicit join queries. Constructed queries can. Be saved and reused in order to create new queries. Concerning the conversion of graphical queries, a method is proposed for each category of queries
45

Ravat, Franck. "Modèles et outils pour la conception et la manipulation de systèmes d'aide à la décision." Habilitation à diriger des recherches, Université des Sciences Sociales - Toulouse I, 2007. http://tel.archives-ouvertes.fr/tel-00379779.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nos travaux se situent dans le cadre des Systèmes d'Aide à la Décision (SAD). Au début de nos travaux, nous étions en présence de solutions d'ordre technique pour l'alimentation des SAD (vues matérialisées) ainsi que de quelques solutions parcellaires pour la modélisation et les manipulations multidimensionnelles. Durant ces dernières années, notre objectif a été d'offrir une solution globale pour la conception et la manipulation de SAD. Dans un premier temps, nous avons identifié deux espaces de stockage pour les données décisionnelles : un Entrepôt de Données (ED) et des Magasins de Données (MD). Un ED centralise et historise les données issues des sources de production et chaque MD présente les données à un décideur pour faciliter ses prises de décisions.
Pour les ED, notre objectif a été d'apporter des solutions pour la modélisation de l'évolution des données décisionnelles (extension de modèle objet) et pour l'intégration de données textuelles sans en fixer le schéma à priori. Pour les MD, nous avons proposé un modèle multidimensionnel de base avec différentes extensions répondant aux besoins des décideurs. Ces extensions permettent de prendre en compte la gestion d'indicateurs et de données textuelles, l'évolution temporelle (versions), la cohérence des données et de ses analyses (contraintes sémantiques), l'intégration et la capitalisation de l'expertise des décideurs (annotations) ainsi que la personnalisation des schémas multidimensionnels (poids). Ces travaux ont été complétés par la proposition d'une démarche de conception qui présente l'avantage de prendre en compte les besoins des décideurs et les sources de données. Cette démarche permet de modéliser aussi bien l'aspect statique (données décisionnelles) que l'aspect dynamique (processus d'alimentation du SAD).
D'un point de vue manipulation des données, nous avons proposé une algèbre complétée d'un langage graphique orienté décideur et d'un langage déclaratif. Nos propositions ont été validées par la participation à différents projets ainsi que le co-encadrement de 5 thèses de doctorat et le suivi de travaux de plusieurs Master Recherche.
46

Baklouti, Fatma. "Algorithmes de construction du Treillis de Galois pour des contextes généralisés." Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous intéressons à la structure du treillis de concepts (ou treillis de Galois). Plusieurs travaux antérieurs ont montré l'intérêt des treillis de concepts à l'analyse de données, la classification supervisée ou non supervisée, à la recherche documentaire, et plus récemment à la recherche des règles d'association. Plusieurs algorithmes d'extraction de concepts à partir de contextes binaires ont été proposés. Cependant, dans la pratique les bases de données utilisées sont de grande taille et ne sont pas toujours binaires. Ainsi, nous proposons un algorithme rapide, appelé ELL, d'extractions de concepts à partir de bases de données généralisés. A fin d'obtenir de meilleures performances et de traiter des bases de données volumineuses, nous proposons également une version distribuée de l'algorithme ELL appelé SD-ELL
Our main concern in this thesis is concept (or Galois) lattices. As shown by previous works, concept lattices is an effective tool for data analysis and knowledge discovery, especially for classification, clustering, information retrieval, and more recently for association rules mining. Several algorithms were proposed to generate concepts or concept lattices on a data context. They focus on binary data arrays, called contexts. However, in practice we need to deal with contexts which are large and not necessarily binary. We propose a fast Galois lattice-building algorithm, called ELL algorithm, for generating closed itemsets from objects having general descriptions and we compare its performance with other existing algorithms. In order to have better performance et to treat bigger contexts we propose also a distributed version of ELL algorithm called SD-ELL
47

Hajjeh, Ibrahim. "Sécurité des échanges. Conception et validation d'un nouveau protocole pour la sécurisation des échanges." Paris, ENST, 2003. https://pastel.archives-ouvertes.fr/pastel-00001168.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nombreux mécanismes de sécurité ont été proposés pour les réseaux fixes et mobiles. Bien que ces mécanismes aient pu répondre à un ensemble d'exigences de sécurité, ils demeurent uniquement efficaces dans un contexte spécifique lié aux hypothèses et aux exigences restrictives qui ont été émises lors de la conception. Dans un premier temps, nous définissons une liste d'exigences en sécurité qui permet d'analyser les solutions de sécurité les plus déployées. Dans un second temps, nous proposons d'étendre le protocole SSL/TLS avec de nouveaux services. SSL/TLS est une solution de sécurité générique et transparente aux applications. Ainsi, il ne couvre pas les besoins spécifiques à certaines classes d'application telles que les applications de paiement sur Internet. Notre propositions d'intégrer le protocole d'échange des clés ISAKMP avec SSL/TLS permet de fournir, entre autres, la protection d'identité des utilisateurs et l'unification des associations de sécurité. Afin d'étendre l'utilisation de SSL/TLS vers les systèmes de paiement sur Internet, nous intégrons un module générique pour la génération d'une preuve de non répudiation dans le protocole SSL/TLS. Par ailleurs, toutes ces propositions restent, cernées par le problème d'interopérabilité avec les anciennes versions de chaque protocole. Ce qui rend la satisfaction de tous les besoins à travers un des protocoles existants irréalisables. Pour cela, nous proposons finalement de concevoir et de valider un nouveau protocole de sécurité qui intègre nativement l'évolution des protocoles de sécurité des échangeset des réseaux d'une manière performante. Nous avons appelé ce protocole SEP (Secure and Extensible Protocol)
Many security mechanisms have been proposed for wired and wireless networks. Although these mechanisms have answered some security requirements, they remain efficient in a specific context related to the assumptions and the restrictive requirements which have been emitted at the time of their design. Firstly, we define a list of security requirements which make it possible to analyze the most deployed security solutions. Secondly, we propose to extend the SSL/TLS protocol with new services. SSL/TLS is a transparent security solution. Thus, security services providedto applications are the same. SSL/TLS does not meet specific needs to some classes of applications such as internet payment applications. We integrate the Internet Security Association and Key Management Protocol (ISAKMP) in SSL/TLS to provide, among others, identity protection and unification of security associations. In order to extend the use of SSL/TLS towards the Internet payment systems, we integrate a generic signature module in SSL/TLS that generate a non repudiation proof over all exchanged data. This module is interoperable with SSL/TLS and TLS Extensions standards. However, all these proposals suffer from the lack of interoperability with their previous versions. This will make it impossible to satisfy all the security needs through one existing protocol. Thus, we propose to design, validate and develop a new security protocol, which natively integrates the evolutions of the security protocols, in a powerful and elegant way. We called this protocol SEP for Secure and Extensible Protocol
48

Pamba, Capo-Chichi Medetonhan Shambhalla Eugène William. "Conception d’une architecture hiérarchique de réseau de capteurs pour le stockage et la compression de données." Besançon, 2010. http://www.theses.fr/2010BESA2031.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les récentes avancées dans les divers domaines liés à la micro-électronique, à l'informatique et aux réseaux sans fil ont donné naissance à de nouvelles thématiques de recherche. Les réseaux de capteurs issus de ces nouveaux progrès technologiques constituent un axe de recherche très fertile. En effet, la capacité réduite des noeuds en teme de calcul, de mémoire et d'énergie génère de nombreuses problématiques intéressantes. Le but de cette thèse est la conception d'une architecture hiérarchique de réseaux de capteurs capables de s'adapter à différents contextes en prenant en compte les contraintes énergétiques et en permettant de fournir des informations riches comme le multimédia à l'utilisateur final. Nous proposons une architecture hiérarchique avec les différents noeuds qui la composent et les technologies sans fil qui les relient. L'économie d'énergie étant un fil conducteur de notre travail et le module de transmission la principale source d'énergie, nous proposons deux nouveaux algorithmes de compression de données permettant d'optimiser l'utilisation du canal de communication. Nous présentons également une solution pour le stockage de grandes quantités d'informations sur les noeuds en integrant le système de fichiers FAT16 sous TinyOS-2. X
Recent advances in various aeras related to micro-electronics, computer science and wireless networks have resulted in the development of new research topics. Sensor networks are one of them. The particularity of this new research direction is the reduced performances of nodes in terms of computation, memory and energy. The purpose of this thesis is the definition of a new hierarchical architecture of sensor networks usable in different contexts by taking into account the sensors constraints and providing a high quality data such as multimedia to the end-users. We present our hierachical architecture with different nodes and the wireless technologies that connect them. Because of the high consumtpionof data transmission, we have developped two data compression algortithms in order to optimize the use of the channel by reducing data transmitted. We also present a solution for storing large amount of data on nodes by integrating the file system FAT16 under TinyOS-2. X
49

Cuesta, Fernand. "Synthèse des ressources de communication pour la conception de systèmes embarqués temps réel flots de données." Nice, 2001. http://www.theses.fr/2001NICE5659.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Saïdi, Houssem Eddine. "Conception et évaluation de techniques d'interaction pour l'exploration de données complexes dans de larges espaces d'affichage." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30252/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les données d'aujourd'hui deviennent de plus en plus complexes à cause de la forte croissance de leurs volumes ainsi que leur multidimensionnalité. Il devient donc nécessaire d'explorer des environnements d'affichage qui aillent au-delà du simple affichage de données offert par les moniteurs traditionnels et ce, afin de fournir une plus grande surface d'affichage ainsi que des techniques d'interaction plus performantes pour l'exploration de données. Les environnements correspondants à cette description sont les suivants : Les écrans large ; les environnements multi-écrans (EME) composés de plusieurs écrans hétérogènes spatialement distribués (moniteurs, smartphones, tablettes, table interactive ...) ; les environnements immersifs. Dans ce contexte, l'objectif de ces travaux de thèse est de concevoir et d'évaluer des solutions d'interaction originales, efficaces et adaptées à chacun des trois environnements cités précédemment. Une première contribution de nos travaux consiste en Split-focus : une interface de visualisation et d'interaction qui exploite les facilités offertes par les environnements multi-écrans dans la visualisation de données multidimensionnelles au travers d'une interface overview + multi-detail multi-écrans. Bien que plusieurs techniques d'interaction offrent plus d'une vue détaillée en simultané, le nombre optimal de vues détaillées n'a pas été étudié. Dans ce type d'interface, le nombre de vues détaillées influe grandement sur l'interaction : avoir une seule vue détaillée offre un grand espace d'affichage mais ne permet qu'une exploration séquentielle de la vue d'ensemble?; avoir plusieurs vues détaillées réduit l'espace d'affichage dans chaque vue mais permet une exploration parallèle de la vue d'ensemble. Ce travail explore le bénéfice de diviser la vue détaillée d'une interface overview + detail pour manipuler de larges graphes à travers une étude expérimentale utilisant la technique Split-focus. Split-focus est une interface overview + multi-détails permettant d'avoir une vue d'ensemble sur un grand écran et plusieurs vues détaillées (1,2 ou 4) sur une tablette. [...]
Today's ever-growing data is becoming increasingly complex due to its large volume and high dimensionality: it thus becomes crucial to explore interactive visualization environments that go beyond the traditional desktop in order to provide a larger display area and offer more efficient interaction techniques to manipulate the data. The main environments fitting the aforementioned description are: large displays, i.e. an assembly of displays amounting to a single space; Multi-display Environments (MDEs), i.e. a combination of heterogeneous displays (monitors, smartphones/tablets/wearables, interactive tabletops...) spatially distributed in the environment; and immersive environments, i.e. systems where everything can be used as a display surface, without imposing any bound between displays and immersing the user within the environment. The objective of our work is to design and experiment original and efficient interaction techniques well suited for each of the previously described environments. First, we focused on the interaction with large datasets on large displays. We specifically studied simultaneous interaction with multiple regions of interest of the displayed visualization. We implemented and evaluated an extension of the traditional overview+detail interface to tackle this problem: it consists of an overview+detail interface where the overview is displayed on a large screen and multiple detailed views are displayed on a tactile tablet. The interface allows the user to have up to four detailed views of the visualization at the same time. We studied its usefulness as well as the optimal number of detailed views that can be used efficiently. Second, we designed a novel touch-enabled device, TDome, to facilitate interactions in Multi- display environments. The device is composed of a dome-like base and provides up to 6 degrees of freedom, a touchscreen and a camera that can sense the environment. [...]

До бібліографії