Thèses sur le sujet « Systèmes des données echantillones »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Systèmes des données echantillones.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Systèmes des données echantillones ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Falcón, Prado Ricardo. « Active vibration control of flexible structures under input saturation through delay-based controllers and anti-windup compensators ». Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG042.

Texte intégral
Résumé :
Dans ce travail, on traite le problème du commande actif des vibrations robustes pour une structure mécanique flexible à travers des techniques pour des systèmes à dimensions infinis et finis. Les approches abordées sont réglées pour une commande à retour de sortie basée sur une commande aux actions retardées proportionelles, par une approche basée sur quasipolynomials,et une commande synthétisée par la méthode H∞avec une approche par LMIs. Le but c’est l’analyse de ses capabilités pour amortisser les modes vibratoires dans une bande passante d’intérêt, et éviter les effets dénommés de phénomène “spillover”. Cettes commandes sont sythétisés à travers d’un modèle de dimensions finies,dérivé à partir d’un analyse des dimensions finies des structures mécaniques, combiné avec des methodes de réduction.Les structures flexibles envisagées ici sont, d’abord,une poutre flexible d’aluminium à la configuration Euler-Bernoulli, dont un bout est encastrée et l’autre libre, deuxièmement,une membrane axisymmetrique. Chaque système est instrumenté d’un capteur et d’un actionneur piézoélectrique,ils sont bien soumises à chaque coté des structures et elles sont bien placées. Notre intention est d’examiner les performances susmentionnés par les environnements de simulation numérique et la mise en oeuvre à titre expérimental
In this work, the problem of active vibration control of flexible mechanical structures is addressed through infinite and finite dimensional techniques. The compared approaches are adjusted for an output feedback controller based on delayed proportional actions,through a quasipolynomial-based approach, and an optimalH∞ controller design computed with an LMI approach.They are shown in order to analyze their capabilities to damp some vibrational modes in the frequency band with of interest, and to avoid the so called “spillover”phenomenon. These controllers are synthetized through a finite dimensional model, derived from a finite element analysis of the mechanical structure, combined with some reduction methods.The flexible structures considered here are, firstly, aflexible aluminium beam in the Euler-Bernoulli configuration,and secondly, an axysimmetric membrane. Bothof them are equipped with two piezoelectric patches that are bounded and collocated on each face of the structure.We intend to examine and discuss the aforementioned performances in both simulation and experimental environments
Styles APA, Harvard, Vancouver, ISO, etc.
2

Jawad, Mohamed. « Confidentialité de données dans les systèmes P2P ». Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00638721.

Texte intégral
Résumé :
Les communautés en ligne pair-a-pair (P2P), comme les communautés professionnelles (p. ex., médicales ou de recherche) deviennent de plus en plus populaires a cause de l'augmentation des besoins du partage de données. Alors que les environnements P2P offrent des caractéristiques intéressantes (p. ex., passage a l'échelle, disponibilité, dynamicité), leurs garanties en termes de protection des données sensibles sont limitées. Ils peuvent être considérés comme hostiles car les données publiées peuvent être consultées par tous les pairs (potentiellement malicieux) et utilisées pour tout (p. ex., pour le commerce illicite ou tout simplement pour des activités contre les préférences personnelles ou éthiques du propriétaire des données). Cette thèse propose un service qui permet le partage de données sensibles dans les systèmes P2P, tout en assurant leur confidentialité. La première contribution est l'analyse des techniques existant pour la confidentialité de données dans les architectures P2P. La deuxième contribution est un modèle de confidentialité, nommé PriMod, qui permet aux propriétaires de données de spécifier leurs préférences de confidentialité dans de politiques de confidentialité et d'attacher ces politiques a leurs données sensibles. La troisième contribution est le développement de PriServ, un service de confidentialité, basé sur une DHT qui met en oeuvre PriMod afin de prévenir la violation de la confidentialité de données. Entre autres, PriServ utilise de techniques de confiance pour prédire le comportement des pairs.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Janyene, Abderrahmane. « Validation de données des systèmes dynamiques linéaires ». Nancy 1, 1987. http://www.theses.fr/1987NAN10190.

Texte intégral
Résumé :
Étude d'une méthode de validation de données dans les unités de production industrielle dont le fonctionnement est caractérisé par des systèmes dynamiques linéaires, ceci en présence de toutes les mesures de grandeurs, dans un 1**(ER) temps, et avec des mesures manquantes, ensuite
Styles APA, Harvard, Vancouver, ISO, etc.
4

Abdali, Abdelkebir. « Systèmes experts et analyse de données industrielles ». Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0032.

Texte intégral
Résumé :
L'analyse du fonctionnement des Systèmes de Production Industrielle s'appuie sur des informations de natures diverses. Une bonne partie d'entre elles se présentant sous forme numérisée, on leur applique des méthodes d'analyse des données dont les résultats doivent être confrontés, puis interprétés à l'aide des autres connaissances. Notre travail s'insère dans le cadre de l'application des techniques de l'Intelligence Artificielle à la Statistique. Il vise en particulier à étudier la faisabilité et le développement d'un Système Expert Statistique dans le domaine des Systèmes de Production Industrielle. Nous avons élaboré ALADIN (Aide Logicielle pour l'Analyse de Données Industrielles), un système destiné à aider un utilisateur non-spécialiste à analyser des données recueillies sur des procédés industriels. L'architecture de ce système est flexible et allie aspect qualitatif (connaissances sur les procédés industriels et connaissances sur les méthodes statistiques et d'analyse de données) et aspect quantitatif (collection de programmes d'analyse). Pour l'instant, nous nous sommes limités aux problèmes d'Analyse en Composantes Principales. Outre l'aspect industriel, ALADIN présente l'avantage de fournir une assistance au niveau de chacun des nombreux maillons de la conduite d'une analyse de données et particulièrement en amont de l'analyse proprement dite i. E. Lors de la phase de prétraitement et de préparation des données: cette étape, toujours nécessaire compte tenu de la nature des mesures, est en effet généralement longue et fastidieuse
To analyses industrial process behavio, many kinds of information are needed. As tye ar mostly numerical, statistical and data analysis methods are well-suited to this activity. Their results must be interpreted with other knowledge about analysis prcess. Our work falls within the framework of the application of the techniques of the Artificial Intelligence to the Statistics. Its aim is to study the feasibility and the development of statistical expert systems in an industrial process field. The prototype ALADIN is a knowledge-base system designed to be an intelligent assistant to help a non-specialist user analyze data collected on industrial processes, written in Turbo-Prolong, it is coupled with the statistical package MODULAD. The architecture of this system is flexible and combing knowledge with general plants, the studied process and statistical methods. Its validation is performed on continuous manufacturing processes (cement and cast iron processes). At present time, we have limited to principal Components analysis problems
Styles APA, Harvard, Vancouver, ISO, etc.
5

Tos, Uras. « Réplication de données dans les systèmes de gestion de données à grande échelle ». Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30066/document.

Texte intégral
Résumé :
Ces dernières années, la popularité croissante des applications, e.g. les expériences scientifiques, Internet des objets et les réseaux sociaux, a conduit à la génération de gros volumes de données. La gestion de telles données qui de plus, sont hétérogènes et distribuées à grande échelle, constitue un défi important. Dans les systèmes traditionnels tels que les systèmes distribués et parallèles, les systèmes pair-à-pair et les systèmes de grille, répondre à des objectifs tels que l'obtention de performances acceptables tout en garantissant une bonne disponibilité de données constituent des objectifs majeurs pour l'utilisateur, en particulier lorsque ces données sont réparties à travers le monde. Dans ce contexte, la réplication de données, une technique très connue, permet notamment: (i) d'augmenter la disponibilité de données, (ii) de réduire les coûts d'accès aux données et (iii) d'assurer une meilleure tolérance aux pannes. Néanmoins, répliquer les données sur tous les nœuds est une solution non réaliste vu qu'elle génère une consommation importante de la bande passante en plus de l'espace limité de stockage. Définir des stratégies de réplication constitue la solution à apporter à ces problématiques. Les stratégies de réplication de données qui ont été proposées pour les systèmes traditionnels cités précédemment ont pour objectif l'amélioration des performances pour l'utilisateur. Elles sont difficiles à adapter dans les systèmes de cloud. En effet, le fournisseur de cloud a pour but de générer un profit en plus de répondre aux exigences des locataires. Satisfaire les attentes de ces locataire en matière de performances sans sacrifier le profit du fournisseur d'un coté et la gestion élastiques des ressources avec une tarification suivant le modèle 'pay-as-you-go' d'un autre coté, constituent des principes fondamentaux dans les systèmes cloud. Dans cette thèse, nous proposons une stratégie de réplication de données pour satisfaire les exigences du locataire, e.g. les performances, tout en garantissant le profit économique du fournisseur. En se basant sur un modèle de coût, nous estimons le temps de réponse nécessaire pour l'exécution d'une requête distribuée. La réplication de données n'est envisagée que si le temps de réponse estimé dépasse un seuil fixé auparavant dans le contrat établi entre le fournisseur et le client. Ensuite, cette réplication doit être profitable du point de vue économique pour le fournisseur. Dans ce contexte, nous proposons un modèle économique prenant en compte aussi bien les dépenses et les revenus du fournisseur lors de l'exécution de cette requête. Nous proposons une heuristique pour le placement des répliques afin de réduire les temps d'accès à ces nouvelles répliques. De plus, un ajustement du nombre de répliques est adopté afin de permettre une gestion élastique des ressources. Nous validons la stratégie proposée par une évaluation basée sur une simulation. Nous comparons les performances de notre stratégie à celles d'une autre stratégie de réplication proposée dans les clouds. L'analyse des résultats obtenus a montré que les deux stratégies comparées répondent à l'objectif de performances pour le locataire. Néanmoins, une réplique de données n'est crée, avec notre stratégie, que si cette réplication est profitable pour le fournisseur
In recent years, growing popularity of large-scale applications, e.g. scientific experiments, Internet of things and social networking, led to generation of large volumes of data. The management of this data presents a significant challenge as the data is heterogeneous and distributed on a large scale. In traditional systems including distributed and parallel systems, peer-to-peer systems and grid systems, meeting objectives such as achieving acceptable performance while ensuring good availability of data are major challenges for service providers, especially when the data is distributed around the world. In this context, data replication, as a well-known technique, allows: (i) increased data availability, (ii) reduced data access costs, and (iii) improved fault-tolerance. However, replicating data on all nodes is an unrealistic solution as it generates significant bandwidth consumption in addition to exhausting limited storage space. Defining good replication strategies is a solution to these problems. The data replication strategies that have been proposed for the traditional systems mentioned above are intended to improve performance for the user. They are difficult to adapt to cloud systems. Indeed, cloud providers aim to generate a profit in addition to meeting tenant requirements. Meeting the performance expectations of the tenants without sacrificing the provider's profit, as well as managing resource elasticities with a pay-as-you-go pricing model, are the fundamentals of cloud systems. In this thesis, we propose a data replication strategy that satisfies the requirements of the tenant, such as performance, while guaranteeing the economic profit of the provider. Based on a cost model, we estimate the response time required to execute a distributed database query. Data replication is only considered if, for any query, the estimated response time exceeds a threshold previously set in the contract between the provider and the tenant. Then, the planned replication must also be economically beneficial to the provider. In this context, we propose an economic model that takes into account both the expenditures and the revenues of the provider during the execution of any particular database query. Once the data replication is decided to go through, a heuristic placement approach is used to find the placement for new replicas in order to reduce the access time. In addition, a dynamic adjustment of the number of replicas is adopted to allow elastic management of resources. Proposed strategy is validated in an experimental evaluation carried out in a simulation environment. Compared with another data replication strategy proposed in the cloud systems, the analysis of the obtained results shows that the two compared strategies respond to the performance objective for the tenant. Nevertheless, a replica of data is created, with our strategy, only if this replication is profitable for the provider
Styles APA, Harvard, Vancouver, ISO, etc.
6

Voisard, Agnès. « Bases de données géographiques : du modèle de données à l'interface utilisateur ». Paris 11, 1992. http://www.theses.fr/1992PA112354.

Texte intégral
Résumé :
Les systemes d'information geographiques (sig) servent de support aux applications qui manipulent des donnees geographiques, telles que la planification urbaine, la regulation de la circulation, la gestion des ressources naturelles. Les problemes majeurs poses par la realisation de sig sont lies d'une part a la gestion d'un gros volume de donnees, d'autre part a la coexistence de deux types de donnees: la description des cartes (donnees alphanumeriques) et leur spatialite (geometrie et topologie). Les donnees spatiales posent de plus un double probleme car elles doivent etre manipulees par des operations specifiques et leur structuration est complexe et eminemment variable. Pour stocker, interroger et manipuler les donnees, les sig peuvent utiliser des systemes de gestion de bases de donnees (sgbd) dotes de fonctionnalites particulieres pour gerer des donnees spatiales. Notre travail a tout d'abord porte sur les problemes de modelisation de l'information geographique et a abouti a la proposition d'un modele original, base sur un modele a objets complexes, pour applications manipulant des cartes thematiques. Pour valider ce modele, nous avons implemente une maquette de sig au-dessus du prototype de sgrd oriente-objet o2. Cette experience nous a permis de degager des enseignements multiples. En particulier, la conception d'interfaces utilisateurs specifiques aux sig s'est averee etre une tache indispensable et complexe. Cette constatation a conduit a la proposition d'un modele d'interface pour concepteurs d'applications geographiques, premiere etape vers une boite a outils permettant de manipuler une large gamme d'applications geographiques. Les systemes d'information geographique et finalement les interfaces pour systemes d'information geographique sont les trois points auxquels nous nous interessons dans cette these
Styles APA, Harvard, Vancouver, ISO, etc.
7

Jaff, Luaï. « Structures de Données dynamiques pour les Systèmes Complèxes ». Phd thesis, Université du Havre, 2007. http://tel.archives-ouvertes.fr/tel-00167104.

Texte intégral
Résumé :
Mon travail porte sur la dynamique de certaines structures de données et sur les systèmes complexes. Nous avons présenté une approche de la combinatoire des tableaux et des permutations basée sur la dynamique. Cette approche, que nous appelons (Structures de Données Dynamiques) nous ouvre
la porte vers des applications en économie via les systèmes complexes.

Les structures de données que nous avons étudiées sont les permutations qui ne contiennent pas de sous-suite croissante de longueur plus que deux, les tableaux de Young standards rectangles à deux lignes, les mots de Dyck et les codes qui lient ces structures de données.

Nous avons proposé un modèle économique qui modélise le bénéfice d'un compte bancaire dont l'énumération des configurations possible se fait à l'aide d'un code adapté. Une seconde application
concerne l'évolution de populations d'automate génétique . Ces populations sont étudiées par analyse spectrale et des expérimentations sont données sur des automates probabilistes dont l'évolution conduit à contrôler la dissipation par auto-régulation.

L'ensemble de ce travail a pour ambition de donner quelques outils calculatoires liés à la dynamique de structures de données pour analyser la complexité des systèmes.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Delot, Thierry. « Accès aux données dans les systèmes d'information pervasifs ». Habilitation à diriger des recherches, Université de Valenciennes et du Hainaut-Cambresis, 2009. http://tel.archives-ouvertes.fr/tel-00443664.

Texte intégral
Résumé :
Le développement des réseaux sans fil et des dispositifs mobiles (ordinateurs portables, PDA communicants, capteurs, etc.) constaté ces dernières années entraine de profondes mutations des applications et des services proposés aux utilisateurs. Nous entrons aujourd'hui dans l'ère de l'informatique pervasive avec pour enjeu de proposer des services et de rendre les données disponibles n'importe où et n'importe quand. Le système d'information n'échappe pas à cette évolution et devient lui aussi pervasif. L'information y est stockée partout, dans différents formats et sur différents types de terminaux interconnectés. Notre travail se concentre sur les problèmes liés à l'accès aux données dans les systèmes d'information pervasifs. Ces systèmes, dits « ambiants », évoluent dans un contexte particulièrement dynamique du fait de la mobilité des utilisateurs et des sources de données qui peuvent apparaître et disparaître à tout moment. Les techniques traditionnellement utilisées pour accéder aux données, dans les bases de données réparties ou les systèmes pair-à-pair par exemple, sont ainsi totalement remises en cause. En effet, la mobilité des sources de données et les possibles déconnexions rendent impossibles la gestion et l'exploitation d'un schéma de placement décrivant la localisation des différentes sources de données accessibles. Dans ce contexte, nous proposons donc de nouvelles techniques d'accès dédiées aux systèmes d'information pervasifs. Plus précisément, nos contributions concernent : - Un modèle d'évaluation et d'optimisation de requêtes dans les environnements pair-à-pair hybrides, associant terminaux mobiles et serveurs fixes, adapté à la mobilité des terminaux et à leurs ressources restreintes (e.g., énergie) - Des techniques de partage d'informations dans les environnements pair-à-pair mobiles, où plus aucune infrastructure fixe n'est exploitable et où les échanges de données reposent sur des interactions directes entre les terminaux. Ces travaux ont été appliqués au contexte de la communication inter-véhicules. - Enfin, notre dernière contribution concerne la proposition de mécanismes d'auto-adaptation permettant à un évaluateur de requêtes de se reconfigurer dynamiquement en fonction des changements de contexte (e.g., connectivité, mobilité, autonomie, etc.), particulièrement fréquents dans les systèmes pervasifs. Nos travaux ont été réalisés dans le cadre de différents projets et ont conduit à la soutenance de plusieurs thèses de doctorat et masters recherche.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Heraud, Nicolas. « Validation de données et observabilité des systèmes multilinéairesé ». Vandoeuvre-les-Nancy, INPL, 1991. http://www.theses.fr/1991INPL082N.

Texte intégral
Résumé :
Le travail présenté concerne la validation de données et l'observabilité des systèmes multilinéaires dans le but d'effectuer le diagnostic de l'instrumentation d'une installation. Après un rappel sur la validation de données et l'observabilité des systèmes linéaires, ces notions sont étendues aux systèmes multilinéaires. Différentes méthodes, telles que le calcul hiérarchisé, la linéarisation des contraintes et les fonctions de pénalisation sont présentées pour l'estimation des valeurs vraies en présence de mesures manquantes. Ces différentes méthodes sont comparées et un algorithme récursif d'estimations utilisant les techniques de linéarisation des contraintes et des fonctions de pénalisation est presenté. La validation de données ne peut être effectuée que sur des systèmes observables. Nous avons donc développé une méthodologie originale, basée sur l'emploi de diagrammes arborescents, qui permet d'extraire les équations du procédé correspondant à sa partie observable. La technique de validation de données a été appliquée avec succès sur un procédé complexe de traitement de minerai d'uranium de la société total compagnie minière France. L'installation partiellement instrumentée permet de disposer de mesures de flux volumique, de masse volumique, de teneur d'uranium dans la phase solide et liquide des flux. Outre l'obtention de données cohérentes, l'analyse des résultats de la validation permet de détecter d'éventuels défauts sur l'instrumentation
The aim of this study is to investigate data validation and observability of miltilinear systems to diagnose instrumentation in a process. Data validation and observability in linear systems are first reviewed and these notions are extended to multilinear systems. Differents methods such as hierarchical computation, constraint linearization and penalization functions, are presented to estimate true values when some values are lacking. After comparing the different methods, a recurrent calculus of estimates using constraint linearization and penalization functions is developed. An observable system is required in order to perform data validation. Thus, we developed an original method, based on arborescent diagrams. The technique of data validation has been successfully applied to a complex uranium processing plant owned by the French company Total Compagnie Minière France. On this partially instrumented process, measurements for volumic flow, density and uranium in both solid and liquid phase are available. The analysis allows first to obtain coherent date. Furthemore, it can be used to detect sensors faults
Styles APA, Harvard, Vancouver, ISO, etc.
10

Meyer, Michel. « Validation de données sur des systèmes incomplètement observés ». Toulouse, INPT, 1990. http://www.theses.fr/1990INPT032G.

Texte intégral
Résumé :
Cette etude est consacree a la validation de donnees par equilibrage de bilans matiere. La methodologie decrite dans ce memoire peut etre appliquee a tout procede chimique, avec ou sans reaction chimique, en regime permanent. Apres avoir mis en evidence le caractere ineluctable des erreurs de mesure dans une presentation generale du probleme, nous abordons successivement les points suivants: le classement selon l'observabilite et la redondance, les methodes numeriques utilisees et le diagnostic sur l'etat des capteurs. Le classement selon l'observabilite et la redondance des debits et fractions massiques est realise par l'application de nouveaux algorithmes bases sur des concepts issus de la theorie des graphes. Ces methodes permettent egalement la mise en evidence des equations de redondance. Dans le chapitre suivant, l'accent est mis sur les methodes numeriques utilisees. L'exploitation de la vacuite des systemes linearises est mise en exergue. La derniere phase, basee sur des tests statistiques, permet un diagnostic sur le fonctionnement des capteurs d'un procede. Une etude comparative de differentes methodes est realisee. Dans le dernier chapitre, une breve description du logiciel integrant ces differentes techniques est faite. L'efficacite du programme est testee sur deux exemples industriels
Styles APA, Harvard, Vancouver, ISO, etc.
11

Liroz, Miguel. « Partitionnement dans les systèmes de gestion de données parallèles ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-01023039.

Texte intégral
Résumé :
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données.Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme.Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce.Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles.Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée
Styles APA, Harvard, Vancouver, ISO, etc.
12

Petit, Loïc. « Gestion de flux de données pour l'observation de systèmes ». Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00849106.

Texte intégral
Résumé :
La popularisation de la technologie a permis d'implanter des dispositifs et des applications de plus en plus développés à la portée d'utilisateurs non experts. Ces systèmes produisent des flux ainsi que des données persistantes dont les schémas et les dynamiques sont hétérogènes. Cette thèse s'intéresse à pouvoir observer les données de ces systèmes pour aider à les comprendre et à les diagnostiquer. Nous proposons tout d'abord un modèle algébrique Astral capable de traiter sans ambiguïtés sémantiques des données provenant de flux ou relations. Le moteur d'exécution Astronef a été développé sur l'architecture à composants orientés services pour permettre une grande adaptabilité. Il est doté d'un constructeur de requête permettant de choisir un plan d'exécution efficace. Son extension Asteroid permet de s'interfacer avec un SGBD pour gérer des données persistantes de manière intégrée. Nos contributions sont confrontées à la pratique par la mise en œuvre d'un système d'observation du réseau domestique ainsi que par l'étude des performances. Enfin, nous nous sommes intéressés à la mise en place de la personnalisation des résultats dans notre système par l'introduction d'un modèle de préférences top-k.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Liroz-Gistau, Miguel. « Partitionnement dans les Systèmes de Gestion de Données Parallèles ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-00920615.

Texte intégral
Résumé :
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données. Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme. Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce. Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles. Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée avec l'objectif de réduire la quantité de données qui devront être transférées dans la phase intermédiaire, connu aussi comme " shuffle ". Nous concevons et mettons en œuvre une stratégie qui, en capturant les relations entre les tuples d'entrée et les clés intermédiaires, obtient un partitionnement efficace qui peut être utilisé pour réduire de manière significative le surcharge de communications dans MapReduce.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Michel, François. « Validation de systèmes répartis : symétries d'architecture et de données ». Toulouse, INPT, 1996. http://www.theses.fr/1996INPT099H.

Texte intégral
Résumé :
Cette these s'interesse a la validation de systemes repartis par analyse de l'espace des etats accessibles. Les symetries presentes dans un systeme, dans son architecture ou dans ses donnees, sont utilisees pour n'explorer qu'une partie des etats accessibles tout en conservant les capacites de verification et de test. L'exploitation des symetries permet alors l'analyse de systemes que l'explosion combinatoire mettait sinon hors de portee des techniques de description formelle. L'idee de base est de reduire le nombre des etats examines en ne considerant qu'un seul representant par classe d'equivalence d'etats symetriques. Grace a des structures syntaxiques introduites dans le langage de specification, le concepteur peut indiquer les symetries d'architecture ou de traitement du systeme considere. Les principales contributions de cette these sont: - les concepts de pool d'agents permutables et de trames de donnees, qui permettent les prises en compte respectives des symetries d'architecture et de donnees, et leur integration dans le langage ccs, - l'interpretation de ces constructeurs sur le domaine des graphes de comportement, au moyen d'une semantique transitionnelle, - la conception d'une algorithmique basee sur les concepts precedents pour la verification par bissimulation et la generation de tests
Styles APA, Harvard, Vancouver, ISO, etc.
15

Robin, Jean-Marc. « L'estimation des systèmes de demandes sur données individuelles d'enquêtes ». Paris 1, 1988. http://www.theses.fr/1988PA010043.

Texte intégral
Résumé :
Nous analysons ici les problemes lies a l'estimation de systemes de demande microeconomiques sur donnees individuelles d'enquetes. La difficulte essentielle avec ce type de donnees tient au fait que tous les menages n'achetent pas tous les produits au cours de la periode d'enquete. De sorte que l'absence de biais de selection des estimateurs passent par une modelisation explicite des comportements d'approvisionnement. Les differents modeles proposes sont discutes puis testes sur les donnees de l'enquete consommation alimentaire en 1981 de l'insee
The fact that all households do not purchase all commodities during short periods of time is a source of trouble when estimating demand systems from household survey data. To avoid possible selection biases when selecting only households whe did purchase during the recording period, we have to model explicitely purchasing behaviors. The various models proposed are analysed then tested on the data of the french "ecquete consommation alimentaire en 1981
Styles APA, Harvard, Vancouver, ISO, etc.
16

Villamil, Giraldo María del Pilar. « Service de localisation de données pour les systèmes P2P ». Grenoble INPG, 2006. http://www.theses.fr/2006INPG0052.

Texte intégral
Résumé :
Cette thèse porte sur l'interrogation dans des systèmes massivement distribués. Elle propose un service de localisation de données pour des systèmes pair à pair basés sur des tables de hachage distribuées. Ces systèmes se caractérisent par leur grande échelle, une configuration très dynamique et un placement « aveugle » des données. Ces caractéristiques rendent difficile la gestion performante des données. En effet, il est presque impossible de disposer d'une vue pertinente de l'état global du système. La localisation, à l'aide de requêtes déclaratives, des données partagées dans le système devient très problématique. Le service de localisation proposé à pour but de fournir une gestion des requêtes adaptée au contexte pair à pair. Pour cela, il utilise des techniques d'indexation distribuée, des modèles d'évaluation de requêtes, des caches et la matérialisation de requêtes. Les modèles d'évaluation de requêtes proposés ont permis une analyse théorique des performances qui a été validée par des expérimentations réalisées à grande échelle (déploiement d'environ 1300 pairs). Le comportement observé confirme les bonnes propriétés de la proposition notamment en termes de passage à l'échelle par rapport au nombre de sites participants. Ce qui est l'un des points les plus critique pour la réussite des systèmes massivement distribués
This thesis is oriented to the interrogation in massively distributed systems. It proposes a data location service for peer to peer systems based on distributed hash tables. These systems are characterized by a high degree of distribution, a large set of heterogeneous peers, a very dynamic configuration and a "blind" distribution of the data. These characteristics make it difficult to provide an efficient data management. Ln fact, it is almost impossible to have a coherent view regarding the global state of the system. Moreover, the location, using declarative queries, of data shared in the system is becoming very problematic. The objective of the location service proposed is to provide a query management adapted to the peer to peer context. As a result, the service uses distributed indexation techniques, query evaluation models, cache and materialized queries. The query evaluation models permitted theoretical performance analysis wich using prototype experiments in a large scale system (1300 peers were deployed). The behaviour observed shows good properties particularly regarding the solution scalability according to the number of participant sites. This is one of the critical issues for providing successful massively distributed systems
Styles APA, Harvard, Vancouver, ISO, etc.
17

Liroz, Gistau Miguel. « Partitionnement dans les systèmes de gestion de données parallèles ». Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20117/document.

Texte intégral
Résumé :
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données.Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme.Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce.Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles.Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée
During the last years, the volume of data that is captured and generated has exploded. Advances in computer technologies, which provide cheap storage and increased computing capabilities, have allowed organizations to perform complex analysis on this data and to extract valuable knowledge from it. This trend has been very important not only for industry, but has also had a significant impact on science, where enhanced instruments and more complex simulations call for an efficient management of huge quantities of data.Parallel computing is a fundamental technique in the management of large quantities of data as it leverages on the concurrent utilization of multiple computing resources. To take advantage of parallel computing, we need efficient data partitioning techniques which are in charge of dividing the whole data and assigning the partitions to the processing nodes. Data partitioning is a complex problem, as it has to consider different and often contradicting issues, such as data locality, load balancing and maximizing parallelism.In this thesis, we study the problem of data partitioning, particularly in scientific parallel databases that are continuously growing and in the MapReduce framework.In the case of scientific databases, we consider data partitioning in very large databases in which new data is appended continuously to the database, e.g. astronomical applications. Existing approaches are limited since the complexity of the workload and continuous appends restrict the applicability of traditional approaches. We propose two partitioning algorithms that dynamically partition new data elements by a technique based on data affinity. Our algorithms enable us to obtain very good data partitions in a low execution time compared to traditional approaches.We also study how to improve the performance of MapReduce framework using data partitioning techniques. In particular, we are interested in efficient data partitioning of the input datasets to reduce the amount of data that has to be transferred in the shuffle phase. We design and implement a strategy which, by capturing the relationships between input tuples and intermediate keys, obtains an efficient partitioning that can be used to reduce significantly the MapReduce's communication overhead
Styles APA, Harvard, Vancouver, ISO, etc.
18

Madera, Cedrine. « L’évolution des systèmes et architectures d’information sous l’influence des données massives : les lacs de données ». Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS071/document.

Texte intégral
Résumé :
La valorisation du patrimoine des données des organisation est mise au cœur de leur transformation digitale. Sous l’influence des données massives le système d’information doit s’adapter et évoluer. Cette évolution passe par une transformation des systèmes décisionnels mais aussi par l’apparition d’un nouveau composant du système d’information : Les lacs de données. Nous étudions cette évolution des systèmes décisionnels, les éléments clés qui l’influence mais aussi les limites qui apparaissent , du point de vue de l’architecture, sous l’influence des données massives. Nous proposons une évolution des systèmes d’information avec un nouveau composant qu’est le lac de données. Nous l’étudions du point de vue de l’architecture et cherchons les facteurs qui peuvent influencer sa conception , comme la gravité des données. Enfin, nous amorçons une piste de conceptualisation des lacs de données en explorant l’approche ligne de produit.Nouvelle versionSous l'influence des données massives nous étudions l'impact que cela entraîne notamment avec l'apparition de nouvelles technologies comme Apache Hadoop ainsi que les limite actuelles des système décisionnel.Les limites rencontrées par les systèmes décisionnels actuels impose une évolution au système d 'information qui doit s'adapter et qui donne naissance à un nouveau composant : le lac de données.Dans un deuxième temps nous étudions en détail ce nouveau composant, formalisons notre définition, donnons notre point de vue sur son positionnement dans le système d information ainsi que vis à vis des systèmes décisionnels.Par ailleurs, nous mettons en évidence un facteur influençant l’architecture des lacs de données : la gravité des données, en dressant une analogie avec la loi de la gravité et en nous concentrant sur les facteurs qui peuvent influencer la relation donnée-traitement.Nous mettons en évidence , au travers d'un cas d'usage , que la prise en compte de la gravité des données peut influencer la conception d'un lac de données.Nous terminons ces travaux par une adaptation de l'approche ligne de produit logiciel pour amorcer une méthode de formalisations et modélisation des lacs de données. Cette méthode nous permet :- d’établir une liste de composants minimum à mettre en place pour faire fonctionner un lac de données sans que ce dernier soit transformé en marécage,- d’évaluer la maturité d'un lac de donnée existant,- de diagnostiquer rapidement les composants manquants d'un lac de données existant qui serait devenu un marécage,- de conceptualiser la création des lacs de données en étant "logiciel agnostique”
Data is on the heart of the digital transformation.The consequence is anacceleration of the information system evolution , which must adapt. The Big data phenomenonplays the role of catalyst of this evolution.Under its influence appears a new component of the information system: the data lake.Far from replacing the decision support systems that make up the information system, data lakes comecomplete information systems’s architecture.First, we focus on the factors that influence the evolution of information systemssuch as new software and middleware, new infrastructure technologies, but also the decision support system usage itself.Under the big data influence we study the impact that this entails especially with the appearance ofnew technologies such as Apache Hadoop as well as the current limits of the decision support system .The limits encountered by the current decision support system force a change to the information system which mustadapt and that gives birth to a new component: the data lake.In a second time we study in detail this new component, formalize our definition, giveour point of view on its positioning in the information system as well as with regard to the decision support system .In addition, we highlight a factor influencing the architecture of data lakes: data gravity, doing an analogy with the law of gravity and focusing on the factors that mayinfluence the data-processing relationship. We highlight, through a use case, that takingaccount of the data gravity can influence the design of a data lake.We complete this work by adapting the software product line approach to boot a methodof formalizations and modeling of data lakes. This method allows us:- to establish a minimum list of components to be put in place to operate a data lake without transforming it into a data swamp,- to evaluate the maturity of an existing data lake,- to quickly diagnose the missing components of an existing data lake that would have become a dataswamp- to conceptualize the creation of data lakes by being "software agnostic “
Styles APA, Harvard, Vancouver, ISO, etc.
19

Barbier, Sébastien. « Visualisation distance temps-réel de grands volumes de données ». Grenoble 1, 2009. http://www.theses.fr/2009GRE10155.

Texte intégral
Résumé :
La simulation numérique génère des maillages de plus en plus gros pouvant atteindre plusieurs dizaines de millions de tétraèdres. Ces ensembles doivent être visuellement analysés afin d'acquérir des connaissances relatives aux données physiques simulées pour l'élaboration de conclusions. Les capacités de calcul utilisées pour la visualisation scientifique de telles données sont souvent inférieures à celles mises en oeuvre pour les simulations numériques. L'exploration visuelle de ces ensembles massifs est ainsi difficilement interactive sur les stations de travail usuelles. Au sein de ce mémoire, nous proposons une nouvelle approche interactive pour l'exploration visuelle de maillages tétraédriques massifs pouvant atteindre plus de quarante millions de cellules. Elle s'inscrit pleinement dans le procédé de génération des simulations numériques, reposant sur deux maillages à résolution différente , un fin et un grossier , d'une même simulation. Une partition des sommets fins est extraite guidée par le maillage grossier permettant la reconstruction à la volée d'un maillage dit birésolution, mélange des deux résolutions initiales, à l'instar des méthodes multirésolution usuelles. L'implantation de cette extraction est détaillée au sein d'un processeur central, des nouvelles générations de cartes graphiques et en mémoire externe. Elles permettent d'obtenir des taux d'extraction inégalés par les précédentes approches. Afin de visualiser ce maillage, un nouvel algorithme de rendu volumique direct implanté entièrement sur carte graphique est proposé. Un certain nombre d'approximations sont réalisées et évaluées afin de garantir un affichage interactif des maillages birésolution
Numerical simulations produce huger and huger meshes that can reach dozens of million tetrahedra. These datasets must be visually analyzed to understand the physical simulated phenomenon and draw conclusions. The computational power for scientific visualization of such datasets is often smaller than for numerical simulation. As a consequence, interactive exploration of massive meshes is barely achieved. In this document, we propose a new interactive method to interactively explore massive tetrahedral meshes with over forty million tetrahedra. This method is fully integrated into the simulation process, based on two meshes at different resolutions , one fine mesh and one coarse mesh , of the same simulation. A partition of the fine vertices is computed guided by the coarse mesh. It allows the on-the-fly extraction of a mesh, called \textit{biresolution}, mixed of the two initial resolutions as in usual multiresolution approaches. The extraction of such meshes is carried out into the main memory (CPU), the last generation of graphics cards (GPU) and with an out-of-core algorithm. They guarantee extraction rates never reached in previous work. To visualize the biresolution meshes, a new direct volume rendering (DVR) algorithm is fully implemented into graphics cards. Approximations can be performed and are evaluated in order to guarantee an interactive rendering of any biresolution meshes
Styles APA, Harvard, Vancouver, ISO, etc.
20

Peerbocus, Mohamed Ally. « Gestion de l'évolution spatiotemporelle dans une base de données géographiques ». Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090055.

Texte intégral
Résumé :
Cette thèse traite de la mise à jour des bases de données géographiques, en particulier pour des applications cartographiques. Cette opération est complexe, souvent longue, en particulier lorsqu'il est nécessaire de représenter la nature dynamique des entités géographiques. Dans cette thèse, une nouvelle approche, appelée l'approche des cartes spatio-temporelles documentées, CSD, est proposée pour la mise à jour des bases de données géographiques et la gestion de l'évolution spatio-temporelle. Les changements géographiques sont étudiés selon trois perspectives : monde réel, carte et bases de données. L'approche CSD permet aux utilisateurs d'avoir accès à des versions passées ou alternatives d'une carte, de comparer les différentes versions d'un objet géographique, d'identifier les changements et de comprendre les raisons de ces changements, en particulier dans le contexte d'échange de données entre producteurs et clients. De plus, cette approche permet d'offrir une histoire documentée de l'évolution des objets géographiques. Par ailleurs, L'approche CSD assure la non-duplication des données dans la base de données géographiques. L'approche CSD permet de prendre en compte d'autres besoins des utilisateurs du domaine géographique : 1. Elle peut aider à la gestion des transactions de longue durée dans le processus de mise à jour des bases de données géographiques. 2. Elle peut être un outil efficace pour la gestion de l'information géographique dans des projets : des versions de carte peuvent être créées à la demande montrant les différentes étapes du projet, voire les alternatives. 3. Elle peut servir à organiser une équipe autour d'un projet en permettant aux différents intervenants de travailler sur différentes versions du projet et ensuite permettre leur fusion. 4. Elle peut être utile comme un outil de prévention dans la gestion des risques en permettant aux spécialistes de suivre l'évolution de limites de zones à risque.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Allouti, Faryel. « Visualisation dans les systèmes informatiques coopératifs ». Paris 5, 2011. http://www.theses.fr/2011PA05S003.

Texte intégral
Résumé :
Les techniques de classification non supervisée et les outils de visualisation de données complexes sont deux thèmes récurrents dans la communauté d’Extraction et Gestion des Connaissances. A l’intersection de ces deux thèmes se trouvent les méthodes de visualisation tels que le MultiDimensional Scaling ou encore la méthode des cartes auto-organisatrices de Kohonen appelée SOM. La méthode SOM se construit à l’aide d’un algorithme des K-means auquel est ajouté la notion de voisinage permettant de cette façon la conservation de la topologie des données. Ainsi, l’apprentissage rapproche, dans l’espace des données, les centres qui sont voisins sur une grille généralement 2D, jusqu’à former une surface discrète qui est une représentation squelettique de la distribution du nuage à explorer. Dans cette thèse, nous nous sommes intéressés à la visualisation dans un contexte coopératif, où la coopération s'etablit via une communication asynchrone dont le média est la messagerie électronique. Cet outil est apparu avec l’avènement des technologies de l’information et de la communication. Il est très utilisé dans les organisations, il permet une diffusion instantanée et rapide de l’information à plusieurs personnes en même temps,sans se préoccuper de leur présence. Notre objectif consistait en la proposition d’un outil d’exploration visuelle de données textuelles qui sont les fichiers attachés aux messages électroniques. Pour ce faire, nous avons combiné des méthodes de classification automatique et de visualisation. Nous avons étudié l’approche modèle de mélange qui est une contribution très utile pour la classification. Dans notre contexte, nous avons utilisé le modèle de mélange multinomial (Govaert et Nadif, 2007) pour déterminer les classes de fichiers. D’autre part, nous avons étudié l’aspect de visualisation à la fois des classes et des documents à l’aide du positionnement multidimensionnel et DC (Difference of Convex functions) et des cartes auto-organisatrices de Kohonen
Clustering techniques and visualization tools of complex data are two recurring themes in the community of Mining and Knowledge Management. At the intersection of these two themes there are the visualization methods such as multidimensional scaling or the Self-Organizing Maps (SOM). The SOM is constructed using K-means algorithm to which is added the notion of neighborhood allowing in this way the preservation of the topo-logy of the data. Thus, the learning moves closer, in the space of data, the centers that are neighbors on a two dimensions grid generally, to form a discrete surface which is a representation of the distribution of the cloud to explore. In this thesis, we are interested in the visualization in a cooperative context, where co-operation is established via an asynchronous communication and the media is the e-mail. This tool has emerged with the advent of information technology and communication. It is widely used in organizations, it allows an immediate and fast distribution of the in-formation to several persons at the same time, without worrying about their presence. Our objective consisted in proposing a tool of visual exploration of textual data which are files attached to the electronic messages. In order to do this, we combined clustering and visualization methods. We investigated the mixture approach, which is a very useful contribution for classification. In our context, we used the multinomial mixture model (Go-vaert and Nadif, 2007) to determine the classes of files. In addition, we studied the aspect of visualization of the obtained classes and documents using the multidimensional scaling and DC (Difference of Convex functions) and Self-Organizing Maps of Kohonen
Styles APA, Harvard, Vancouver, ISO, etc.
22

Lassoued, Yassine. « Médiation de qualité dans les systèmes d'information géographique ». Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11027.

Texte intégral
Résumé :
La prise de décision dans les domaines de l'aménagement du territoire, de la gestion des risques, de la gestion des transports, etc. Repose sur des données géographiques. Ces données sont diverses et de qualités variables, car elles sont issues d'observations plus ou moins imparfaites du monde réel. Les Systèmes d'Information Géographique (SIG) actuels ne sont pas encore capables d'intégrer à la fois des sources de données et leurs qualités. Il devient impératif de surmonter ce problème et d'offrir un système d'information qui guide l'utilisateur dans le choix des données qui satisfont au mieux ses besoins en termes de qualité. L'objectif de la thèse est d'apporter une solution à ce problème en proposant un système d'intégration qui prenne en compte la qualité des données à intégrer. Le problème consistera à satisfaire plusieurs besoins : gérer des sources de données géographiques autonomes, et prendre en compte des opérateurs spatiaux ainsi que des informations de qualité.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Garnerin, Mahault. « Des données aux systèmes : étude des liens entre données d’apprentissage et biais de performance genrés dans les systèmes de reconnaissance automatique de la parole ». Thesis, Université Grenoble Alpes, 2022. http://www.theses.fr/2022GRALL006.

Texte intégral
Résumé :
Certains systèmes issus de l'apprentissage machine, de par leurs données et les impensés qu'ils encapsulent, contribuent à reproduire des inégalités sociales, alimentant un discours sur les ``biais de l'intelligence artificielle''. Ce travail de thèse se propose de contribuer à la réflexion collective sur les biais des systèmes automatiques en questionnant l'existence de biais de genre dans les systèmes de reconnaissance automatique de la parole ou ASR (pour Automatic Speech Recognition).Penser l'impact des systèmes nécessite une articulation entre les notions de biais (ayant trait à la constitution du système et de ses données) et de discrimination, définie au niveau de la législation de chaque pays. On considère un système comme discriminatoire lorsqu'il effectue une différence de traitement sur la base de critères considérés comme brisant le contrat social. En France, le sexe et l'identité de genre font partie des 23 critères protégés par la législation.Après une réflexion théorique autour des notions de biais, et notamment sur le biais de prédictif (ou biais de performance) et le biais de sélection, nous proposons un ensemble d'expériences pour tenter de comprendre les liens entre biais de sélection dans les données d'apprentissage et biais prédictif du système. Nous nous basons sur l'étude d'un système HMM-DNN appris sur des corpus médiatiques francophones, et d'un système end-to-end appris sur des livres audio en anglais. Nous observons ainsi qu'un biais de sélection du genre important dans les données d'apprentissage contribue de façon assez partielle au biais prédictif du système d'ASR, mais que ce dernier émerge néanmoins lorsque les données de parole regroupent des situations d'énonciation et des rôles de locuteurs et locutrices différents. Ce travail nous a également conduite à questionner la représentation des femmes dans les données, et plus généralement à repenser les liens entre conception théorique du genre et systèmes d'ASR
Machine learning systems contribute to the reproduction of social inequalities, because of the data they use and for lack of critical approches, thys feeding a discourse on the ``biases of artificial intelligence''. This thesis aims at contributing to collective thinking on the biases of automatic systems by investigating the existence of gender biases in automatic speech recognition (ASR) systems.Critically thinking about the impact of systems requires taking into account both the notion of bias (linked with the architecture, or the system and its data) and that of discrimination, defined at the level of each country's legislation. A system is considered discriminatory when it makes a difference in treatment on the basis of criteria defined as breaking the social contract. In France, sex and gender identity are among the 23 criteria protected by law.Based on theoretical considerations on the notions of bias, and in particular on the predictive (or performance) bias and the selection bias, we propose a set of experiments to try to understand the links between selection bias in training data and predictive bias of the system. We base our work on the study of an HMM-DNN system trained on French media corpus, and an end-to-end system trained on audio books in English. We observe that a significant gender selection bias in the training data contributes only partially to the predictive bias of the ASR system, but that the latter emerges nevertheless when the speech data contain different utterance situations and speaker roles. This work has also led us to question the representation of women in speech data, and more generally to rethink the links between theoretical conceptions of gender and ASR systems
Styles APA, Harvard, Vancouver, ISO, etc.
24

Hajji, Hicham. « Gestion des risques naturels : une approche fondée sur l'intégration des données ». Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0039/these.pdf.

Texte intégral
Résumé :
La mise en oeuvre d'architectures ou de solutions de systèmes d'information géographique peut différer d'un cas à l'autre en fonction des objectifs et des besoins des applications. Dans la gestion des risques naturels, la conception de tels systèmes doit répondre à plusieurs problématiques comme l'hétérogénéité sémantique des données, la diversité des formats et des modèles de données, le caractère spatio-temporal de la gestion. Dans cette thèse, nous avons essayé de répondre à ces besoins en présentant une architecture de référence pour un système d'information pour la gestion des risques. Deux aspects ont été détaillés dans cette architecture: l'intégration des données et le développement d'une ontologie pour les risques. Le problème d'intégration des données a été abordé en utilisant le standard OpenGIS qui offre à la fois une définition équivoque des types de primitives géométriques, une prise en compte de la dimension temporelle, et un mécanisme pour la description des métadonnées. Une méthodologie d'intégration a été proposée comme un cadre pour assister: 1) à la transformation des schémas des données vers le modèle OpenGIS, 2) à l'identification des correspondances entre les éléments identiques, et 3) leur intégration dans un schéma intégré. L'ontologie a été développée pour éliminer la confusion sémantique entre les acteurs de la gestion des risques, et pour la modélisation du domaine en proposant un ensemble de concepts nécessaires à la description de la procédure de gestion des risques. Finalement, en relation avec le contrat CIFRE dont j'ai bénéficié, quelques systèmes d'information opérationnels sont présentés traitant de la procédure de gestion des risques
There is a huge geographic data available with many organizations collecting geographic data for centuries, but some of that is still in the form of paper maps or in traditional files or databases, and with the emergence of latest technologies in the field of software and data storage some has been digitized and is stored in latest GIS systems. However, too often their reuse for new applications is a nightmare, due to diversity of data sets, heterogeneity of existing systems in terms of data modeling concepts, data encoding techniques, obscure semantics of data,storage structures, access functionality, etc. Such difficulties are more common in natural hazards information systems. In order to support advanced natural hazards management based on heterogeneous data, this thesis develops a new approach to the integration of semantically heterogeneous geographic information which is capable of addressing the spatial and thematic aspects of geographic information. The approach is based on OpenGIS standard. It uses it as a common model for data integration. The proposed methodology takes into consideration a large number of the aspects involved in the construction and the modelling of natural hazards management information system. Another issue has been addressed in this thesis, which is the design of an ontology for natural hazards. The ontology design has been extensively studied in recent years, we have tried throughout this work to propose an ontology to deal with semantic heterogeneity existing between different actors and to model existing knowledge present for this issue. The ontology contains the main concepts and relationships between these concepts using OWL Language
Styles APA, Harvard, Vancouver, ISO, etc.
25

Kaplan, Stéphane. « Spécification algébrique de types de données à accès concurrent ». Paris 11, 1987. http://www.theses.fr/1987PA112335.

Texte intégral
Résumé :
Il est étudié l'extension du formalisme des types abstraits algébriques à la spécification de systèmes concurrents. Le concept clé de "process spécification" est introduit. Dans une telle spécification, des processus agissent sur des données au moyen d'un opérateur d'application. Les processus sont définis par composition d'action atomiques et d'action non-atomiques. Les opérateurs sont la composition non-déterministe, séquentielle ou parallèle. L'auteur s'intéresse à l'implémentation d'une "process spécification" par une autre et donne à cet effet une méthode de preuve
Styles APA, Harvard, Vancouver, ISO, etc.
26

Saidi, Selma. « Optimisation des transferts de données sur systèmes multiprocesseurs sur puce ». Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00875582.

Texte intégral
Résumé :
Les systèmes multiprocesseurs sur puce, tel que le processeur CELL ou plus récemment Platform 2012, sont des architectures multicœurs hétérogènes constitués d'un processeur host et d'une fabric de calcul qui consiste en plusieurs petits cœurs dont le rôle est d'agir comme un accélérateur programmable. Les parties parallélisable d'une application, qui initialement est supposé etre executé par le host, et dont le calcul est intensif sont envoyés a la fabric multicœurs pour être exécutés. Ces applications sont en général des applications qui manipulent des tableaux trés larges de données, ces données sont stockées dans une memoire distante hors puce (off-chip memory) dont l 'accès est 100 fois plus lent que l 'accès par un cœur a une mémoire locale. Accéder ces données dans la mémoire off-chip devient donc un problème majeur pour les performances. une characteristiques principale de ces plateformes est une mémoire local géré par le software, au lieu d un mechanisme de cache, tel que les mouvements de données dans la hiérarchie mémoire sont explicitement gérés par le software. Dans cette thèse, l 'objectif est d'optimiser ces transfert de données dans le but de reduire/cacher la latence de la mémoire off-chip .
Styles APA, Harvard, Vancouver, ISO, etc.
27

Siriopoulos, Costas-Panou. « Essai sur les systèmes experts et l'analyse confirmatoire des données ». Aix-Marseille 3, 1988. http://www.theses.fr/1988AIX32010.

Texte intégral
Résumé :
A) l'intelligence artificielle dans la statistique: l'utilite clef de l'i. A. En statistique est d'aider les statisticiens d'etudier les strategies des analyses des donnees. L'existence, aujourd'hui, d'un grand nombre de logiciels statistiques pose des problemes aux usagers potentiels. Incorporer la connaissance statistique dans ces logiciels est une tache difficile mais faisable. Dans ce contexte plusieurs projets ont ete proposes, et recemment le projet a. I. D. A. Par m. Egea et j. P. Marciano. Nous etudions ce projet a l'aide d'une typologie ou modele d'interpretation. A titre d'exemple nous considerons le modele lineaire et la non-verification de l'hypothese de la non-autocorrelation des erreurs. Nous presentons cette connaissance sous la forme de 30 regles et 5 meta-regles. Nous concluons a une strategie possible sous forme d'un arbre hierarchique dont chaque noeud represente un frame, pour detecter le probleme et proposer des transformations ou des methodes d'estimation correctives (m. C. G. ). B) la statistique dans l'i. A. : nous considerons la theorie des possibilites, basee sur les sous-ensembles flous, pour manipuler et representer les informations incertaines et ou incompletes
A) artificial intelligence in statistical analysis: the key use of a. I. In statistics has been to enable statisticians to study strategies of data analysis. The existence, today, of a large number of statistical packages poses problems for potential users. Incorporating expert guidance in statistical software is technically challenging but worthwhile undertaking. Different systems and projects have been suggested. Recently, m. Egea and j. P. Marciano have proposed the a. I. D. A. Project in c. D. A. We consider the autocorrelation problem in a multiple linear model and we propose a typology to study the required statistical knowledge. We also propose a corpus of 30 rules of thumb and 5 meta-rules. We conclude in a possible strategy, for the detection and correction of the problem, in the form of an hierarchical tree in which each node is represented by a frame. B) statistics in artificial intelligence: expert systems work with propositions that may be uncertain. Accepting a probabilistic nature of uncertainty, we have to make a crucial assumption, namely, the additivity axiome. Once this assumption is dropped, we have other ways of characterizing uncertainty, in particular, possibilistic uncertainty based on fuzzy sets
Styles APA, Harvard, Vancouver, ISO, etc.
28

Pradel, Bruno. « Evaluation des systèmes de recommandation à partir d'historiques de données ». Paris 6, 2013. http://www.theses.fr/2013PA066263.

Texte intégral
Résumé :
Cette thèse présente différents protocoles d'évaluations permettantune meilleure estimation des erreurs de systèmes de recommandationsconstruits à partir d'historiques de données d'utilisateurs (ie sansinteractions directes avec les utilisateurs du système). Dans un premier chapitre de contribution, nous présentons lesrésultats d'une étude de cas d'un système de recommandation uniquementbasé sur les données d'achats d'un magasin de bricolage. Larecommandation est une tâche complexe qui à été souvent assimiléeuniquement à tache de prédiction de notes. Dans cette étude, nouscherchons à prédire les achats qu'un client va effectuer et non lanote qu'il attribuerait à un produit. Les données de notes étantindisponibles pour bon nombre d'industriels, cela correspond à uneapplication fréquemment rencontrée en pratique mais pourtant rarementtraitée dans la littérature. Dans ce cadre, nous évaluons lesperformances de plusieurs algorithmes de filtrage collaboratif del'état de l'art. Nous montrons comment certaines modifications desprotocoles d'apprentissages et de tests, ainsi que l'apportd'information de contexte, aboutit à de fortes variations desperformances entre algorithmes et à une sélection de modèle différente. Dans les chapitres suivants, nous abordons la problématique del'évaluation d'algorithmes de filtrage collaboratif à partir denotes. Dans un deuxième chapitre, nous détaillons notre participationau challenge de recommandation contextuelle de films CAMRa. Cechallenge propose deux modifications du protocole classique deprédiction de notes: les algorithmes sont évalués en considérant desmesures d'ordonnancement et les notes sont échantillonnées en test demanière temporelle sur deux périodes spécifiques de l'année: lasemaine de Noël et de la cérémonie des Oscars. Nous proposons unalgorithme de recommandations personnalisées qui prend en compte lesvariations temporelles de la popularité des items. La dernière contribution de cette thèse étudie l'influence duprocessus d'observations des notes sur les mesures de performancesTopK (rappel/ précision). Les utilisateurs choisissent les itemsqu'ils veulent noter, ainsi les notes sont obtenues par un processusd'observations non aléatoires. D'une part, certains items reçoiventbeaucoup plus de notes que les autres, et d'autre part, les notes"positives" sont sur-observés car les utilisateurs notent plusfréquemment les items qu'ils aiment. Nous proposons une analysethéorique de ces phénomènes et présentons également des résultatsd'expériences effectuées à l'aide de données Yahoo! réunissant desnotes collectées à la fois de manière classique et de manièrealéatoire. Nous montrons notamment qu'une prise en compte des notesmanquantes comme négatives en apprentissage aboutit à de bonnesperformances sur les mesures TopK, mais que ces performances peuventêtre trompeuses en favorisant des algorithmes modélisant la popularitédes items plus que les réelles préférences des utilisateurs
This thesis presents various experimental protocols leading to abetter offline estimation of errors in recommender systems. As a first contribution, results form a case study of a recommendersystem based on purchased data will be presented. Recommending itemsis a complex task that has been mainly studied considering solelyratings data. In this study, we put the stress on predicting thepurchase a customer will make rather than the rating he will assign toan item. While ratings data are not available for many industries andpurchases data widely used, very few studies considered purchasesdata. In that setting, we compare the performances of variouscollaborative filtering models from the litterature. We notably showthat some changes the training and testing phases, and theintroduction of contextual information lead to major changes of therelative perfomances of algorithms. The following contributions will focus on the study of ratings data. Asecond contribution will present our participation to the Challenge onContext-Aware Movie Recommendation. This challenge provides two majorchanges in the standard ratings prediction protocol: models areevaluated conisdering ratings metrics and tested on two specificsperiod of the year: Christmas and Oscars. We provides personnalizedrecommendation modeling the short-term evolution of the popularitiesof movies. Finally, we study the impact of the observation process of ratings onranking evaluation metrics. Users choose the items they want to rateand, as a result, ratings on items are not observed at random. First,some items receive a lot more ratings than others and secondly, highratings are more likely to be oberved than poor ones because usersmainly rate the items they likes. We propose a formal analysis ofthese effects on evaluation metrics and experiments on the Yahoo!Musicdataset, gathering standard and randomly collected ratings. We showthat considering missing ratings as negative during training phaseleads to good performances on the TopK task, but these performancescan be misleading favoring methods modeling the popularities of itemsmore than the real tastes of users
Styles APA, Harvard, Vancouver, ISO, etc.
29

Akbarinia, Reza. « Techniques d'accès aux données dans des systèmes pair-à-pair ». Nantes, 2007. http://www.theses.fr/2007NANT2060.

Texte intégral
Résumé :
Le but de cette thèse est de développer des nouvelles techniques d'accès aux données pour être utilisées par un service de traitement de requêtes dans des environnements P2P. En particulier, nous nous concentrons sur la conception de nouvelles techniques pour répondre à deux types de requêtes importants: les requêtes garantissant la currency des données (en français, la propriété des données d’être courantes, c. -à-d. à jour par rapport aux dernières modifications) et les requêtes top-k. Pour améliorer la disponibilité de données, la plupart des systèmes P2P s’appuient sur la réplication des données, mais sans garantir la currency. Cependant, pour beaucoup d'applications (par ex. Gestion d'agenda), la possibilité d'obtenir les données courantes est très importante. Donc, le service de traitement de requête doit traiter ce problème là. Le second problème que nous abordons est celui des requêtes top-k. Dans un système à grande échelle P2P, les requêtes top-k sont très utiles, par ex. Elles peuvent réduire le trafic du réseau significativement. Il existe des techniques efficaces pour l'exécution de requêtes top-k dans les systèmes distribués, mais elles ne conviennent pas aux systèmes P2P, en particulier aux DHTs. Dans cette thèse, nous donnons d’abord une vue d'ensemble des réseaux P2P actuels, et comparons leurs propriétés du point de vue du traitement de requêtes. Ensuite, nous proposons une solution complète au problème de la recherche d'une réplique courante dans les DHTs. Enfin, nous proposons de nouvelles solutions pour le traitement de requêtes top-k dans les systèmes P2P structuré, c. -à-d. Les DHTs, ainsi que les systèmes non structurés. Nous proposons également de nouveaux algorithmes pour traiter les requêtes top-k sur les listes triées, qui est un modèle très général. Nous avons validé nos solutions par une combinaison d'implémentation et de simulation ; Les résultats montrent de très bonnes performances, en termes du coût de communication et de temps de réponse
The goal of this thesis is to contribute to the development of new data access techniques for query processing services in P2P environments. We focus on novel techniques for two important kinds of queries: queries with currency guarantees and top-k queries. To improve data availability, most P2P systems rely on data replication, but without currency guarantees. However, for many applications which could take advantage of a P2P system (e. G. Agenda management), the ability to get the current data is very important. To support these applications, the query processing service must be able to efficiently detect and retrieve a current, i. E. Up-to-date, replica in response to a user requesting a data. The second problem which we address is supporting top-k queries which are very useful in large scale P2P systems, e. G. They can reduce the network traffic significantly. However, efficient execution of these queries is very difficult in P2P systems because of their special characteristics, in particular in DHTs. In this thesis, we first survey the techniques which have been proposed for query processing in P2P systems. We give an overview of the existing P2P networks, and compare their properties from the perspective of query processing. Second, we propose a complete solution to the problem of current data retrieval in DHTs. We propose a service called Update Management Service (UMS) which deals with updating replicated data and efficient retrieval of current replicas based on timestamping. Third, we propose novel solutions for top-k query processing in structured, i. E. DHTs, and unstructured P2P systems. We also propose new algorithms for top-k query processing over sorted lists which is a general model for top-k queries in many centralized, distributed and P2P systems, especially in super-peer networks. We validated our solutions through a combination of implementation and simulation and the results show very good performance, in terms of communication and response time
Styles APA, Harvard, Vancouver, ISO, etc.
30

Alustwani, Husam. « Interactivité et disponibilité des données dans les systèmes multimédias distribués ». Besançon, 2009. http://www.theses.fr/2009BESA2041.

Texte intégral
Résumé :
Deux problématiques principales ont guidé les travaux de cette thèse: (a) comment supporter efficacement les interactions (navigation) dans les présentations multimédias streamées et (b) comment améliorer la disponibilité des données dans un système de streaming P2P ? Afin de permettre une navigation rapide au sein d’une présentation multimédia, diffusée en continu, nous avons proposé une approche exploitant les informations disponibles sur son contenu (les objets la constituant). Ces informations permettent, entre autres, de préserver la cohérence sémantique de la présentation lors des interactions utilisateurs. Dans un deuxième temps, nous avons étudié les performances de notre approche en proposant une stratégie de pré-chargement, nommé CPS (Content-Based Prefetching Strategy), qui a permis de réduire considérablement les temps de latence des interactions utilisateurs. La disponibilité des données dans les systèmes de streaming P2P diffère fondamentalement de celle observée dans les systèmes PSP classiques, dans le sens où les données consommées sont dépendantes du temps. Ainsi, cette problématique se pose en terme de possibilité au pair destinataire (consommateur) de pouvoir terminer le visionnage du contenu vidéo dans sa totalité i. E. , durant toute la durée de la vidéo. Or, les systèmes P2P spontanés sont essentiellement caractérisés par leur volatilité fréquente, ce qui pose le problème de la disponibilité des pairs sources pendant le streaming. Nous avons étudié cette problématique en mettant en œuvre, dans un premier temps, un mécanisme de cache centralisé permettant de réduire les effets de la volatilité des pairs et en préservant uniquement les suffixes des vidéos en cours d’accès. Dans un deuxième temps, nous avons étendu notre approche vers un cache virtuel distribué. Les résultats des simulations ont montré la pertinence des approches proposées. Enfin, nous avons décrit la conception et la mis en œuvre d’un prototype qui démontre la faisabilité d’un système de streaming P2P spontané
The works in this thesis have been guided by two problems: (a) how to efficiently support fast browsing interactions in streamed multimedia presentations and (b) how to enhance data availability in pure P2P streaming systems ? In order to enable quick browsing within streamed multimedia presentations, we proposed an approach that takes full advantage of object multiplicity in a multimedia presentation. Our approach allows, among other features, to preserve the semantic on the presentation, when a fast browsing interaction occurs. In a second time, we studied the performances of our approach through the proposal of a Content-Based Prefetching Strategy, called CPS. Our strategy enables to considerably reduce the new interaction’s latency, that is to reduce the response time of a fast browsing action. Data availability in P2P streaming systems differs fundamentally from that observed in classical systems, in the sense that the use data are time-dependent. Thus, this problem arises in terms of the opportunity for a peer (consumer) to entirely receive a video content, that is able to watch the content to its end. However, spontaneous PSP systems are characterised, mainly, by the volatility of the peers. The unpredictable departure of peers poses the problem of the availability of peers that are sources for streaming. We have studied this problem by setting-up, a centralised caching mechanism to reduce the effects of peer’s departure and by only replicating the suffixes (last parts) of the videos that are being accessed. In a second step, we extended our approach towards a distributed virtual cache. The simulation results showed the relevance of the proposed approaches. Finally, we described the design and implementation of a prototype, that demonstrates the feasibility of a spontaneous P2P streaming system
Styles APA, Harvard, Vancouver, ISO, etc.
31

Saint-Joan, Denis. « Données géographiques et raisonnement : le système GEODES ». Toulouse 3, 1995. http://www.theses.fr/1995TOU30179.

Texte intégral
Résumé :
Les utilisateurs de systemes d'information geographique (sig) sont de plus en plus demandeurs de systemes d'analyses et/ou d'aide a la decision spatiale pour la resolution de problemes complexes qui ne s'apparentent pas a une simple superposition de cartes. Nous avons donc concu et realise le systeme geodes (geographic decision expert system) qui permet a un utilisateur d'exprimer de maniere aisee les connaissances symboliques specifiant un probleme a travers une interface graphique tout en tenant compte, d'une part, du caractere spatial des donnees et des connaissances, et d'autre part, du caractere flou de cette connaissance. Le systeme utilise cette specification du probleme et les donnees geographiques pour fournir une carte de solutions du probleme pose montrant les zones favorables au probleme et celles qui le sont moins. Il peut etre utilise dans des domaines tels que la geographie, l'ecologie, l'agriculture, la gestion des ressources naturelles, l'industrie c'est un systeme expert flou utilisant plusieurs types de donnees (rasteur ou vecteur) et manipulant deux types de regles: des regles non spatiales basees sur l'union et l'intersection des connaissances et des donnees, et des regles spatiales basees sur les caracteristiques (surface, orientation,) et les relations spatiales (a droite, proche, inclus,) des donnees. Le moteur d'inferences utilise une strategie en chainage avant et en largeur d'abord avec une resolution geometrique des inferences floues a partir de la representation trapezoidale des sous-ensembles flous pour accelerer les temps de calculs et en evaluant par paquet les regles traitant des memes connaissances
Styles APA, Harvard, Vancouver, ISO, etc.
32

Bazin, Cyril. « Tatouage de données géographiques et généralisation aux données devant préserver des contraintes ». Caen, 2010. http://www.theses.fr/2010CAEN2006.

Texte intégral
Résumé :
Le tatouage est un procédé fondamental pour la protection de la propriété intellectuelle. Il consiste à insérer une marque dans un document numérique en le modifiant légèrement. C'est la présence de cette marque qui permet au propriétaire légitime d'un document numérique de faire preuve de l'antériorité de ses droits. L'originalité de notre travail est double. D'une part nous utilisons une approche locale pour garantir à priori que la qualité des documents est préservée lors de l'insertion de la marque. D'autre part nous proposons un schéma de tatouage générique qui s'abstrait du type de documents à tatouer. La thèse s'articule en trois parties. Nous commencons par introduire les concepts de base du tatouage de données contraintes ainsi que l'état de l'art du tatouage de données géographiques. Nous présentons ensuite notre schéma de tatouage pour les données géographiques vectorielles qui sont souvent utilisées dans les systèmes d'informations géographiques. Ce schéma aveugle permet de tatouer un document tout en en préservant certaines qualités topologiques et métriques. La marque est robuste; elle résiste entre autres aux transformations géométriques et au découpage du document. Nous proposons une implémentation efficace que nous validons par de multiples expérimentations. Dans la dernière partie de la thèse, nous généralisons ce schéma aux données devant préserver des contraintes. Le schéma générique que nous obtenons facilitera la conception de schémas de tatouage pour de nouveaux type de données. Nous donnons notamment un exemple d'application du schéma générique pour les bases de données relationnelles. Afin de montrer qu'il est possible de travailler directement sur ce schéma, nous proposons deux protocoles de détection de la marque applicables directement sur toute implémentation du schéma générique
Digital watermaking is a fundamental process for intellectual property protection. It consists in inserting a mark into a digital document by slightly modifications. The presence of this mark allows the owner of a document to prove the priority of his rights. The originality of our work is twofold. In one hand, we use a local approach to ensure a priori that the quality of constrained documents is preserved during the watermark insertion. On the other hand, we propose a generic watermarking scheme. The manuscript is divided in three parts. Firstly, we introduce the basic concepts of digital watermarking for constrainted data and the state of the art of geographical data watermarking. Secondly, we present our watermarking scheme for digital vectorial maps often used in geographic information systems. This scheme preserves some topological and metric qualities of the document. The watermark is robust, it is resilient against geometric transformations and cropping. We give an efficient implementation that is validated by many experiments. Finally, we propose a generalization of the scheme for constrainted data. This generic scheme will facilitate the design of watermarking schemes for new data type. We give a particular example of application of a generic schema for relational databases. In order to prove that it is possible to work directly on the generic scheme, we propose two detection protocols straightly applicable on any implementation of generic scheme
Styles APA, Harvard, Vancouver, ISO, etc.
33

Fénié, Patrick. « Graico : méthode de modélisation et de conception de systèmes d'exploitation de systèmes de production ». Bordeaux 1, 1994. http://www.theses.fr/1994BOR10622.

Texte intégral
Résumé :
Cette these decrit la methode graico qui permet de modeliser et de concevoir des systemes d'exploitation (se) de systemes de production. Le se est responsable des prises de decision court et tres court terme dont la majorite sont declenchees sur evenement. Compose de centres d'exploitation, il est defini et modelise selon trois axes: coordination, synchronisation et cooperation. Les outils de modelisations du systeme physique de production conduit et du systeme d'exploitation assurent, par l'intermediaire d'une grammaire de specification, la structuration des choix de conception informatiques et organisationnels. Enfin, la demarche structure l'utilisation des outils pour l'analyse et la conception des systemes d'exploitation
Styles APA, Harvard, Vancouver, ISO, etc.
34

Tahir, Hassane. « Aide à la contextualisation de l’administration de base de données ». Paris 6, 2013. http://www.theses.fr/2013PA066789.

Texte intégral
Résumé :
La complexité des tâches d'administration de bases de données nécessite le développement d'outils pour assister les experts DBA. A chaque apparition d’un incident, l'administrateur de base de données (DBA) est la première personne blâmée. La plupart des DBAs travaillent sous de fortes contraintes d'urgence et ont peu de chance d'être proactif. Ils doivent être constamment prêts à analyser et à corriger les défaillances en utilisant un grand nombre de procédures. En outre, ils réajustent en permanence ces procédures et élaborent des pratiques qui permettent de gérer une multitude de situations spécifiques qui diffèrent de la situation générique par quelques éléments contextuels et l'utilisation de méthodes plus adaptées. Ces pratiques doivent être adaptées à ces éléments de contexte pour résoudre le problème donné. L'objectif de cette thèse est d'utiliser le formalisme des graphes contextuels pour améliorer les procédures d'administration de base de données. La thèse montre également l'intérêt de l'utilisation des graphes contextuels pour capturer ces pratiques en vue de permettre leur réutilisation dans les contextes du travail. Jusqu'à présent, cette amélioration est réalisée par le DBA grâce à des pratiques qui adaptent les procédures au contexte dans lequel les tâches doivent être exécutées et les incidents apparaissent. Ce travail servira de base pour la conception et la mise en œuvre d'un Système d’Aide Intelligent Basée sur le Contexte (SAIBC) et qui sera utilisé par les DBAs
The complexity of database administration tasks requires the development of tools for supporting database experts. When problems occur, the database administrator (DBA) is frequently the first person blamed. Most DBAs work in a fire-fighting mode and have little opportunity to be proactive. They must be constantly ready to analyze and correct failures based on a large set of procedures. In addition, they are continually readjusting these procedures and developing practices to manage a multitude of specific situations that differ from the generic situation by some few contextual elements. These practices have to deal with these contextual elements in order to solve the problem at hand. This thesis aims to use Contextual Graphs formalism in order to improve existing procedures used in database administration. The thesis shows also the benefits of using Contextual Graphs to capture user practices in order to be reused in the working contexts. Up to now, this improvement is achieved by a DBA through practices that adapt procedures to the context in which tasks should be performed and the incidents appear. This work will be the basis for designing and implementing a Context-Based Intelligent Assistant System (CBIAS) for supporting DBAs
Styles APA, Harvard, Vancouver, ISO, etc.
35

Heba, Nurja Ines. « Contributions à l'analyse statistique et économétrique des données géoréférencées ». Toulouse 1, 2005. http://www.theses.fr/2005TOU10048.

Texte intégral
Résumé :
L'analyse spatiale est un domaine de recherche qui contribue à développer les aptitudes d'exploration des systèmes d'information géographiques. Nous étudions divers aspects de la modélisation des données géoréférencées. 1) Nous présentons une boîte à outils appelée GEOXP (sous Matlab) constituée de fonctions d'analyse exploratoire des données géo-référencées avec leur dimension spatiale. Ces fonctions intègrent des outils statistiques adaptés aux données spatiales. 2) Nous analysons le contexte théorique de l'analyse spatiale des valeurs immobilières en milieu urbain, en vue de la définition d'un travail empirique. Ce travail nous conduit à réfléchir sur le choix des matrices de poids dans les modèles de régression spatiale et nous proposons un nouveau type de matrice de poids fondée sur la densité des localisations. 3) Nous proposons une méthode pour la classification des données de flux entre des unités géographiques à partir de deux matrices, l'une décrivant les flux et l'autre décrivant leurs relations de voisinage
Spatial analysis is a research topic that might develop the exploration capacity of goegraphical information systems. We study different aspects of georeferenced data modelling. 1) We build a tool-box called GEOXP (using Matlab) organised with statistical functions offering an exploratory analysis of georeferenced data with spatial dimension. These functions use statistical tools adapted for spatial data. 2) We study the theoretical context of a spatial analysis of real estate data in urban environment to prepare an empirical work. This study bring us to a new research on weight matrix choice in spatial regression models and we offer a new type of weight matrix, built on location density. 3) We build a new methodology to classify data flows between geographical units by using two matrix, one describing the flows themselves and the othe one describing their neighbourhood relations
Styles APA, Harvard, Vancouver, ISO, etc.
36

Coupaye, Thierry. « Un modèle d'exécution paramétrique pour systèmes de bases de données actifs ». Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00004983.

Texte intégral
Résumé :
Un systeme de bases de données actif est capable d'executer automatiquement des actions predefinies en reponse a des evenements specifiques lorsque certaines conditions sont satisfaites. Les regles actives, de la forme evenement-Condition-Action, sont au coeur de cette approche. Dans cette these, nous nous interessons aux modeles d'execution des systemes actifs. Le modele d'execution d'un systeme actif decrit quand et comment (ordonnancement, synchronisation) sont executées, au cours d'une application, les regles declenchées lors de l'execution d'une transaction. Nous proposons tout d'abord une taxonomie et une representation graphique des modeles d'execution des systemes actifs. Nous exposons ensuite un modele d'execution parametrique nomme Flare (Flexible active rule execution). Une caracteristique essentielle de ce modele est de considerer des modules de regles - chaque module etant destine a une utilisation particuliere des regles. On peut specifier, d'une part, le comportement de chaque regle d'un module, et d'autre part, la strategie d'execution de chaque module. Il suffit, pour cela, de choisir une valeur pour chacun des parametres proposes parmi un ensemble de valeurs predefinies. Nous donnons egalement une semantique denotationnelle (ou fonctionnelle) du modele. Nous montrons que ce formalisme fournit une specification implantable que nous utilisons dans le cadre de l'experimentation que nous menons autours de NAOS - un mecanisme de regles actives pour le SGBD a objets O2 - afin de remplacer son moteur d'execution par Flare.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Walwer, Damian. « Dynamique non linéaire des systèmes volcaniques à partir des données géodésiques ». Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE004/document.

Texte intégral
Résumé :
Nous étudions dans un premier temps l'intérêt de l'utilisation de la "multichannel singular spectrum analysis" (M-SSA) sur des séries temporelles de positionnements GPS. Cette méthode permet de simultanément analyser un ensemble de séries temporelles et d'en extraire des modes de variabilités communs sans utiliser d'information a priori sur les structures spatiales et temporelles des champs géophysiques. Ces modes correspondent à des tendances non linéaires, des oscillations ou du bruit. Nous l'appliquons à des données enregistrées sur le volcan Akutan en Alaska. Nous y extrayons deux types de signaux. L'un correspondant à des déformations dites saisonnières, l'autre représentant deux cycles d'inflations et de déflations successifs du volcan Akutan. Les inflations sont rapides et courtes et suivies de déflations plus lentes et plus longues. Dans une seconde partie nous tirons parti de la M-SSA pour analyser des séries temporelles enregistrées sur plusieurs volcans. Les volcans Okmok et Shishaldin en Alaska et le Piton de la Fournaise à la Réunion possèdent une partie de leurs histoires de déformations qui est similaire à celle d'Akutan. Le caractère oscillatoire de ces cycles de déformations est comparé au régime oscillatoire d'un simple oscillateur non linéaire. Les données pétrologiques, géochimiques et géophysiques disponibles pour Okmok et le Piton de la Fournaise combinées aux contraintes sur la dynamique apportées par l'oscillateur non linéaire permet de proposer un modèle physique. Deux réservoirs superficiels sont connectés par un conduit cylindrique dans lequel le magma possède une viscosité qui dépend de la température. Un tel système se comporte de manière similaire à l'oscillateur non linéaire étudié précédemment. Lorsque que le gradient de température vertical présent dans le fluide est suffisamment important et que le flux de magma entrant dans le système de réservoirs est compris entre deux valeurs déterminées analytiquement un régime oscillatoire se met en place
We study the use of the "multichannel singular spectrum analysis" on GPS time series. This method allows to simultaneously analyze a set of time series in order to extract from it common modes of variability without using any a priori on the temporal or the spatial structure of geophysical fields. The extracted modes correspond either to nonlinear trends, oscillations or noise. The method is applied on a set of GPS time series recorded at Akutan, a volcano located in Aleutian arc in Alaska. Two types of signals are extracted from it. The first one corresponds to seasonal deformations and the other represents two successive cycles of inflation and subsidence of Akutan volcano. The inflations are fast and short and are followed by deflations that are slower and longer. In the second part we take benefit of the M-SSA to analyze GPS time series recorded at several volcanoes. Okmok and Shishaldin in Alaska and Piton de la Fournaise in La Réunion possess a part of their deformation history that is similar to Akutan volcano. The cyclic nature of the observed deformations leads us to make an analogy between the oscillatory regime of a simple nonlinear oscillator and the deformation cycles of these volcanoes. Geochemical, petrological and geophysical data available for Okmok and Piton de la Fournaise combined with the constraint on the qualitative dynamics bring by the nonlinear oscillator allow to propose a physical model. Two shallow reservoirs are connected by a cylindrical conduit in which the magma have a viscosity that depends on the temperature. Such system behaves like the nonlinear oscillator mentioned above. When the temperature gradient inside theconduit is large enough and the flux of magma entering the shallow system is bounded by values that are determined analytically anonlinear oscillatory regime arises
Styles APA, Harvard, Vancouver, ISO, etc.
38

Keller, Jean-Yves. « Contribution a la validation de données des systèmes statiques et dynamiques ». Nancy 1, 1991. http://www.theses.fr/1991NAN10201.

Texte intégral
Résumé :
Ce mémoire est consacré à la validation de données des systèmes statiques et dynamiques. La première partie sur l'équilibrage de bilans des systèmes statiques issus de lois de conservation de la matière et de l'énergie. Nous proposons d'analyser l'observabilité et la redondance de ces systèmes en utilisant les cycles du réseau. Nous développons ensuite un estimateur optimal, au sens du maximum de vraisemblance, de la variance des erreurs de mesures. Une unification des techniques de détection de défauts accidentels est présentée ainsi qu'un algorithme d'estimation de l'état des systèmes statiques linéaires en présence de défauts multiples. Le dernier chapitre de la thèse présente une extension de ces techniques à l'équilibrage de bilans dynamiques. L'estimation de la variance des bruits de mesures est étudiée. La transposition du problème de l'estimation de l'état des systèmes singuliers en problème d'équilibrage de bilans permet l'obtention d'un algorithme de filtrage généralisant le filtre de Kalman. L'analyse de la séquence d'innovation de ce filtre permet le traitement des défauts accidentels. Une application de cet algorithme est proposée dans le cadre des systèmes décrits par des lois de conservation dynamiques. Le filtrage robuste des mesures d'entrées-sorties est étudié pour terminer
Styles APA, Harvard, Vancouver, ISO, etc.
39

Beaudenon, Vincent. « Diagrammes de décision de données pour la vérification de systèmes matériels ». Paris 6, 2006. http://www.theses.fr/2006PA066337.

Texte intégral
Résumé :
Avec la complexité croissante des systèmes informatiques se pose la question de la mise en oeuvre de méthodes automatiques pour leur vérification formelle. Parmi ces méthodes, le model-checking se fonde sur l'exploration exhaustive du comportement d'un système. Plus celui-ci sera complexe, plus cette exploration se traduira par une explosion combinatoire de l'espace des états du système. Diverses approches ont été proposées pour résoudre ce problème, notamment les méthodes symboliques qui sont bases sur une représentation compacte d'ensembles d'états. Depuis les travaux de R. E. Bryant et la définition des Diagrammes de Décision Binaires (BDD), de nombreuses représentations en DAG d'espaces d'états ont vu le jour, parmi celles-ci, on trouve les Diagrammes de Décision de Données (DDD), qui procurent une représentation compacte d'ensemble d'états et sont pourvus de mécanismes de parcours définis localement pour la réalisation des modifications sur ces états et des opérations ensemblistes. Parallélement, les travaux de G. J. Holzmann ont abouti à la création de l'outil de vérification SPIN, basé sur des méthodes énumératives explicites, pour des systèmes décrits en langage Promela. Ces systèmes sont proches de ceux qui sont utilisés pour la synthèse de haut niveau. Nous proposons une approche de vérification symbolique de systèmes matériels décrits dans un sous-ensemble du langage Promela. La représentation symbolique d'ensembles d'états est basée sur les Diagrammes de Décision de Données qui évitent de d'écrire le système au niveau booléen. Nous présentons d'abord la sémantique du langage Promela ainsi que les DDD puis les mécanismes mis en oeuvre pour la vérification de propriétés de logique CTL. Les conclusions tirées de cette première étape conduisent à proposer l'utilisation des Diagrammes de Décision d'Ensembles (SDD) pour améliorer les performances de la vérification automatique. Nous montrons que, bien que pourvus d'une implémentation et d'une terminologie différentes, il se prévalent du même formalisme que les DDD tout en procurant un étiquetage symbolique des arcs de la structure. Nous expérimentons ensuite cette approche sur des systèmes académiques et sur des systèmes issus d'applications industrielles. Ces expérimentations corroborent nos premiers résultats : les SDD couplés aux méthodes de saturation constituent une alternative sérieuse pour la vérification de systèmes à fort degré de concurrence. Nous proposons des perspectives de recherche pour améliorer encore la vérification de tels systèmes mais également pour introduire le concept de hiérarchie dans la description du système
Styles APA, Harvard, Vancouver, ISO, etc.
40

Boumediene, Mohamed Salah. « Définition d'un système générique de partage de données entre systèmes existants ». Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0125/these.pdf.

Texte intégral
Résumé :
Le travail de ma thèse s'inscrit dans la problématique de l'intégration de bases de données et de la confidentialité des données échangées. Le but est de résoudre les problèmes liés à la création des schémas médiateurs. Nous avons proposé une solution qui génère une vue unifiée de différentes bases de données en minimisant au maximum les interventions manuelles. Pour ce faire nous décrivons en premier chaque schéma à intégrer à l'aide de termes issus d'une ontologie. Cette description crée pour chaque base de données un document XML. Ces documents sont ensuite utilisés pour la création du schéma médiateur et des règles de correspondances. Afin d'exploiter le schéma médiateur nous avons créé un médiateur qui permet aux utilisateurs d'interroger les différentes bases de données via la vue unifiée. Afin d'alléger le processus de saisie des données nous avons utilisé le système DRUID qui permet aux utilisateurs de saisir les données sous forme de documents qui seront ensuite traités pour alimenter les bases de données. Afin de gérer la confidentialité dans la saisie et la consultation des données nous avons proposé d'utiliser des modèles de documents (DTD) pour chaque profil utilisateur, que ce soit pour les documents en écriture ou en lecture. Ces DTD sont générés automatiquement à partir du schéma de la base de données et modifiées ensuite pour chaque type d'utilisateur à partir des droits sur la base de données. Notre solution a été appliquée dans le domaine médical en consultant un dossier médical réparti
My thesis deals with the database integration problems and the confidentiality of the exchanged data. My aim, however, is to solve the problems related to the mediator schema creation. We proposed a solution which will generate a global view of the different databases by reducing, considerably, the manual interventions. To achieve this, we will describe, at the beginning, each schema using ontologic terms. This description will create for each database an XML file which will be used ,then, for the creation of mediator schema and the matching rules. In order to process the mediator schema, we created a mediator that allows users to query the different databases trough the global view. To lighten the data input process, we used the DRUID system which allows users to input their data under the form of files which will be processed, then, to populate the databases. To handle the confidentiality of the data entry and access, however, we proposed the use of (DTD) documents models and files to each type of user's profil, whether, for writing or reading files. These DTD are generated, automatically, from the database schema and then modified, for each user type according to their rights on the database. Our solution was applied in the medical domain through the consulting of a distributed medical file
Styles APA, Harvard, Vancouver, ISO, etc.
41

Estrada, Garcia Hector Javier. « Commande de systèmes mécaniques avec retards dans la transmission de données ». Nantes, 2008. http://www.theses.fr/2008NANT2063.

Texte intégral
Résumé :
Dans cette thèse, on propose le développement d'une technique de synchronisation pour systèmes mécaniques avec des retards dans le canal de communications. On considère que les retards sont relativement grands mais bornés. On effectue la synthèse de nouveaux schémas de synchronisation avec retards dans la transmission de données, les solutions qui sont obtenues sont causales, sans l'utilisation de prédicteurs, en utilisant la structure des systèmes et en appliquant la théorie de stabilisation pour systèmes linéaires avec retards. On effectue l'étude du problème de synchronisation de deux dispositifs mécaniques distants (l’un à Nantes, France ; l'autre à Ensenada, Mexique), interconnectés par un réseau. Le système mécanique considéré est sous actionné et consiste en un pendule inverse lié à une barre transversale par une union prismatique. Les résultats de cette thèse sont une contribution aux travaux de synchronisation et de rejet de perturbations qui est nouvelle par rapport à la littérature
In this thesis, the development of a synchronization technique is investigated, for dynamic systems with delays in the communication channel. It is assumed that the delays may be large but bounded. The study of the problem of synchronization of two distant mechanical devices (one being in Nantes, France; the other in Ensenada, Mexico), interconnected through a network. The mechanical system is underactuated and consists in an inverted pendulum linked to a transversal beam through a prismatic joint. The contributions of this thesis generalize the available synchronization results in the current literature
Styles APA, Harvard, Vancouver, ISO, etc.
42

Bard, Sylvain. « Méthode d'évaluation de la qualité de données géographiques généralisées : application aux données urbaines ». Paris 6, 2004. http://www.theses.fr/2004PA066004.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
43

Bellosta, Marie-Jo. « Systèmes d'interfaces pour la gestion d'objets persistants, Omnis ». Paris 6, 1992. http://www.theses.fr/1992PA066034.

Texte intégral
Résumé :
Les SGBDOO ont pour principale motivation d'apporter une solution nouvelle aux problèmes rencontrés par les applications ayant à manipuler de grands volumes de données complexes. En combinant les avantages des SGBD et des systèmes OO, ils apportent un meilleur support des objets complexes et une plus grande productivité des programmeurs d'applications par rapport aux systèmes relationnels. Dans ce contexte, cette thèse propose un système d'interfaces pour la gestion d'objets, omnis, destiné à faciliter la connexion entre des outils OO tels que des compilateurs, interpreteurs ou programme CAO et un gérant extensible d'objets afin de fournir un support au stockage des objets persistants et partagés. Omnis a pour objectif de rendre le gérant de schéma indépendant du modèle objet qu'il accueille. Son originalité réside dans sa capacité à s'adapter à différents modèles objets via son analyse des modèles et son extensibilité. L'analyse des modèles décompose tout modèle objet en au moins cinq sous-modèles: instanciation, héritage, agrégation, composition et client. Les sémantiques de chaque sous-modèle sont définies par un ensemble d'invariants et un ensemble d'opérations. Ainsi, l'accueil d'un nouveau modèle consiste à spécialiser les sous-modèles pertinents en redéfinissant ou en enrichissant leurs invariants et leurs opérations. L'extensibilité d'omnis est due à son modèle objet réflexif permettant la création dynamique d'objets de meta-description pour capturer de nouveaux modèles objets. Outre les bénéfices traditionnels de réutilisabilité et d'extensibilité, cette approche ouvre la voie à l'intéropérabilité entre systèmes basés sur différents modèles objets en fournissant une uniformité dans les protocoles de gestion de schéma, d'accès et de représentation d'objets
Styles APA, Harvard, Vancouver, ISO, etc.
44

Postoyan, Romain. « Commande et construction d’observateurs pour des systèmes non linéaires incertains à données échantillonnées et en réseau ». Paris 11, 2009. http://www.theses.fr/2009PA112163.

Texte intégral
Résumé :
L’essor des technologies numériques a permis le développement de nouvelles méthodes d’implémentation de lois de commande qui présentent de nombreux avantages par rapport aux structures dites traditionnelles. En effet, les contrôleurs numériques ont remplacé dans de nombreux cas les analogiques, de par leur coût généralement moins élevé et leur plus grande flexibilité. La mise en place de structures de commande en réseau offre également un regard nouveau. Plus ergonomiques et plus simples à entretenir que les implémentations par câblage point-à-point, elles permettent de réduire considérablement les transferts de données et donc les dépenses énergétiques dédiées aux communications. Les limitations de communications induites peuvent toutefois avoir un impact important sur les performances du système, c’est pourquoi il est nécessaire de développer de nouvelles méthodes de commande et d’observation adaptées. Dans cette thèse nous présentons dans un premier temps des méthodes de commande adaptative et robuste pour des classes de systèmes non linéaires incertains à données échantillonnées ; l’objectif étant d’améliorer les performances par rapport au simple blocage d’une loi de commande continue. Lorsque les transferts de données des capteurs à la structure de commande sont échantillonnés et ordonnancés par l’intermédiaire d’un réseau, nous avons développé un cadre d’étude méthodologique pour la synthèse d’observateurs par émulation. Nos travaux permettent de considérer de nombreux types d’observateurs (linéaires, à grand gain, par critère du cercle) ainsi qu’une multitude de configurations de réseau
The rise of digital technologies has promoted the development of new controllers implementations that have many advantages compared to traditional control structures. Indeed, digital controllers have become very popular due to their low cost and great flexibility in comparison with analogical controllers. The implementation of control structures via a network also offers a new point of view. They are generally easier to use and to maintain than point-by-point wiring, they allow one to significantly reduce data exchanges and, as a consequence, the energy cost. However, induced communication constraints can have a significant impact on system dynamical behaviour. In this thesis, we first propose adaptive and robust stabilisation methods for classes of nonlinear sampled-data systems affected by uncertainties; the main objective is to improve closed-loop performance compared to the emulation of a continuous-time control law. When data exchanges are sampled and time-scheduled via a network, we have developed a framework for the observer design by emulation. It is shown that various observer designs (linear, high gain, circle criterion) and various network configurations fit our framework
Styles APA, Harvard, Vancouver, ISO, etc.
45

Toumani, Farouk. « Le raisonnement taxinomique dans les modèles conceptuels de données : application à la retro-conception des bases de données relationnelles ». Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0051.

Texte intégral
Résumé :
Les logiques terminologiques, en tant que formalismes modernes de représentation des connaissances, suscitent actuellement beaucoup d'intérêt dans la communauté des bases de données. Elles permettent le développement de nouveaux modèles de données dotés de la capacité de raisonnement taxinomique. Cependant, ces formalismes s'avèrent peu adapté la représentation conceptuelle des bases de données ou l’accent doit être m1s sur la description précise et naturelle de l’univers du discours. Dans la première partie de ce travail, nous présentons une évaluation des logiques terminologiques en mettant en regard les caractéristiques de ces formalismes avec les exigences de la modélisation conceptuelle. Nous montrons que les logiques terminologiques ne permettent pas une modélisation directe de l'univers du discours et que les représentations proposées par ces formalismes souffrent du problème de la surcharge sémantique. Nous proposons ensuite le modèle qui résulte d’une formalisation d’un modèle sémantique, en l'occurrence un modèle entité-association (E / A), à l’aide d'une logique terminologique. Nous montrons qu'il y a une équivalence entre les schémas E/A et les schémas TERM par rapport à la mesure de la capacité d’information. Ce résultat permet de ramener le raisonnement sur un schéma E/A à un raisonnement sur le schéma TERM qui lui est équivalent. Comme application de ce travail, nous proposons d'utiliser le modèle TER. M dans un processus de rétro-conception de bases de données relationnelles. Celui-ci permet la construction automatique des schémas conceptuels, tout en assurant leur correction (consistance et minimaliste). Il offre également la possibilité de raisonner sur les schémas conceptuels pour les faire évoluer de manière incrémentale ou pour les enrichir en découvrant de nouvelles connaissances qui étaient implicites
Terrninological logics, as modem knowledge representation formalisms, are acknowledged to be one of the most promising artificial intelligence techniques in database applications. They allow the development of new data models equipped with taxonomic reasoning ability. However, these languages turned out to be inadequate in conceptual modelling area where emphasis must be put on the accurate and natural desc1iption of the universe of discourse. In this work, we first examine the features of terminological logics with respect to the requirements of conceptual modelling. We show that terminological logics do not support direct mode/ling requirement and constructs in these formalisms are semantically overloaded. Then we propose a model, called as a formalization of a semantic model, namely an Entity Relationship (E/R) model, using terminological logics. We demonstrate that E/R schemas and schemas are equivalent with respect to their formation capacity measure. This result ensure that the reasoning on an E/R schema can be reduced to a reasoning on its equivalent M schemas. As an application of this work, we propose to use in a relational database reverse engineering process in order to support automatic construction and enrichment of conceptual schemas and to maintain their correctness (consistency and minimality)
Styles APA, Harvard, Vancouver, ISO, etc.
46

Rannou, Éric. « Modélisation explicative de connaissances à partir de données ». Toulouse 3, 1998. http://www.theses.fr/1998TOU30290.

Texte intégral
Résumé :
Dans ce document, nous proposons d’étudier quelques méthodes d'extraction de connaissances d'un ensemble de données. L'extraction de connaissances qui est proposée consiste à exploiter les capacités des règles floues pour le résumé de données, et par extension, pour la modélisation de connaissances imprécises intelligibles pour un expert. En effet, les règles floues peuvent tout aussi bien traduire une information complexe décrivant le comportement dynamique d'un système (en modélisation floue) qu'une information intelligible destinée à la découverte de connaissances (dans une interface numerico-symbolique mettant en œuvre le raisonnement approche). Dans le premier cas, la connaissance extraite à partir des données est capable de reproduire les données mais n'est pas forcement une approche explicative. Seul le second cas s’avère une approche explicative qui permet de prendre en compte la connaissance experte. C'est pourquoi la découverte de connaissance basée sur l'extraction de règles floues à partir de données a été décomposée en deux parties. La première partie consiste à extraire des données un système de règles floues aux propriétés d'approximateur universel (approche non explicative de la structure des données). Les règles floues qui sont utilisées dans cette partie sont dites disjonctives en raison du mécanisme de combinaison que nécessite leur mise en œuvre. Une présentation d'un processus d'acquisition de connaissances, résultat d'une synthèse d'un ensemble d'approches, est proposée pour la modélisation floue. Celle-ci se décompose classiquement en deux parties : l'identification structurelle et l'identification paramétrique. Cependant, l'acquisition de connaissances pour la modélisation floue ne dépend que de l'identification structurelle. Nous nous sommes donc essentiellement intéressés aux différentes méthodes d'identification structurelles existantes pour la modélisation floue d'une base de connaissances. La seconde partie du document est consacrée à l'extraction de règles floues à partir des données à des fins d'interface et d’inférence. Les règles floues utilisées alors sont dites conjonctives. Ceci s'explique par le fait que nous souhaitons dans ce cas inférer règle par règle comme dans un système expert classique. Nous montrons comment nous avons développé une méthode d'extractions de connaissances linguistiques au moyen de règles floues conjonctives. Cette nouvelle méthode s'appuie sur une procédure de recherche successive de sous-groupes d’échantillons typiques au sein des données. Nous présentons enfin une application industrielle d'un système de règles floues disjonctives utilise en tant qu'approximateur universel. Ce système de règles floues a été comparé à deux autres méthodes de modélisation mettant en œuvre les réseaux de neurones et l'identification paramétrique de modèles linéaires.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Kerhervé, Brigitte. « Vues relationnelles : implantation dans les systèmes de gestion de bases de données centralisés et répartis ». Paris 6, 1986. http://www.theses.fr/1986PA066090.

Texte intégral
Résumé :
Nous décrivons les choix qui ont été faits dans le prototype SABRE. Nous analysons par la suite l'implantation de vues concrètes qui correspondent à la matérialisation des vues relationnelles. Nous montrons que ces vues concrètes permettent de définir un nouveau type de SGBD réparti où la définition et le stockage des données sont faits en fonction des interrogations sur les sites distants, de manière à maximiser les interrogations locales. Nous décrivons et analysons les mécanismes nécessaires à l'implantation d'un tel type de SGBD réparti par vues concrètes, notamment du point de vue des mises à jour.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Thièvre, Jérôme. « Cartographies pour la recherche et l'exploration de données documentaires ». Montpellier 2, 2006. http://www.theses.fr/2006MON20115.

Texte intégral
Résumé :
Cette thèse s’appuie sur les techniques de visualisation d’information afin d’explorer et d’analyser des données documentaires. Deux représentations sont étudiées d’un point de vue théorique et pratique : les diagrammes de Venn-Euler et les diagrammes noeud-lien. Les diagrammes de Venn-Euler sont des représentations ensemblistes. Nous les utilisons comme interface de formulation graphique de requêtes booléennes. Chaque diagramme constitue aussi une cartographie de la base documentaire qui fournit des informations sur son contenu et sur la qualité des termes de recherche employés. Les diagrammes noeud-lien permettent quant à eux de représenter des graphes. Nous nous sommes particulièrement intéressés aux techniques de placement, de filtrage et de codage graphique applicables à ces diagrammes. Nous avons conçu une librairie de visualisation de graphes qui nous a permis d’évaluer les propriétés de différents modèles de force, tels que les standards de Fruchterman-Reingold et d’Eades, ou les modèles de clustering visuel de Noack. Nous avons développé des algorithmes de filtrage dans le but d’améliorer la lisibilité des représentations tout en contrôlant la quantité d’information perdue. Le codage graphique est l’utilisation des différents variables graphiques, telles que couleur, taille et forme, pour représenter des attributs des données. Son paramétrage permet à l’utilisateur de faire émerger ses objets d’intérêt au sein de la visualisation. L’association de ces méthodes nous permet de créer des visualisations interactives et paramétrables particulièrement utiles à l’exploration et à l’analyse visuelle de différents graphes complexes réels, tels que des réseaux de pages Web, de données bibliographiques et documentaires
This thesis is based on information visualization techniques in order to explore and analyze documentary data. Two representations are studied from a theoretical and practical point of view: Venn-Euler diagrams and node-link diagrams. Venn-Euler diagrams are set-based representations. We use them as graphical formulation interface for boolean queries. Each diagram can also be seen as a map of the documents base which provides information on its content and feedback on the quality of the search keywords. Node-link diagrams are used to visualize graphs. We studied layout, filtering and graphical encoding methods applicable to this kind of diagrams. We designed a graph visualization API which allows us to evaluate the properties of various force models, such as the classics from Fruchterman-Reingold and Eades, or the visual clustering models from Noack. We implemented several filtering algorithms in order to enhance the readability of diagrams while controlling the lost of information. Graphical encoding is the use of various visual display elements, such as color, size and shape to map data attributes. Customization of graphical encoding allows users to bring to the foreground their objects of interest within the visualization. The association of these methods provides us solutions to create interactive and customizable displays which are particularly useful for exploration and visual analysis of various real complex graphs, such as web pages, bibliographical and documentary data networks
Styles APA, Harvard, Vancouver, ISO, etc.
49

Fernandez, Conception. « Modélisation des systèmes d'exploitation par HBDS ». Paris 6, 1988. http://www.theses.fr/1988PA066235.

Texte intégral
Résumé :
Modélisation générale des systèmes d'exploitation en utilisant la méthode HBDS (hypergraph based data structure) basée sur les types abstraits de données et s'appuyant sur une représentation graphique rigoureuse. Les concepts HBDS permettent la représentation des structures des données du système, alors que le fonctionnement de son noyau est simulé par des algorithmes écrits en exel.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Lamenza, Catalina A. « Organisation physique des bases de données pour les champs continus ». Lyon 1, 2003. http://www.theses.fr/2003LYO10191.

Texte intégral
Résumé :
Dans cette thèse nous présentons des mécanismes pour manipuler les données des champs continus d'une manière performante, c'est-à-dire les données décrivant des phénomènes continus comme en météorologie. Lors de la définition des mécanismes proposés, nous avons envisagé les deux aspects suivants. D'une part, l'utilisation des structures d'indexation qui prennent en compte les caractéristiques spatio-temporelles des échantillons ; puisque nous travaillons avec des champs continus, nous considérons aussi le stockage et l'accès indexé aux données nécessaires pour effectuer les estimations. De l'autre part, l'organisation du stockage en regroupant les données pour réduire les espaces de recherche. Dès lors, nous avons défini une stratégie qui s'appuie sur la structuration des données, et de plus, nous présentons la définition d'un système pour manipuler ces données en appliquant cette façon de faire
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie