To see the other types of publications on this topic, follow the link: Systèmes de données échantillonnées.

Dissertations / Theses on the topic 'Systèmes de données échantillonnées'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Systèmes de données échantillonnées.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Postoyan, Romain. "Commande et construction d’observateurs pour des systèmes non linéaires incertains à données échantillonnées et en réseau." Paris 11, 2009. http://www.theses.fr/2009PA112163.

Full text
Abstract:
L’essor des technologies numériques a permis le développement de nouvelles méthodes d’implémentation de lois de commande qui présentent de nombreux avantages par rapport aux structures dites traditionnelles. En effet, les contrôleurs numériques ont remplacé dans de nombreux cas les analogiques, de par leur coût généralement moins élevé et leur plus grande flexibilité. La mise en place de structures de commande en réseau offre également un regard nouveau. Plus ergonomiques et plus simples à entretenir que les implémentations par câblage point-à-point, elles permettent de réduire considérablement les transferts de données et donc les dépenses énergétiques dédiées aux communications. Les limitations de communications induites peuvent toutefois avoir un impact important sur les performances du système, c’est pourquoi il est nécessaire de développer de nouvelles méthodes de commande et d’observation adaptées. Dans cette thèse nous présentons dans un premier temps des méthodes de commande adaptative et robuste pour des classes de systèmes non linéaires incertains à données échantillonnées ; l’objectif étant d’améliorer les performances par rapport au simple blocage d’une loi de commande continue. Lorsque les transferts de données des capteurs à la structure de commande sont échantillonnés et ordonnancés par l’intermédiaire d’un réseau, nous avons développé un cadre d’étude méthodologique pour la synthèse d’observateurs par émulation. Nos travaux permettent de considérer de nombreux types d’observateurs (linéaires, à grand gain, par critère du cercle) ainsi qu’une multitude de configurations de réseau
The rise of digital technologies has promoted the development of new controllers implementations that have many advantages compared to traditional control structures. Indeed, digital controllers have become very popular due to their low cost and great flexibility in comparison with analogical controllers. The implementation of control structures via a network also offers a new point of view. They are generally easier to use and to maintain than point-by-point wiring, they allow one to significantly reduce data exchanges and, as a consequence, the energy cost. However, induced communication constraints can have a significant impact on system dynamical behaviour. In this thesis, we first propose adaptive and robust stabilisation methods for classes of nonlinear sampled-data systems affected by uncertainties; the main objective is to improve closed-loop performance compared to the emulation of a continuous-time control law. When data exchanges are sampled and time-scheduled via a network, we have developed a framework for the observer design by emulation. It is shown that various observer designs (linear, high gain, circle criterion) and various network configurations fit our framework
APA, Harvard, Vancouver, ISO, and other styles
2

Mattioni, Mattia. "Stabilisation des systèmes échantillonnés en cascade et avec retards." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS118/document.

Full text
Abstract:
Les méthodologies de l'automatique ont joué au cours des dernières décennies un ´r^ole essentiel au sein de nombreux secteurs technologiques avancées. Cependant, de nombreuse questions restent ouvertes. Parmi celles-ci, celles concernant la stabilité et la stabilisation de systèmes non linéaires sont d'intérêt primordial. Afin de stabilizer un système (physique ou non), il est nécessaire de capter et interpreter en temps réel les informations hétérogènes caractérisant son fonctionnement afin intervenir efficacement. Actuellement ces informations ne sont pas captées en temps continu, mais de façon synchrone ou asynchrone et ceci est valable aussi pour les actuateurs. De façon très naturelle, on définit donc un système hybride, caractérisé par des dynamiques à la fois discrètes et continues. Dans ce contexte, cette thèse est orientée au développement de nouvelles méthodologies pour la stabilisation de systèmes échantillonnés non linéaires en se focalisant sur la stabilisation de formes cascades qui se retrouvent dans de nombreuse situations concretes. Pour cela, on étudiera l'effet de l'échantillonnage sur les propriétés de la dynamique continue et l'on proposera des méthodologies pour la conception de lois de commande qui ne requièrent pas d'assumptions supplémentaires au cas continu.Enfin, on étudiera l'effet de l'échantillonnage sur des systèmes présentant de retards sur les entrées. On développera des lois de commande stabilisantes exploitant la structure en cascade induite par l'échantillonnage. Des exemples académiques illustreront les calcules des solutions et leur performances tout au long du manuscript
Over the last decades the methodologies of dynamical systems and control theory have been playing an increasingly relevant role in a lot of situations of practical interest. Though, a lot of theoretical problem still remain unsolved. Among all, the ones concerning stability and stabilization are of paramount importance. In order to stabilize a physical (or not) system, it is necessary to acquire and interpret heterogeneous information on its behavior in order to correctly intervene on it. In general, those information are not available through a continuous flow but are provided in a synchronous or asynchronous way. This issue has to be unavoidably taken into account for the design of the control action. In a very natural way, all those heterogeneities define an hybrid system characterized by both continuous and discrete dynamics. This thesis is contextualized in this framework and aimed at proposing new methodologies for the stabilization of sampled-data nonlinear systems with focus toward the stabilization of cascade dynamics. In doing so, we shall propose a small number of tools for constructing sampled-data feedback laws stabilizing the origin of sampled-data nonlinear systems admitting cascade interconnection representations. To this end, we shall investigate on the effect of sampling on the properties of the continuous-time system while enhancing design procedures requiring no extra assumptions over the sampled-data equivalent model.Finally, we shall show the way sampling positively affects nonlinear retarded dynamics affected by a fixed and known time-delay over the input signal by enforcing on the implicit cascade representation the sampling process induces onto the retarded system. Academic examples will illustrate the computational aspects together with their performances throughout the whole manuscript
APA, Harvard, Vancouver, ISO, and other styles
3

Chen, Fengwei. "Contributions à l'identification de modèles à temps continu à partir de données échantillonnées à pas variable." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0149/document.

Full text
Abstract:
Cette thèse traite de l’identification de systèmes dynamiques à partir de données échantillonnées à pas variable. Ce type de données est souvent rencontré dans les domaines biomédical, environnemental, dans le cas des systèmes mécaniques où un échantillonnage angulaire est réalisé ou lorsque les données transitent sur un réseau. L’identification directe de modèles à temps continu est l’approche à privilégier lorsque les données disponibles sont échantillonnées à pas variable ; les paramètres des modèles à temps discret étant dépendants de la période d’échantillonnage. Dans une première partie, un estimateur optimal de type variable instrumentale est développé pour estimer les paramètres d’un modèle Box-Jenkins à temps continu. Ce dernier est itératif et présente l’avantage de fournir des estimées non biaisées lorsque le bruit de mesure est coloré et sa convergence est peu sensible au choix du vecteur de paramètres initial. Une difficulté majeure dans le cas où les données sont échantillonnées à pas variable concerne l’estimation de modèles de bruit de type AR et ARMA à temps continu (CAR et CARMA). Plusieurs estimateurs pour les modèles CAR et CARMA s’appuyant sur l’algorithme Espérance-Maximisation (EM) sont développés puis inclus dans l’estimateur complet de variable instrumentale optimale. Une version étendue au cas de l’identification en boucle fermée est également développée. Dans la deuxième partie de la thèse, un estimateur robuste pour l'identification de systèmes à retard est proposé. Cette classe de systèmes est très largement rencontrée en pratique et les méthodes disponibles ne peuvent pas traiter le cas de données échantillonnées à pas variable. Le retard n’est pas contraint à être un multiple de la période d’échantillonnage, contrairement à l’hypothèse traditionnelle dans le cas de modèles à temps discret. L’estimateur développé est de type bootstrap et combine la méthode de variable instrumentale itérative pour les paramètres de la fonction de transfert avec un algorithme numérique de type gradient pour estimer le retard. Un filtrage de type passe-bas est introduit pour élargir la région de convergence pour l’estimation du retard. Tous les estimateurs proposés sont inclus dans la boîte à outils logicielle CONTSID pour Matlab et sont évalués à l’aide de simulation de Monte-Carlo
The output of a system is always corrupted by additive noise, therefore it is more practical to develop estimation algorithms that are capable of handling noisy data. The effect of white additive noise has been widely studied, while a colored additive noise attracts less attention, especially for a continuous-time (CT) noise. Sampling issues of CT stochastic processes are reviewed in this thesis, several sampling schemes are presented. Estimation of a CT stochastic process is studied. An expectation-maximization-based (EM) method to CT autoregressive/autoregressive moving average model is developed, which gives accurate estimation over a large range of sampling interval. Estimation of CT Box-Jenkins models is also considered in this thesis, in which the noise part is modeled to improve the performance of plant model estimation. The proposed method for CT Box-Jenkins model identification is in a two-step and iterative framework. Two-step means the plant and noise models are estimated in a separate and alternate way, where in estimating each of them, the other is assumed to be fixed. More specifically, the plant is estimated by refined instrumental variable (RIV) method while the noise is estimated by EM algorithm. Iterative means that the proposed method repeats the estimation procedure several times until a optimal estimate is found. Many practical systems have inherent time-delay. The problem of identifying delayed systems are of great importance for analysis, prediction or control design. The presence of a unknown time-delay greatly complicates the parameter estimation problem, essentially because the model are not linear with respect to the time-delay. An approach to continuous-time model identification of time-delay systems, combining a numerical search algorithm for the delay with the RIV method for the dynamic has been developed in this thesis. In the proposed algorithm, the system parameters and time-delay are estimated reciprocally in a bootstrap manner. The time-delay is estimated by an adaptive gradient-based method, whereas the system parameters are estimated by the RIV method. Since numerical method is used in this algorithm, the bootstrap method is likely to converge to local optima, therefore a low-pass filter has been used to enlarge the convergence region for the time-delay. The performance of the proposed algorithms are evaluated by numerical examples
APA, Harvard, Vancouver, ISO, and other styles
4

Ricciardi, Celsi Lorenzo. "Commande non linéaire multi-agents : applications aux systèmes en réseau." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS017/document.

Full text
Abstract:
L'objectif de cette thèse de doctorat est (i) d'étudier et de développer des méthodes d’analyse et de commande de systèmes de contrôle en réseau linéaires et non linéaires et (ii) de montrer le potentiel de ces approches dans des applications complexes pertinentes. À cet égard, la théorie des systèmes à plusieurs agents, la théorie des graphes algébriques et le consensus sont des outils méthodologiques les plus intéressants. Une attention particulière est accordée à la caractérisation des relations entre, d'une part, la topologie du graphe de communication qui sous-tend l'évolution du système à plusieurs agents considéré et, d'autre part, les propriétés spectrales de la matrice Laplacienne associée au graphe lui-même. Le contrôle d'un groupe d'agents autonomes est étudié sous différents angles. Le principal objectif de contrôle est de s’assurer que les agents travaillent ensemble de manière coopérative, où la coopération représente la relation étroite entre tous les agents de l'équipe, le partage de l'information jouant un rôle important. En particulier, beaucoup de problèmes de consensus/accord/ synchronisation /rendez-vous sont étudiés afin de guider un groupe d’agents vers un état commun. Le consensus est étudié dans un contexte à temps discret parce que la dynamique du système est en général continue alors que les mesures et les entrées de contrôle sont des données échantillonnées. En outre, la théorie des jeux est utilisée pour faire face aux problèmes de coordination distribués à plusieurs agents, avec une application aux réseaux connus sous le nom de Software Defined Networks. À cet égard, on peut montrer que, sous des protocoles correctement conçus, les joueurs convergent vers un équilibre unique de Wardrop. On concentre l’attention sur le contrôle distribué, car cette approche présente des avantages évidents par rapport à la centralisation, comme l'évolutivité et la robustesse. Pourtant, le contrôle distribué a également ses propres inconvénients : avant tout, un inconvénient est que chaque agent ne peut pas prédire efficacement le comportement global du groupe en se basant uniquement sur des informations locales. Une certaine attention est également accordée à la nécessité de sécuriser les réseaux électriques contre le danger des attaques cyber-physiques grâce au développement de technologies d'intelligence distribuée. À cet égard, sur la base de topologies de réseaux d'énergie réalistes, nous présentons brièvement la conception d'un schéma de protection contre les attaques dynamiques à un point et à points multiples en boucle fermée. Nous formulons et résolvons un problème d'optimisation non convexe soumis à une contrainte de stabilité de Lyapunov pour la représentation à plusieurs agents autonome d'un réseau électrique obtenue après la linéarisation et l'application des lois d’attaque et de contrôle de fréquence. Finalement, nous présentons des résultats obtenus sur : le pilotage exact de la dynamique non linéaire finie à données échantillonnées avec des retards sur les entrées, au sujet de la stabilisation à données échantillonnées et de la poursuite de l'orbite quasi-halo autour du point de libration translunaire L₂, et au sujet des algorithmes heuristiques basés sur des méthodes d'apprentissage par renforcement à plusieurs agents capables d'effectuer un contrôle adaptatif optimal de qualité de service / qualité de l’expérience dans des scénarios sans modèle
The objective of this PhD thesis is (i) to investigate and develop methods for the analysis and design of linear and nonlinear networked control systems and (ii) to show the potential of such approaches in relevant complex applications. In this respect, multi-agent systems theory, algebraic graph theory and consensus are the most interesting methodological tools, and specific attention is paid to the characterization of the relationships between, on the one hand, the topology of the communication graph that underlies the evolution of the considered multiagent system and, on the other hand, the spectral properties of the Laplacian matrix associated with the graph itself. The control of a group of autonomous agents is investigated from different perspectives. The main control objective is to make sure that the agents work together in a cooperative fashion, where cooperation accounts for the close relationship among all agents in the team, with information sharing playing an important role. In particular, various problems regarding consensus/agreement/synchronization/rendezvous are investigated with the specific aim of driving a group of agents to some common state. Consensus is investigated in a discrete-time setting due to the fact that the system dynamics is normally continuous while the measurements and control inputs might only be made in a sampled-data setting. Moreover, game theory is relied upon in order to cope with distributed multi-agent coordination problems, with application to Software Defined Networks. In this respect, it can be shown that, under properly designed protocols, the players converge to a unique Wardrop equilibrium. We focus on distributed control, since this approach shows obvious benefits over centralization, such as scalability and robustness. Yet, it also has its own drawbacks: among all, one drawback is that each agent cannot effectively predict the overall group behaviour based on only local information. Some attention is also devoted to the need for securing power grids against the danger of cyber-physical attacks through the development of distributed intelligence technologies accompanied by appropriate security enforcements. In this respect, based on realistic power network topologies, we briefly present the design of a protection scheme against closed-loop single-point and multi-point dynamic load altering attacks. This is done by formulating and solving a non-convex optimization problem subject to a Lyapunov stability constraint for the autonomous multiagent representation of a power system obtained after linearization and application of the attack and frequency control laws. Eventually, we show some other results achieved in terms of the exact steeering of finite sampled nonlinear dynamics with input delays, of sampled-data stabilization and quasi-halo orbit following around the L₂ translunar libration point, and of heuristic algorithms based on multi-agent reinforcement learning methods capable of performing optimal adaptive Quality of Service/Quality of Experience control in model-free scenarios
APA, Harvard, Vancouver, ISO, and other styles
5

Louis, Julien. "Discrétisation des systèmes de Lur'e : stabilisation et consistance." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0080/document.

Full text
Abstract:
De récents résultats sur l’étude des systèmes de Lur’e (commutés) à temps discret mettent en avant une fonction de Lyapunov de type Lur’e avancée, dont les lignes de niveau peuvent être non convexes et non connexes. Celles-ci soulèvent de larges questions pour les systèmes de Lur’e à temps discret obtenus par la discrétisation d’un système continu. Les contributions de cette thèse sont d’apporter des éléments de réponse à ces questions. Tout d’abord, le verrou des lignes de niveau non-connexes est levé en construisant à partir de celles-ci une suite décroissante d’ensembles connexes et bornés qui converge vers l’origine et qui contient le futur de la trajectoire à temps continu. Dans un second temps, le problème de la stabilisation conjointe d’un système de Lur’e à données échantillonnées avec un échantillonnage non-uniforme est traité. Quand la période d’échantillonnage est à choisir parmi un nombre fini de valeurs, il est montré que ce problème se traduit comme la stabilisation conjointe d’un système commuté de Lur’e avec des incertitudes bornées en norme. En associant de plus à chaque mode un critère quadratique, une stratégie de type min-switching permet de résoudre cette question à l’aide d’un problème d’optimisation sous contraintes LMI. Enfin, les propriétés de la stratégie de min-switching pour les systèmes de Lur’e commutés à temps discret sont étudiées. Une extension de la notion de consistance permet de prouver que cette stratégie est consistante vis-à-vis de majorants quadratiques modaux du critère de performance et ainsi de garantir l’intérêt de la stratégie d’échantillonnage non-uniforme développée
Recent studies dealing with discrete-time (switched) Lur’e systems involve an adapted Lur’e type function exhibiting possibly non-convex and disconnected level sets. These properties raise fundamental issues in the case of discrete-time Lur’e system obtained by the sampling of a continuous time one. This PhD thesis aims at answering these questions. The first contribution is to avoid the discrete-time disconnected level sets by a decreasing sequence of bounded and connected sets that converges to the origin and that contain the future of the continuous-time trajectory. The second contribution deals with the joint stabilization of a sampled-data Lur’e system with non-uniform sampling. When the sampling period belongs to a finite set of values, this problem is reformulated as the joint stabilization of a discrete-time Lur’e switched system with norm-bounded uncertain parameters. Futhermore, if a quadratic criterion is associated with each mode, a min-switching strategy combined with LMI constraints allow to provide a solution to this problem. Finally the property of consistency for discrete-time switched Lur’e systems is investigated. It is shown that the min-switching strategy is consistent with respect to quadratic upper bounds of the performances. This result is applied on the stabilization of Lur’e systems with non-uniform sampling
APA, Harvard, Vancouver, ISO, and other styles
6

Mizere, Dominique. "Contributions à la modélisation et à l'analyse statistique des données de dénombrement." Pau, 2006. http://www.theses.fr/2006PAUU3001.

Full text
Abstract:
Le modèle de Poisson est un modèle repère pour l'analyse statistique des données de dénombrement. Quelquefois, les données de dénombrement présentent une surdispersion ou une sousdispersion résultant du manque d'adéquation du modèle de Poisson. L'objet principal de ce travail est de présenter une vue d'ensemble des modèles probabilistes qui peuvent fournir un cadre unifié pour l'analyse statistique des données de dénombrement, parmi lesquels, les modèles de Katz et de Poisson pondéré. Certains modèles de Poisson pondérés seront ajustés à des données collectées en République du Congo et relatives à un échantillon d'aleurodes Aleurodicus dispersus Russell (Homoptera : Aleyrodidae) décrit par les variables : durée de développement préimaginal (de l'oeuf à l'adulte) mesurée en nombre de jours, longévité (mesurée en nombre de jours) et nombre de jours de ponte. Le problème de la régression linéaire entre ces variables fera aussi l'objet d'une discussion. Nous allons par la suite évaluer les performances de quelques procédures de tests statistiques destinées à valider l'adéquation de la loi de Poisson avec les données de dénombrement contre des alternatives générales de surdispersion ou de sousdispersion. Ainsi, nous comparons le test du Chideux de Pearson à des tests construits à partir des statistiques obtenues par l'application d'une transformation de BoxCox à l'indice de dispersion de Fisher ou de son inverse
The Poisson model is a benchmark model for the statistical analysis of the count data. Sometimes count data exhibit overdispersion or underdispersion resulting in the lack of the Poisson model. The aim of this work is to present an overview of the probability models that can provide alternative framework for the statistical analysis of count data, among others, Katz's model and the weighted Poisson model. Some weighted Poisson models will be fitted on the data collected in Republic of Congo and related to a sample of spiraling whitefly Aleurodicus dispersus Russell (Homoptera : Aleyrodidae) described by the preimaginal span (from eggs to adult stage) measured on days, the total number of eggs and the laying span. The linear regression issue between these three variables will be discussed as well. We must afterwards evaluate the performances of some tests procedures devoted to valid the fitness of count data by Poisson distribution against general alternatives of overdispersion or underdispersion. Thus, we compare the Chisquare test of Pearson to tests constructed from statistics which are obtained by the BoxCox transformation of Fisher dispersion index and of its inverse
APA, Harvard, Vancouver, ISO, and other styles
7

Dhar, Gaurav. "Contributions en théorie du contrôle échantillonné optimal avec contraintes d’état et données non lisses." Thesis, Limoges, 2020. http://www.theses.fr/2020LIMO0050.

Full text
Abstract:
L’objectif de cette thèse est d’obtenir des conditions nécessaires d’optimalité du premier ordre sous la forme d’un principe du maximum de Pontryagin (en abrégé PMP) pour des problèmes de contrôle échantillonné optimal avec temps d’échantillonnage libres, contraintes d’état et coûts de Mayer non lisses. Le Chapitre 1 est consacré aux notations et espaces fonctionnels utiles pour décrire les problèmes de contrôle échantillonné optimal qui seront rencontrés dans le manuscrit. Dans le Chapitre 2, nous obtenons une condition nécessaire d’optimalité lorsque les temps d’échantillonnage peuvent être choisis librement qui est appelée condition de continuité de la fonction Hamiltonienne. Rappelons que la fonction Hamiltonienne qui décrit l’évolution du Hamiltonien avec les valeurs de la trajectoire optimale et du contrôle échantillonné optimal est, en général, discontinue quand les temps d’échantillonnage sont fixés. Notre résultat démontre que la continuité de la fonction Hamiltonienne est retrouvée pour les contrôles échantillonnés optimaux avec temps d’échantillonnage optimaux. Pour terminer, nous implémentons une méthode de tir basée sur la condition de continuité de la fonction Hamiltonienne pour déterminer numériquement les temps d’échantillonnage optimaux dans deux exemples linéaires-quadratiques. Dans le Chapitre 3, nous obtenons un PMP pour des problèmes de contrôle échantillonné optimal avec contraintes d’état. Nous obtenons que les vecteurs adjoints sont solutions de problèmes de Cauchy-Stieltjes définis par des mesures de Borel associées à des fonctions à variation bornée. De plus, nous trouvons que, sous quelques hypothèses assez générales, toute trajectoire admissible (associée à un contrôle échantillonné) rebondit nécessairement sur les contraintes d’état. Nous exploitons ce phénomène de trajectoires rebondissantes pour implémenter une méthode indirecte qu’on utilise pour résoudre numériquement quelques exemples simples de problèmes de contrôle échantillonné optimal avec contraintes d’état. Dans le Chapitre 4, nous obtenons un PMP pour des problèmes de contrôle échantillonné optimal avec coûts de Mayer non lisses. Notre preuve est uniquement basée sur les outils de l’analyse non lisse et n’utilise aucune technique de régularisation. Nous déterminons l’existence d’une sélection dans le sous-différentiel de la fonction de coût de Mayer non lisse en établissant un résultat plus général sur l’existence d’un vecteur séparant universel pour les ensembles convexes compacts. En appliquant ce résultat, appelé théorème de vecteur séparant universel, nous obtenons un PMP pour des problèmes de contrôle échantillonné optimal avec coûts de Mayer non lisses où la condition de transversalité sur le vecteur adjoint est donnée par une inclusion dans le sous-différentiel de la fonction de coût de Mayer non lisse. Pour obtenir les conditions d’optimalité sous la forme d’un PMP, nous utilisons différentes techniques de perturbation sur le contrôle optimal. Pour traiter les contraintes d’état, nous pénalisons la distance à ces contraintes dans une fonctionnelle et nous appliquons le principe variationnel d’Ekeland. En particulier, nous invoquons des résultats sur la renormalisation des espaces de Banach pour assurer la régularité de la fonction distance dans les contextes de dimension infinie. Enfin nous utilisons des notions standards de l’analyse non lisse, telles que les dérivées directionnelles généralisées de Clarke et le sous-différentiel de Clarke, pour étudier les problèmes de contrôle échantillonné optimal avec coûts de Mayer non lisses
This dissertation is concerned with first-order necessary optimality conditions in the form of a Pontryagin maximum principle (in short, PMP) for optimal sampled-data control problems with free sampling times, running inequality state constraints and nonsmooth Mayer cost functions.Chapter 1 is devoted to notations and basic framework needed to describe the optimal sampled-data control problems to be encountered in the manuscript. In Chapter 2, considering that the sampling times can be freely chosen, we obtain an additional necessary optimality condition in the PMP called the Hamiltonian continuity condition. Recall that the Hamiltonian function, which describes the evolution of the Hamiltonian taking values of the optimal trajectory and of theoptimal sampled-data control, is in general discontinuous when the sampling times are fixed. Our result proves that the continuity of the Hamiltonian function is recovered in the case of optimal sampled-data controls with optimal sampling times. Finally we implement a shooting method based on the Hamiltonian continuity condition in order to numerically determine the optimal sampling times in two linear-quadratic examples.In Chapter 3, we obtain a PMP for optimal sampled-data control problems with running inequality state constraints. In particular we obtain that the adjoint vectors are solutions to Cauchy-Stieltjes problems defined by Borel measures associated to functions of bounded variation. Moreover, we find that, under certain general hypotheses, any admissible trajectory (associated to a sampled-data control) necessarily bounces on the runningine quality state constraints. Taking advantage of this bouncing trajectory phenomen on, we are able to use thePMP to implement an indirect numerical method which we use to numerically solve some simple examples of optimal sampled-data control problems with running inequality state constraints. In Chapter 4, we obtain a PMP for optimal sampled-data control problems with nonsmooth Mayer cost functions. Our proof directly follows from the tools of nonsmooth analysis and does not involve any regularization technique. We determine the existence of a selection in the subdifferential of the nonsmooth Mayer cost function by establishing a more general result asserting the existence a universal separating vector for a given compact convex set. From the application of this result, which is called universal separating vector theorem, we obtain a PMP for optimal sampled-data control problems with nonsmooth Mayer cost functions where the transversality conditon on the adjoint vector is given by an inclusion in the subdifferential of the nonsmooth Mayer cost function.To obtain the optimality conditions in the form of a PMP, we use different techniques of perturbations of theoptimal control. In order to handle the state constraints, we penalize the distance to them in a corresponding cost functional and then apply the Ekeland variational principle. In particular, we invoke some results on renorming Banach spaces in order to ensure the regularity of distance functions in the infinite-dimensional context. Finally we use standard notions in nonsmooth analysis such as the Clarke generalized directional derivative and theClarke subdifferential to study optimal sampled-data control problems with nonsmooth Mayer cost functions
APA, Harvard, Vancouver, ISO, and other styles
8

Sahuguède, Alexandre. "Un algorithme de découverte de chroniques pertinentes pour le diagnostic par identification et reconstitution." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30166.

Full text
Abstract:
Les chroniques sont des schémas temporels particulièrement bien adaptés pour une représentation de modèles complexes et dynamiques. Des algorithmes de reconnaissance de chroniques permettent d'identifier des chroniques dans un flux de données en ligne et de prendre des actions adéquates de manière rapide et efficace. Les chroniques peuvent être utilisées dans des domaines d'applications divers, tels que le domaine médical, les réseaux internets, ou encore des applications industrielles. Néanmoins, la construction des chroniques n'est pas chose aisée en raison de la complexification et de l'augmentation des capacités de génération de données des systèmes modernes. Le processus de découverte de chroniques a pour objectif de répondre à cette problématique en construisant de manière automatique des chroniques à partir des données directement générées par le système étudié. Dans ce mémoire de thèse, une approche innovante à la problématique de la découverte de chroniques est abordée. Cette nouvelle approche repose sur une identification de chroniques élémentaires et une reconstitution de chroniques plus complexes à partir de celles-ci. L'algorithme proposé, appelé CDIRe (Chronicle Discovery by Identification and Reconstitution), permet de découvrir des chroniques avec peu de connaissance sur le système sous-jacent
Chronicles are temporal patterns well-suited for an abstract representation of complex dynamic systems. Chronicle recognition algorithms allow the identification of chronicles in an on-line stream of data to be done and take adequate action in an quick and efficient manner. Chronicles are used in a vast array of applications such as medical field, internet networks, or industrial applications. Nevertheless, designing chronicles is not an easy task due to the sophistication and the increase of data generation capacity of modern systems. The chronicle discovery process try and tackle this problem by an automatic design of chronicles from data directly generated by the studied system. In this thesis, an innovative approach to the problem of chronicle discovery is introduced. This new approach lies of the identification of elementary chronicles and a reconstitution of complex chronicles from them. The algorithm introduced, called CDIRe (Chronicle Discovery by Identification and Reconstitution), allows the discovery of chronicles with few knowledge from the underlying system to be done
APA, Harvard, Vancouver, ISO, and other styles
9

Dewalle, Anne-Sophie. "Nouvelles approches de traitement du signal et de l'image en IRM fonctionnelle d'activation cérébrale." Lille 1, 2006. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/c3ff9e5f-e824-4cc2-a6ea-a22cb4383bc2.

Full text
Abstract:
L'IRM fonctionnelle d'activation cérébrale a pour but d'étudier et d'identifier les régions du cerveau impliquées dans des activités stimulées, ceci à des fins cliniques ou de recherche fondamentale. Le sujet est soumis à un enchaînement de phases d'activation et de repos, tandis que l'on effectue simultanément l'acquisition rapide d'un très grand nombre d'images IRM. La problématique consiste à trouver un modèle explicatif des variations observées dans les images, à en estimer les paramètres et à déterminer les régions activées. Dans la théorie des systèmes, l'une des nombreuses méthodes proposées, le cerveau est représenté comme une "boîte noire" dont on cherche à estimer la réponse impulsionnelle. Comme le système est mal conditionné, les solutions sont instables et des connaissances a priori sont introduites afin de régulariser la solution. Nous avons reconsidéré le problème sans introduire d'a priori. Le modèle choisi est dynamique, à temps discret, non paramétrique, multi-variable, stochastique, linéaire et à coefficients invariants. Des méthodes de déconvolution et de réalisation ont été appliquées afin d'estimer la réponse impulsionnelle en chacun des voxels. Nous avons étudié l'influence de la nature du bruit et de sa modélisation. Nous avons considéré le bruit comme la somme d'un bruit blanc, de moyenne nulle et de variance inconnue, et d'un bruit physiologique, modélisé par une combinaison linéaire de fonctions sinusoïdales basses fréquences. Le problème, toujours mal conditionné, mène à une infinité de solutions et nous avons retenu la réponse impulsionnelle de plus petite norme correspondant à une hypothèse de consommation minimum d'énergie. D'autres développements ont également été effectués dans le prétraitement des images et dans l'amélioration de techniques standard d'analyse statistique
APA, Harvard, Vancouver, ISO, and other styles
10

Treangle, Clement. "Observateurs grand gain pour des systèmes non linéaires à sorties échantillonnées et retardées." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC251/document.

Full text
Abstract:
Ce manuscrit porte sur la synthèse d'observateurs grand gain pour des systèmes non linéaires à sorties échantillonnées et retardées. Trois contributions sont proposées à la lecture de ce manuscrit. La première contribution, pour une classe de systèmes Multi-entrées / Multi-sorties uniformément observables et dont les sorties sont regroupées en un seul bloc, met en jeu le problème du processus d'acquisition des mesures de sorties (continues, échantillonnées, retardées ou non) et propose un cadre commun pour l'ensemble des cas possibles. La deuxième contribution propose un observateur grand gain filtré sur cette même classe de systèmes dans l'optique de réduire la sensibilité au bruit de mesure, dans le cas où la sortie est continue puis dans le cas où cette dernière est échantillonnée. La dernière contribution vise à étendre la synthèse grand gain standard pour une large classe de systèmes Multi-entrées / Multi-sorties uniformément observables dont les mesures des sorties sont continues. Pour chacune de ces contributions, il a été montré que l'erreur d'observation de chacun des observateurs proposés converge exponentiellement vers zéro en l'absence d'incertitudes sur le système. Toutes ces contributions ont été illustrées par différents exemples issus de plusieurs domaines d'étude
This manuscript deals with the synthesis of high gain observers for nonlinear systems with sampled and delayed outputs. Three contributions are proposed for consideration in this manuscript. The first contribution, for a class of Multi-input / Multi-output systems whose outputs are grouped into a single block, involves the problem of the acquisition process of output measurements (continuous, sampled, delayed or not) and proposes a common framework for all possible cases. The second contribution proposes a filtered high gain observer on this same class of systems in order to reduce the sensitivity to measurement noise, in the case where the output is continuous and then in the case where the latter is sampled. The last contribution aims to extend the standard high gain synthesis for a large class of uniformly observable Multi-input / Multi-output systems with continuous output measurements. For each of these contributions, it has been shown that the observation error of each of the proposed observers converges exponentially towards zero in the absence of uncertainties in the system. All these contributions have been illustrated through several examples from different fields of study
APA, Harvard, Vancouver, ISO, and other styles
11

Yacoub, Aznam. "Une approche de vérification formelle et de simulation pour les systèmes à événements : application à PROMELA." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4373/document.

Full text
Abstract:
De nos jours, la mise au point de logiciels ou de systèmes fiables est de plus en plus difficile. Les nouvelles technologies impliquent de plus en plus d'interactions entre composants complexes, dont l'analyse et la compréhension deviennent de plus en plus délicates. Pour pallier ce problème, les domaines de la vérification et de la validation ont connu un bond significatif avec la mise au point de nouvelles méthodes, réparties en deux grandes familles : la vérification formelle et la simulation. Longtemps considérées comme à l'opposée l'une de l'autre, les recherches récentes essaient de rapprocher ces deux grandes familles de méthodologies. Dans ce cadre, les travaux de cette thèse proposent une nouvelle approche pour intégrer la simulation dites à évènements discrets aux méthodes formelles. L'objectif est d'améliorer les méthodes formelles existantes, en les combinant à la simulation, afin de leur permettre de détecter des erreurs qu'elles ne pouvaient déceler avant, notamment sur des systèmes temporisés. Cette approche nous a conduit à la mise au point d'un nouveau langage formel, le DEv-PROMELA. Ce nouveau langage, créé à partir du PROMELA et du formalisme DEVS, est à mi-chemin entre un langage de spécifications formelles vérifiables et un formalisme de simulation. En combinant alors un model-checking traditionnel et une simulation à évènements discrets sur le modèle exprimé dans ce nouveau langage, il est alors possible de détecter et de comprendre des dysfonctionnements qu'un model-checking seul ou qu'une simulation seule n'auraient pas permis de trouver. Ce résultat est notamment illustré à travers les différents exemples étudiés dans ces travaux
Nowadays, making reliable software and systems is become harder. New technologies imply more and more interactions between complex components, whose the analysis and the understanding are become arduous.To overcome this problem, the domains of verification and validation have known a significant progress, with the emergence of new automatic methods that ensure reliability of systems. Among all these techniques, we can find two great families of tools : the formal methods and the simulation. For a long time, these two families have been considered as opposite to each other. However, recent work tries to reduce the border between them. In this context, this thesis proposes a new approach in order to integrate discrete-event simulation in formal methods. The main objective is to improve existing model-checking tools by combining them with simulation, in order to allow them detecting errors that they were not previously able to find, and especially on timed systems. This approach led us to develop a new formal language, called DEv-PROMELA. This new language, which relies on the PROMELA and on the DEVS formalism, is like both a verifiable specifications language and a simulation formalism. By combining a traditional model-checking and a discrete-event simulation on models expressed in DEv-PROMELA, it is therefore possible to detect and to understand dysfunctions which could not be found by using only a formal checking or only a simulation. This result is illustrated through the different examples which are treated in this work
APA, Harvard, Vancouver, ISO, and other styles
12

Jawad, Mohamed. "Confidentialité de données dans les systèmes P2P." Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00638721.

Full text
Abstract:
Les communautés en ligne pair-a-pair (P2P), comme les communautés professionnelles (p. ex., médicales ou de recherche) deviennent de plus en plus populaires a cause de l'augmentation des besoins du partage de données. Alors que les environnements P2P offrent des caractéristiques intéressantes (p. ex., passage a l'échelle, disponibilité, dynamicité), leurs garanties en termes de protection des données sensibles sont limitées. Ils peuvent être considérés comme hostiles car les données publiées peuvent être consultées par tous les pairs (potentiellement malicieux) et utilisées pour tout (p. ex., pour le commerce illicite ou tout simplement pour des activités contre les préférences personnelles ou éthiques du propriétaire des données). Cette thèse propose un service qui permet le partage de données sensibles dans les systèmes P2P, tout en assurant leur confidentialité. La première contribution est l'analyse des techniques existant pour la confidentialité de données dans les architectures P2P. La deuxième contribution est un modèle de confidentialité, nommé PriMod, qui permet aux propriétaires de données de spécifier leurs préférences de confidentialité dans de politiques de confidentialité et d'attacher ces politiques a leurs données sensibles. La troisième contribution est le développement de PriServ, un service de confidentialité, basé sur une DHT qui met en oeuvre PriMod afin de prévenir la violation de la confidentialité de données. Entre autres, PriServ utilise de techniques de confiance pour prédire le comportement des pairs.
APA, Harvard, Vancouver, ISO, and other styles
13

Janyene, Abderrahmane. "Validation de données des systèmes dynamiques linéaires." Nancy 1, 1987. http://www.theses.fr/1987NAN10190.

Full text
Abstract:
Étude d'une méthode de validation de données dans les unités de production industrielle dont le fonctionnement est caractérisé par des systèmes dynamiques linéaires, ceci en présence de toutes les mesures de grandeurs, dans un 1**(ER) temps, et avec des mesures manquantes, ensuite
APA, Harvard, Vancouver, ISO, and other styles
14

Abdali, Abdelkebir. "Systèmes experts et analyse de données industrielles." Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0032.

Full text
Abstract:
L'analyse du fonctionnement des Systèmes de Production Industrielle s'appuie sur des informations de natures diverses. Une bonne partie d'entre elles se présentant sous forme numérisée, on leur applique des méthodes d'analyse des données dont les résultats doivent être confrontés, puis interprétés à l'aide des autres connaissances. Notre travail s'insère dans le cadre de l'application des techniques de l'Intelligence Artificielle à la Statistique. Il vise en particulier à étudier la faisabilité et le développement d'un Système Expert Statistique dans le domaine des Systèmes de Production Industrielle. Nous avons élaboré ALADIN (Aide Logicielle pour l'Analyse de Données Industrielles), un système destiné à aider un utilisateur non-spécialiste à analyser des données recueillies sur des procédés industriels. L'architecture de ce système est flexible et allie aspect qualitatif (connaissances sur les procédés industriels et connaissances sur les méthodes statistiques et d'analyse de données) et aspect quantitatif (collection de programmes d'analyse). Pour l'instant, nous nous sommes limités aux problèmes d'Analyse en Composantes Principales. Outre l'aspect industriel, ALADIN présente l'avantage de fournir une assistance au niveau de chacun des nombreux maillons de la conduite d'une analyse de données et particulièrement en amont de l'analyse proprement dite i. E. Lors de la phase de prétraitement et de préparation des données: cette étape, toujours nécessaire compte tenu de la nature des mesures, est en effet généralement longue et fastidieuse
To analyses industrial process behavio, many kinds of information are needed. As tye ar mostly numerical, statistical and data analysis methods are well-suited to this activity. Their results must be interpreted with other knowledge about analysis prcess. Our work falls within the framework of the application of the techniques of the Artificial Intelligence to the Statistics. Its aim is to study the feasibility and the development of statistical expert systems in an industrial process field. The prototype ALADIN is a knowledge-base system designed to be an intelligent assistant to help a non-specialist user analyze data collected on industrial processes, written in Turbo-Prolong, it is coupled with the statistical package MODULAD. The architecture of this system is flexible and combing knowledge with general plants, the studied process and statistical methods. Its validation is performed on continuous manufacturing processes (cement and cast iron processes). At present time, we have limited to principal Components analysis problems
APA, Harvard, Vancouver, ISO, and other styles
15

Tos, Uras. "Réplication de données dans les systèmes de gestion de données à grande échelle." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30066/document.

Full text
Abstract:
Ces dernières années, la popularité croissante des applications, e.g. les expériences scientifiques, Internet des objets et les réseaux sociaux, a conduit à la génération de gros volumes de données. La gestion de telles données qui de plus, sont hétérogènes et distribuées à grande échelle, constitue un défi important. Dans les systèmes traditionnels tels que les systèmes distribués et parallèles, les systèmes pair-à-pair et les systèmes de grille, répondre à des objectifs tels que l'obtention de performances acceptables tout en garantissant une bonne disponibilité de données constituent des objectifs majeurs pour l'utilisateur, en particulier lorsque ces données sont réparties à travers le monde. Dans ce contexte, la réplication de données, une technique très connue, permet notamment: (i) d'augmenter la disponibilité de données, (ii) de réduire les coûts d'accès aux données et (iii) d'assurer une meilleure tolérance aux pannes. Néanmoins, répliquer les données sur tous les nœuds est une solution non réaliste vu qu'elle génère une consommation importante de la bande passante en plus de l'espace limité de stockage. Définir des stratégies de réplication constitue la solution à apporter à ces problématiques. Les stratégies de réplication de données qui ont été proposées pour les systèmes traditionnels cités précédemment ont pour objectif l'amélioration des performances pour l'utilisateur. Elles sont difficiles à adapter dans les systèmes de cloud. En effet, le fournisseur de cloud a pour but de générer un profit en plus de répondre aux exigences des locataires. Satisfaire les attentes de ces locataire en matière de performances sans sacrifier le profit du fournisseur d'un coté et la gestion élastiques des ressources avec une tarification suivant le modèle 'pay-as-you-go' d'un autre coté, constituent des principes fondamentaux dans les systèmes cloud. Dans cette thèse, nous proposons une stratégie de réplication de données pour satisfaire les exigences du locataire, e.g. les performances, tout en garantissant le profit économique du fournisseur. En se basant sur un modèle de coût, nous estimons le temps de réponse nécessaire pour l'exécution d'une requête distribuée. La réplication de données n'est envisagée que si le temps de réponse estimé dépasse un seuil fixé auparavant dans le contrat établi entre le fournisseur et le client. Ensuite, cette réplication doit être profitable du point de vue économique pour le fournisseur. Dans ce contexte, nous proposons un modèle économique prenant en compte aussi bien les dépenses et les revenus du fournisseur lors de l'exécution de cette requête. Nous proposons une heuristique pour le placement des répliques afin de réduire les temps d'accès à ces nouvelles répliques. De plus, un ajustement du nombre de répliques est adopté afin de permettre une gestion élastique des ressources. Nous validons la stratégie proposée par une évaluation basée sur une simulation. Nous comparons les performances de notre stratégie à celles d'une autre stratégie de réplication proposée dans les clouds. L'analyse des résultats obtenus a montré que les deux stratégies comparées répondent à l'objectif de performances pour le locataire. Néanmoins, une réplique de données n'est crée, avec notre stratégie, que si cette réplication est profitable pour le fournisseur
In recent years, growing popularity of large-scale applications, e.g. scientific experiments, Internet of things and social networking, led to generation of large volumes of data. The management of this data presents a significant challenge as the data is heterogeneous and distributed on a large scale. In traditional systems including distributed and parallel systems, peer-to-peer systems and grid systems, meeting objectives such as achieving acceptable performance while ensuring good availability of data are major challenges for service providers, especially when the data is distributed around the world. In this context, data replication, as a well-known technique, allows: (i) increased data availability, (ii) reduced data access costs, and (iii) improved fault-tolerance. However, replicating data on all nodes is an unrealistic solution as it generates significant bandwidth consumption in addition to exhausting limited storage space. Defining good replication strategies is a solution to these problems. The data replication strategies that have been proposed for the traditional systems mentioned above are intended to improve performance for the user. They are difficult to adapt to cloud systems. Indeed, cloud providers aim to generate a profit in addition to meeting tenant requirements. Meeting the performance expectations of the tenants without sacrificing the provider's profit, as well as managing resource elasticities with a pay-as-you-go pricing model, are the fundamentals of cloud systems. In this thesis, we propose a data replication strategy that satisfies the requirements of the tenant, such as performance, while guaranteeing the economic profit of the provider. Based on a cost model, we estimate the response time required to execute a distributed database query. Data replication is only considered if, for any query, the estimated response time exceeds a threshold previously set in the contract between the provider and the tenant. Then, the planned replication must also be economically beneficial to the provider. In this context, we propose an economic model that takes into account both the expenditures and the revenues of the provider during the execution of any particular database query. Once the data replication is decided to go through, a heuristic placement approach is used to find the placement for new replicas in order to reduce the access time. In addition, a dynamic adjustment of the number of replicas is adopted to allow elastic management of resources. Proposed strategy is validated in an experimental evaluation carried out in a simulation environment. Compared with another data replication strategy proposed in the cloud systems, the analysis of the obtained results shows that the two compared strategies respond to the performance objective for the tenant. Nevertheless, a replica of data is created, with our strategy, only if this replication is profitable for the provider
APA, Harvard, Vancouver, ISO, and other styles
16

Voisard, Agnès. "Bases de données géographiques : du modèle de données à l'interface utilisateur." Paris 11, 1992. http://www.theses.fr/1992PA112354.

Full text
Abstract:
Les systemes d'information geographiques (sig) servent de support aux applications qui manipulent des donnees geographiques, telles que la planification urbaine, la regulation de la circulation, la gestion des ressources naturelles. Les problemes majeurs poses par la realisation de sig sont lies d'une part a la gestion d'un gros volume de donnees, d'autre part a la coexistence de deux types de donnees: la description des cartes (donnees alphanumeriques) et leur spatialite (geometrie et topologie). Les donnees spatiales posent de plus un double probleme car elles doivent etre manipulees par des operations specifiques et leur structuration est complexe et eminemment variable. Pour stocker, interroger et manipuler les donnees, les sig peuvent utiliser des systemes de gestion de bases de donnees (sgbd) dotes de fonctionnalites particulieres pour gerer des donnees spatiales. Notre travail a tout d'abord porte sur les problemes de modelisation de l'information geographique et a abouti a la proposition d'un modele original, base sur un modele a objets complexes, pour applications manipulant des cartes thematiques. Pour valider ce modele, nous avons implemente une maquette de sig au-dessus du prototype de sgrd oriente-objet o2. Cette experience nous a permis de degager des enseignements multiples. En particulier, la conception d'interfaces utilisateurs specifiques aux sig s'est averee etre une tache indispensable et complexe. Cette constatation a conduit a la proposition d'un modele d'interface pour concepteurs d'applications geographiques, premiere etape vers une boite a outils permettant de manipuler une large gamme d'applications geographiques. Les systemes d'information geographique et finalement les interfaces pour systemes d'information geographique sont les trois points auxquels nous nous interessons dans cette these
APA, Harvard, Vancouver, ISO, and other styles
17

Jaff, Luaï. "Structures de Données dynamiques pour les Systèmes Complèxes." Phd thesis, Université du Havre, 2007. http://tel.archives-ouvertes.fr/tel-00167104.

Full text
Abstract:
Mon travail porte sur la dynamique de certaines structures de données et sur les systèmes complexes. Nous avons présenté une approche de la combinatoire des tableaux et des permutations basée sur la dynamique. Cette approche, que nous appelons (Structures de Données Dynamiques) nous ouvre
la porte vers des applications en économie via les systèmes complexes.

Les structures de données que nous avons étudiées sont les permutations qui ne contiennent pas de sous-suite croissante de longueur plus que deux, les tableaux de Young standards rectangles à deux lignes, les mots de Dyck et les codes qui lient ces structures de données.

Nous avons proposé un modèle économique qui modélise le bénéfice d'un compte bancaire dont l'énumération des configurations possible se fait à l'aide d'un code adapté. Une seconde application
concerne l'évolution de populations d'automate génétique . Ces populations sont étudiées par analyse spectrale et des expérimentations sont données sur des automates probabilistes dont l'évolution conduit à contrôler la dissipation par auto-régulation.

L'ensemble de ce travail a pour ambition de donner quelques outils calculatoires liés à la dynamique de structures de données pour analyser la complexité des systèmes.
APA, Harvard, Vancouver, ISO, and other styles
18

Delot, Thierry. "Accès aux données dans les systèmes d'information pervasifs." Habilitation à diriger des recherches, Université de Valenciennes et du Hainaut-Cambresis, 2009. http://tel.archives-ouvertes.fr/tel-00443664.

Full text
Abstract:
Le développement des réseaux sans fil et des dispositifs mobiles (ordinateurs portables, PDA communicants, capteurs, etc.) constaté ces dernières années entraine de profondes mutations des applications et des services proposés aux utilisateurs. Nous entrons aujourd'hui dans l'ère de l'informatique pervasive avec pour enjeu de proposer des services et de rendre les données disponibles n'importe où et n'importe quand. Le système d'information n'échappe pas à cette évolution et devient lui aussi pervasif. L'information y est stockée partout, dans différents formats et sur différents types de terminaux interconnectés. Notre travail se concentre sur les problèmes liés à l'accès aux données dans les systèmes d'information pervasifs. Ces systèmes, dits « ambiants », évoluent dans un contexte particulièrement dynamique du fait de la mobilité des utilisateurs et des sources de données qui peuvent apparaître et disparaître à tout moment. Les techniques traditionnellement utilisées pour accéder aux données, dans les bases de données réparties ou les systèmes pair-à-pair par exemple, sont ainsi totalement remises en cause. En effet, la mobilité des sources de données et les possibles déconnexions rendent impossibles la gestion et l'exploitation d'un schéma de placement décrivant la localisation des différentes sources de données accessibles. Dans ce contexte, nous proposons donc de nouvelles techniques d'accès dédiées aux systèmes d'information pervasifs. Plus précisément, nos contributions concernent : - Un modèle d'évaluation et d'optimisation de requêtes dans les environnements pair-à-pair hybrides, associant terminaux mobiles et serveurs fixes, adapté à la mobilité des terminaux et à leurs ressources restreintes (e.g., énergie) - Des techniques de partage d'informations dans les environnements pair-à-pair mobiles, où plus aucune infrastructure fixe n'est exploitable et où les échanges de données reposent sur des interactions directes entre les terminaux. Ces travaux ont été appliqués au contexte de la communication inter-véhicules. - Enfin, notre dernière contribution concerne la proposition de mécanismes d'auto-adaptation permettant à un évaluateur de requêtes de se reconfigurer dynamiquement en fonction des changements de contexte (e.g., connectivité, mobilité, autonomie, etc.), particulièrement fréquents dans les systèmes pervasifs. Nos travaux ont été réalisés dans le cadre de différents projets et ont conduit à la soutenance de plusieurs thèses de doctorat et masters recherche.
APA, Harvard, Vancouver, ISO, and other styles
19

Heraud, Nicolas. "Validation de données et observabilité des systèmes multilinéairesé." Vandoeuvre-les-Nancy, INPL, 1991. http://www.theses.fr/1991INPL082N.

Full text
Abstract:
Le travail présenté concerne la validation de données et l'observabilité des systèmes multilinéaires dans le but d'effectuer le diagnostic de l'instrumentation d'une installation. Après un rappel sur la validation de données et l'observabilité des systèmes linéaires, ces notions sont étendues aux systèmes multilinéaires. Différentes méthodes, telles que le calcul hiérarchisé, la linéarisation des contraintes et les fonctions de pénalisation sont présentées pour l'estimation des valeurs vraies en présence de mesures manquantes. Ces différentes méthodes sont comparées et un algorithme récursif d'estimations utilisant les techniques de linéarisation des contraintes et des fonctions de pénalisation est presenté. La validation de données ne peut être effectuée que sur des systèmes observables. Nous avons donc développé une méthodologie originale, basée sur l'emploi de diagrammes arborescents, qui permet d'extraire les équations du procédé correspondant à sa partie observable. La technique de validation de données a été appliquée avec succès sur un procédé complexe de traitement de minerai d'uranium de la société total compagnie minière France. L'installation partiellement instrumentée permet de disposer de mesures de flux volumique, de masse volumique, de teneur d'uranium dans la phase solide et liquide des flux. Outre l'obtention de données cohérentes, l'analyse des résultats de la validation permet de détecter d'éventuels défauts sur l'instrumentation
The aim of this study is to investigate data validation and observability of miltilinear systems to diagnose instrumentation in a process. Data validation and observability in linear systems are first reviewed and these notions are extended to multilinear systems. Differents methods such as hierarchical computation, constraint linearization and penalization functions, are presented to estimate true values when some values are lacking. After comparing the different methods, a recurrent calculus of estimates using constraint linearization and penalization functions is developed. An observable system is required in order to perform data validation. Thus, we developed an original method, based on arborescent diagrams. The technique of data validation has been successfully applied to a complex uranium processing plant owned by the French company Total Compagnie Minière France. On this partially instrumented process, measurements for volumic flow, density and uranium in both solid and liquid phase are available. The analysis allows first to obtain coherent date. Furthemore, it can be used to detect sensors faults
APA, Harvard, Vancouver, ISO, and other styles
20

Meyer, Michel. "Validation de données sur des systèmes incomplètement observés." Toulouse, INPT, 1990. http://www.theses.fr/1990INPT032G.

Full text
Abstract:
Cette etude est consacree a la validation de donnees par equilibrage de bilans matiere. La methodologie decrite dans ce memoire peut etre appliquee a tout procede chimique, avec ou sans reaction chimique, en regime permanent. Apres avoir mis en evidence le caractere ineluctable des erreurs de mesure dans une presentation generale du probleme, nous abordons successivement les points suivants: le classement selon l'observabilite et la redondance, les methodes numeriques utilisees et le diagnostic sur l'etat des capteurs. Le classement selon l'observabilite et la redondance des debits et fractions massiques est realise par l'application de nouveaux algorithmes bases sur des concepts issus de la theorie des graphes. Ces methodes permettent egalement la mise en evidence des equations de redondance. Dans le chapitre suivant, l'accent est mis sur les methodes numeriques utilisees. L'exploitation de la vacuite des systemes linearises est mise en exergue. La derniere phase, basee sur des tests statistiques, permet un diagnostic sur le fonctionnement des capteurs d'un procede. Une etude comparative de differentes methodes est realisee. Dans le dernier chapitre, une breve description du logiciel integrant ces differentes techniques est faite. L'efficacite du programme est testee sur deux exemples industriels
APA, Harvard, Vancouver, ISO, and other styles
21

Liroz, Miguel. "Partitionnement dans les systèmes de gestion de données parallèles." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-01023039.

Full text
Abstract:
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données.Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme.Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce.Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles.Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée
APA, Harvard, Vancouver, ISO, and other styles
22

Petit, Loïc. "Gestion de flux de données pour l'observation de systèmes." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00849106.

Full text
Abstract:
La popularisation de la technologie a permis d'implanter des dispositifs et des applications de plus en plus développés à la portée d'utilisateurs non experts. Ces systèmes produisent des flux ainsi que des données persistantes dont les schémas et les dynamiques sont hétérogènes. Cette thèse s'intéresse à pouvoir observer les données de ces systèmes pour aider à les comprendre et à les diagnostiquer. Nous proposons tout d'abord un modèle algébrique Astral capable de traiter sans ambiguïtés sémantiques des données provenant de flux ou relations. Le moteur d'exécution Astronef a été développé sur l'architecture à composants orientés services pour permettre une grande adaptabilité. Il est doté d'un constructeur de requête permettant de choisir un plan d'exécution efficace. Son extension Asteroid permet de s'interfacer avec un SGBD pour gérer des données persistantes de manière intégrée. Nos contributions sont confrontées à la pratique par la mise en œuvre d'un système d'observation du réseau domestique ainsi que par l'étude des performances. Enfin, nous nous sommes intéressés à la mise en place de la personnalisation des résultats dans notre système par l'introduction d'un modèle de préférences top-k.
APA, Harvard, Vancouver, ISO, and other styles
23

Liroz-Gistau, Miguel. "Partitionnement dans les Systèmes de Gestion de Données Parallèles." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-00920615.

Full text
Abstract:
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données. Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme. Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce. Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles. Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée avec l'objectif de réduire la quantité de données qui devront être transférées dans la phase intermédiaire, connu aussi comme " shuffle ". Nous concevons et mettons en œuvre une stratégie qui, en capturant les relations entre les tuples d'entrée et les clés intermédiaires, obtient un partitionnement efficace qui peut être utilisé pour réduire de manière significative le surcharge de communications dans MapReduce.
APA, Harvard, Vancouver, ISO, and other styles
24

Michel, François. "Validation de systèmes répartis : symétries d'architecture et de données." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT099H.

Full text
Abstract:
Cette these s'interesse a la validation de systemes repartis par analyse de l'espace des etats accessibles. Les symetries presentes dans un systeme, dans son architecture ou dans ses donnees, sont utilisees pour n'explorer qu'une partie des etats accessibles tout en conservant les capacites de verification et de test. L'exploitation des symetries permet alors l'analyse de systemes que l'explosion combinatoire mettait sinon hors de portee des techniques de description formelle. L'idee de base est de reduire le nombre des etats examines en ne considerant qu'un seul representant par classe d'equivalence d'etats symetriques. Grace a des structures syntaxiques introduites dans le langage de specification, le concepteur peut indiquer les symetries d'architecture ou de traitement du systeme considere. Les principales contributions de cette these sont: - les concepts de pool d'agents permutables et de trames de donnees, qui permettent les prises en compte respectives des symetries d'architecture et de donnees, et leur integration dans le langage ccs, - l'interpretation de ces constructeurs sur le domaine des graphes de comportement, au moyen d'une semantique transitionnelle, - la conception d'une algorithmique basee sur les concepts precedents pour la verification par bissimulation et la generation de tests
APA, Harvard, Vancouver, ISO, and other styles
25

Robin, Jean-Marc. "L'estimation des systèmes de demandes sur données individuelles d'enquêtes." Paris 1, 1988. http://www.theses.fr/1988PA010043.

Full text
Abstract:
Nous analysons ici les problemes lies a l'estimation de systemes de demande microeconomiques sur donnees individuelles d'enquetes. La difficulte essentielle avec ce type de donnees tient au fait que tous les menages n'achetent pas tous les produits au cours de la periode d'enquete. De sorte que l'absence de biais de selection des estimateurs passent par une modelisation explicite des comportements d'approvisionnement. Les differents modeles proposes sont discutes puis testes sur les donnees de l'enquete consommation alimentaire en 1981 de l'insee
The fact that all households do not purchase all commodities during short periods of time is a source of trouble when estimating demand systems from household survey data. To avoid possible selection biases when selecting only households whe did purchase during the recording period, we have to model explicitely purchasing behaviors. The various models proposed are analysed then tested on the data of the french "ecquete consommation alimentaire en 1981
APA, Harvard, Vancouver, ISO, and other styles
26

Villamil, Giraldo María del Pilar. "Service de localisation de données pour les systèmes P2P." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0052.

Full text
Abstract:
Cette thèse porte sur l'interrogation dans des systèmes massivement distribués. Elle propose un service de localisation de données pour des systèmes pair à pair basés sur des tables de hachage distribuées. Ces systèmes se caractérisent par leur grande échelle, une configuration très dynamique et un placement « aveugle » des données. Ces caractéristiques rendent difficile la gestion performante des données. En effet, il est presque impossible de disposer d'une vue pertinente de l'état global du système. La localisation, à l'aide de requêtes déclaratives, des données partagées dans le système devient très problématique. Le service de localisation proposé à pour but de fournir une gestion des requêtes adaptée au contexte pair à pair. Pour cela, il utilise des techniques d'indexation distribuée, des modèles d'évaluation de requêtes, des caches et la matérialisation de requêtes. Les modèles d'évaluation de requêtes proposés ont permis une analyse théorique des performances qui a été validée par des expérimentations réalisées à grande échelle (déploiement d'environ 1300 pairs). Le comportement observé confirme les bonnes propriétés de la proposition notamment en termes de passage à l'échelle par rapport au nombre de sites participants. Ce qui est l'un des points les plus critique pour la réussite des systèmes massivement distribués
This thesis is oriented to the interrogation in massively distributed systems. It proposes a data location service for peer to peer systems based on distributed hash tables. These systems are characterized by a high degree of distribution, a large set of heterogeneous peers, a very dynamic configuration and a "blind" distribution of the data. These characteristics make it difficult to provide an efficient data management. Ln fact, it is almost impossible to have a coherent view regarding the global state of the system. Moreover, the location, using declarative queries, of data shared in the system is becoming very problematic. The objective of the location service proposed is to provide a query management adapted to the peer to peer context. As a result, the service uses distributed indexation techniques, query evaluation models, cache and materialized queries. The query evaluation models permitted theoretical performance analysis wich using prototype experiments in a large scale system (1300 peers were deployed). The behaviour observed shows good properties particularly regarding the solution scalability according to the number of participant sites. This is one of the critical issues for providing successful massively distributed systems
APA, Harvard, Vancouver, ISO, and other styles
27

Liroz, Gistau Miguel. "Partitionnement dans les systèmes de gestion de données parallèles." Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20117/document.

Full text
Abstract:
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données.Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme.Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce.Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles.Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée
During the last years, the volume of data that is captured and generated has exploded. Advances in computer technologies, which provide cheap storage and increased computing capabilities, have allowed organizations to perform complex analysis on this data and to extract valuable knowledge from it. This trend has been very important not only for industry, but has also had a significant impact on science, where enhanced instruments and more complex simulations call for an efficient management of huge quantities of data.Parallel computing is a fundamental technique in the management of large quantities of data as it leverages on the concurrent utilization of multiple computing resources. To take advantage of parallel computing, we need efficient data partitioning techniques which are in charge of dividing the whole data and assigning the partitions to the processing nodes. Data partitioning is a complex problem, as it has to consider different and often contradicting issues, such as data locality, load balancing and maximizing parallelism.In this thesis, we study the problem of data partitioning, particularly in scientific parallel databases that are continuously growing and in the MapReduce framework.In the case of scientific databases, we consider data partitioning in very large databases in which new data is appended continuously to the database, e.g. astronomical applications. Existing approaches are limited since the complexity of the workload and continuous appends restrict the applicability of traditional approaches. We propose two partitioning algorithms that dynamically partition new data elements by a technique based on data affinity. Our algorithms enable us to obtain very good data partitions in a low execution time compared to traditional approaches.We also study how to improve the performance of MapReduce framework using data partitioning techniques. In particular, we are interested in efficient data partitioning of the input datasets to reduce the amount of data that has to be transferred in the shuffle phase. We design and implement a strategy which, by capturing the relationships between input tuples and intermediate keys, obtains an efficient partitioning that can be used to reduce significantly the MapReduce's communication overhead
APA, Harvard, Vancouver, ISO, and other styles
28

Madera, Cedrine. "L’évolution des systèmes et architectures d’information sous l’influence des données massives : les lacs de données." Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS071/document.

Full text
Abstract:
La valorisation du patrimoine des données des organisation est mise au cœur de leur transformation digitale. Sous l’influence des données massives le système d’information doit s’adapter et évoluer. Cette évolution passe par une transformation des systèmes décisionnels mais aussi par l’apparition d’un nouveau composant du système d’information : Les lacs de données. Nous étudions cette évolution des systèmes décisionnels, les éléments clés qui l’influence mais aussi les limites qui apparaissent , du point de vue de l’architecture, sous l’influence des données massives. Nous proposons une évolution des systèmes d’information avec un nouveau composant qu’est le lac de données. Nous l’étudions du point de vue de l’architecture et cherchons les facteurs qui peuvent influencer sa conception , comme la gravité des données. Enfin, nous amorçons une piste de conceptualisation des lacs de données en explorant l’approche ligne de produit.Nouvelle versionSous l'influence des données massives nous étudions l'impact que cela entraîne notamment avec l'apparition de nouvelles technologies comme Apache Hadoop ainsi que les limite actuelles des système décisionnel.Les limites rencontrées par les systèmes décisionnels actuels impose une évolution au système d 'information qui doit s'adapter et qui donne naissance à un nouveau composant : le lac de données.Dans un deuxième temps nous étudions en détail ce nouveau composant, formalisons notre définition, donnons notre point de vue sur son positionnement dans le système d information ainsi que vis à vis des systèmes décisionnels.Par ailleurs, nous mettons en évidence un facteur influençant l’architecture des lacs de données : la gravité des données, en dressant une analogie avec la loi de la gravité et en nous concentrant sur les facteurs qui peuvent influencer la relation donnée-traitement.Nous mettons en évidence , au travers d'un cas d'usage , que la prise en compte de la gravité des données peut influencer la conception d'un lac de données.Nous terminons ces travaux par une adaptation de l'approche ligne de produit logiciel pour amorcer une méthode de formalisations et modélisation des lacs de données. Cette méthode nous permet :- d’établir une liste de composants minimum à mettre en place pour faire fonctionner un lac de données sans que ce dernier soit transformé en marécage,- d’évaluer la maturité d'un lac de donnée existant,- de diagnostiquer rapidement les composants manquants d'un lac de données existant qui serait devenu un marécage,- de conceptualiser la création des lacs de données en étant "logiciel agnostique”
Data is on the heart of the digital transformation.The consequence is anacceleration of the information system evolution , which must adapt. The Big data phenomenonplays the role of catalyst of this evolution.Under its influence appears a new component of the information system: the data lake.Far from replacing the decision support systems that make up the information system, data lakes comecomplete information systems’s architecture.First, we focus on the factors that influence the evolution of information systemssuch as new software and middleware, new infrastructure technologies, but also the decision support system usage itself.Under the big data influence we study the impact that this entails especially with the appearance ofnew technologies such as Apache Hadoop as well as the current limits of the decision support system .The limits encountered by the current decision support system force a change to the information system which mustadapt and that gives birth to a new component: the data lake.In a second time we study in detail this new component, formalize our definition, giveour point of view on its positioning in the information system as well as with regard to the decision support system .In addition, we highlight a factor influencing the architecture of data lakes: data gravity, doing an analogy with the law of gravity and focusing on the factors that mayinfluence the data-processing relationship. We highlight, through a use case, that takingaccount of the data gravity can influence the design of a data lake.We complete this work by adapting the software product line approach to boot a methodof formalizations and modeling of data lakes. This method allows us:- to establish a minimum list of components to be put in place to operate a data lake without transforming it into a data swamp,- to evaluate the maturity of an existing data lake,- to quickly diagnose the missing components of an existing data lake that would have become a dataswamp- to conceptualize the creation of data lakes by being "software agnostic “
APA, Harvard, Vancouver, ISO, and other styles
29

Barbier, Sébastien. "Visualisation distance temps-réel de grands volumes de données." Grenoble 1, 2009. http://www.theses.fr/2009GRE10155.

Full text
Abstract:
La simulation numérique génère des maillages de plus en plus gros pouvant atteindre plusieurs dizaines de millions de tétraèdres. Ces ensembles doivent être visuellement analysés afin d'acquérir des connaissances relatives aux données physiques simulées pour l'élaboration de conclusions. Les capacités de calcul utilisées pour la visualisation scientifique de telles données sont souvent inférieures à celles mises en oeuvre pour les simulations numériques. L'exploration visuelle de ces ensembles massifs est ainsi difficilement interactive sur les stations de travail usuelles. Au sein de ce mémoire, nous proposons une nouvelle approche interactive pour l'exploration visuelle de maillages tétraédriques massifs pouvant atteindre plus de quarante millions de cellules. Elle s'inscrit pleinement dans le procédé de génération des simulations numériques, reposant sur deux maillages à résolution différente , un fin et un grossier , d'une même simulation. Une partition des sommets fins est extraite guidée par le maillage grossier permettant la reconstruction à la volée d'un maillage dit birésolution, mélange des deux résolutions initiales, à l'instar des méthodes multirésolution usuelles. L'implantation de cette extraction est détaillée au sein d'un processeur central, des nouvelles générations de cartes graphiques et en mémoire externe. Elles permettent d'obtenir des taux d'extraction inégalés par les précédentes approches. Afin de visualiser ce maillage, un nouvel algorithme de rendu volumique direct implanté entièrement sur carte graphique est proposé. Un certain nombre d'approximations sont réalisées et évaluées afin de garantir un affichage interactif des maillages birésolution
Numerical simulations produce huger and huger meshes that can reach dozens of million tetrahedra. These datasets must be visually analyzed to understand the physical simulated phenomenon and draw conclusions. The computational power for scientific visualization of such datasets is often smaller than for numerical simulation. As a consequence, interactive exploration of massive meshes is barely achieved. In this document, we propose a new interactive method to interactively explore massive tetrahedral meshes with over forty million tetrahedra. This method is fully integrated into the simulation process, based on two meshes at different resolutions , one fine mesh and one coarse mesh , of the same simulation. A partition of the fine vertices is computed guided by the coarse mesh. It allows the on-the-fly extraction of a mesh, called \textit{biresolution}, mixed of the two initial resolutions as in usual multiresolution approaches. The extraction of such meshes is carried out into the main memory (CPU), the last generation of graphics cards (GPU) and with an out-of-core algorithm. They guarantee extraction rates never reached in previous work. To visualize the biresolution meshes, a new direct volume rendering (DVR) algorithm is fully implemented into graphics cards. Approximations can be performed and are evaluated in order to guarantee an interactive rendering of any biresolution meshes
APA, Harvard, Vancouver, ISO, and other styles
30

Peerbocus, Mohamed Ally. "Gestion de l'évolution spatiotemporelle dans une base de données géographiques." Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090055.

Full text
Abstract:
Cette thèse traite de la mise à jour des bases de données géographiques, en particulier pour des applications cartographiques. Cette opération est complexe, souvent longue, en particulier lorsqu'il est nécessaire de représenter la nature dynamique des entités géographiques. Dans cette thèse, une nouvelle approche, appelée l'approche des cartes spatio-temporelles documentées, CSD, est proposée pour la mise à jour des bases de données géographiques et la gestion de l'évolution spatio-temporelle. Les changements géographiques sont étudiés selon trois perspectives : monde réel, carte et bases de données. L'approche CSD permet aux utilisateurs d'avoir accès à des versions passées ou alternatives d'une carte, de comparer les différentes versions d'un objet géographique, d'identifier les changements et de comprendre les raisons de ces changements, en particulier dans le contexte d'échange de données entre producteurs et clients. De plus, cette approche permet d'offrir une histoire documentée de l'évolution des objets géographiques. Par ailleurs, L'approche CSD assure la non-duplication des données dans la base de données géographiques. L'approche CSD permet de prendre en compte d'autres besoins des utilisateurs du domaine géographique : 1. Elle peut aider à la gestion des transactions de longue durée dans le processus de mise à jour des bases de données géographiques. 2. Elle peut être un outil efficace pour la gestion de l'information géographique dans des projets : des versions de carte peuvent être créées à la demande montrant les différentes étapes du projet, voire les alternatives. 3. Elle peut servir à organiser une équipe autour d'un projet en permettant aux différents intervenants de travailler sur différentes versions du projet et ensuite permettre leur fusion. 4. Elle peut être utile comme un outil de prévention dans la gestion des risques en permettant aux spécialistes de suivre l'évolution de limites de zones à risque.
APA, Harvard, Vancouver, ISO, and other styles
31

Allouti, Faryel. "Visualisation dans les systèmes informatiques coopératifs." Paris 5, 2011. http://www.theses.fr/2011PA05S003.

Full text
Abstract:
Les techniques de classification non supervisée et les outils de visualisation de données complexes sont deux thèmes récurrents dans la communauté d’Extraction et Gestion des Connaissances. A l’intersection de ces deux thèmes se trouvent les méthodes de visualisation tels que le MultiDimensional Scaling ou encore la méthode des cartes auto-organisatrices de Kohonen appelée SOM. La méthode SOM se construit à l’aide d’un algorithme des K-means auquel est ajouté la notion de voisinage permettant de cette façon la conservation de la topologie des données. Ainsi, l’apprentissage rapproche, dans l’espace des données, les centres qui sont voisins sur une grille généralement 2D, jusqu’à former une surface discrète qui est une représentation squelettique de la distribution du nuage à explorer. Dans cette thèse, nous nous sommes intéressés à la visualisation dans un contexte coopératif, où la coopération s'etablit via une communication asynchrone dont le média est la messagerie électronique. Cet outil est apparu avec l’avènement des technologies de l’information et de la communication. Il est très utilisé dans les organisations, il permet une diffusion instantanée et rapide de l’information à plusieurs personnes en même temps,sans se préoccuper de leur présence. Notre objectif consistait en la proposition d’un outil d’exploration visuelle de données textuelles qui sont les fichiers attachés aux messages électroniques. Pour ce faire, nous avons combiné des méthodes de classification automatique et de visualisation. Nous avons étudié l’approche modèle de mélange qui est une contribution très utile pour la classification. Dans notre contexte, nous avons utilisé le modèle de mélange multinomial (Govaert et Nadif, 2007) pour déterminer les classes de fichiers. D’autre part, nous avons étudié l’aspect de visualisation à la fois des classes et des documents à l’aide du positionnement multidimensionnel et DC (Difference of Convex functions) et des cartes auto-organisatrices de Kohonen
Clustering techniques and visualization tools of complex data are two recurring themes in the community of Mining and Knowledge Management. At the intersection of these two themes there are the visualization methods such as multidimensional scaling or the Self-Organizing Maps (SOM). The SOM is constructed using K-means algorithm to which is added the notion of neighborhood allowing in this way the preservation of the topo-logy of the data. Thus, the learning moves closer, in the space of data, the centers that are neighbors on a two dimensions grid generally, to form a discrete surface which is a representation of the distribution of the cloud to explore. In this thesis, we are interested in the visualization in a cooperative context, where co-operation is established via an asynchronous communication and the media is the e-mail. This tool has emerged with the advent of information technology and communication. It is widely used in organizations, it allows an immediate and fast distribution of the in-formation to several persons at the same time, without worrying about their presence. Our objective consisted in proposing a tool of visual exploration of textual data which are files attached to the electronic messages. In order to do this, we combined clustering and visualization methods. We investigated the mixture approach, which is a very useful contribution for classification. In our context, we used the multinomial mixture model (Go-vaert and Nadif, 2007) to determine the classes of files. In addition, we studied the aspect of visualization of the obtained classes and documents using the multidimensional scaling and DC (Difference of Convex functions) and Self-Organizing Maps of Kohonen
APA, Harvard, Vancouver, ISO, and other styles
32

Lassoued, Yassine. "Médiation de qualité dans les systèmes d'information géographique." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11027.

Full text
Abstract:
La prise de décision dans les domaines de l'aménagement du territoire, de la gestion des risques, de la gestion des transports, etc. Repose sur des données géographiques. Ces données sont diverses et de qualités variables, car elles sont issues d'observations plus ou moins imparfaites du monde réel. Les Systèmes d'Information Géographique (SIG) actuels ne sont pas encore capables d'intégrer à la fois des sources de données et leurs qualités. Il devient impératif de surmonter ce problème et d'offrir un système d'information qui guide l'utilisateur dans le choix des données qui satisfont au mieux ses besoins en termes de qualité. L'objectif de la thèse est d'apporter une solution à ce problème en proposant un système d'intégration qui prenne en compte la qualité des données à intégrer. Le problème consistera à satisfaire plusieurs besoins : gérer des sources de données géographiques autonomes, et prendre en compte des opérateurs spatiaux ainsi que des informations de qualité.
APA, Harvard, Vancouver, ISO, and other styles
33

Filali, Rania Linda. "Sur la synchronisation et le cryptage de systèmes chaotiques à temps discret utilisant les techniques d'agrégation et la représentation en flèche des matrices." Phd thesis, Ecole Centrale de Lille, 2013. http://tel.archives-ouvertes.fr/tel-00858272.

Full text
Abstract:
L'objectif de cette thèse était de développer une méthode de synthèse de commande par retour d'état puis par observateurs offrant des conditions de synthèse non contraignantes dans le cas de systèmes non linéaires à temps discret. Dans cette méthode, est mise en exergue l'importance du choix de la description des systèmes sur l'étendue des résultats pouvant être obtenus lorsque la méthode d'étude de la stabilité est fixée. Ainsi l'utilisation des normes vectorielles comme fonction d'agrégation et du critère pratique de Borne et Gentina pour l'étude de la stabilité, associée à la description des systèmes par des matrices caractéristiques de forme en flèche de Benrejeb, a conduit à l'élaboration de nouvelles conditions suffisantes de stabilisation de systèmes dynamiques discrets non linéaires, formulées en théorèmes et corollaires. Ces résultats obtenus, sont ensuite exploités, avec succès, pour la formulation de nouvelles conditions suffisantes de vérification des propriétés de synchronisation pour les systèmes hyperchaotiques à temps discrets. Ensuite, le cas de synthèse d'observateur est validé dans deux types de transmission chaotique
APA, Harvard, Vancouver, ISO, and other styles
34

Flores, Ignacio. "On the empirical measurement of inequality." Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01E003/document.

Full text
Abstract:
Le 1er chapitre présente une série de 50 ans sur les hauts revenus chiliens basée sur des données fiscales et comptes nationaux. L’étude contredit les enquêtes, selon lesquelles les inégalités diminuent les 25 dernières années. Au contraire, elles changent de direction à partir de 2000. Le Chili est parmi les pays les plus inégalitaires de l’OCDE et l’Amérique latine. Le 2ème chapitre mesure la sous-estimation des revenus factoriels dans les données distributives. Les ménages ne reçoivent que 50% des revenus du capital brut, par opposition aux firmes. L’hétérogénéité des taux de réponse et autres problèmes font que les enquêtes ne capturent que 20% de ceux-ci, contre 70% du revenu du travail. Cela sous-estime l’inégalité,dont les estimations deviennent insensibles à la "capital share" et sa distribution. Je formalise à partir d’identités comptables pour ensuite calculer des effets marginaux et contributions aux variations d’inégalité. Le 3ème chapitre présente une méthode pour ajuster les enquêtes. Celles-ci capturent souvent mal le sommet de la distribution. La méthode présente plusieurs avantages par rapport aux options précédentes : elle est compatible avec les méthodes de calibration standard ; elle a des fondements probabilistes explicites et préserve la continuité des fonctions de densité ; elle offre une option pour surmonter les limites des supports d’enquête bornées; et elle préserve la structure de micro données en préservant la représentativité des variables sociodémographiques. Notre procédure est illustrée par des applications dans cinq pays, couvrant à la fois des contextes développés et moins développés
The 1st chapter presents historical series of Chilean top income shares over a period of half a century, mostly using data from tax statistics and national accounts. The study contradicts evidence based on survey data, according to which inequality has fallen constantly over the past 25 years. Rather, it changes direction, increasing from around the year 2000. Chile ranks as one of the most unequal countries among both OECD and Latin American countries over the whole period of study. The 2nd chapter measures the underestimation of factor income in distributive data. I find that households receive only half of national gross capital income,as opposed to corporations. Due to heterogeneous non-response and misreporting, Surveys only capture 20% of it, vs. 70% of labor income. This understates inequality estimates, which become insensitive to the capital share and its distribution. I formalize this system based on accounting identities. I then compute marginal effects and contributions to changes in fractile shares. The 3rd chapter, presents a method to adjust surveys. These generally fail to capturethe top of the income distribution. It has several advantages over previous ones: it is consistent with standard survey calibration methods; it has explicit probabilistic foundations and preserves the continuity of density functions; it provides an option to overcome the limitations of bounded survey-supports; and it preserves the microdata structure of the survey
APA, Harvard, Vancouver, ISO, and other styles
35

Garnerin, Mahault. "Des données aux systèmes : étude des liens entre données d’apprentissage et biais de performance genrés dans les systèmes de reconnaissance automatique de la parole." Thesis, Université Grenoble Alpes, 2022. http://www.theses.fr/2022GRALL006.

Full text
Abstract:
Certains systèmes issus de l'apprentissage machine, de par leurs données et les impensés qu'ils encapsulent, contribuent à reproduire des inégalités sociales, alimentant un discours sur les ``biais de l'intelligence artificielle''. Ce travail de thèse se propose de contribuer à la réflexion collective sur les biais des systèmes automatiques en questionnant l'existence de biais de genre dans les systèmes de reconnaissance automatique de la parole ou ASR (pour Automatic Speech Recognition).Penser l'impact des systèmes nécessite une articulation entre les notions de biais (ayant trait à la constitution du système et de ses données) et de discrimination, définie au niveau de la législation de chaque pays. On considère un système comme discriminatoire lorsqu'il effectue une différence de traitement sur la base de critères considérés comme brisant le contrat social. En France, le sexe et l'identité de genre font partie des 23 critères protégés par la législation.Après une réflexion théorique autour des notions de biais, et notamment sur le biais de prédictif (ou biais de performance) et le biais de sélection, nous proposons un ensemble d'expériences pour tenter de comprendre les liens entre biais de sélection dans les données d'apprentissage et biais prédictif du système. Nous nous basons sur l'étude d'un système HMM-DNN appris sur des corpus médiatiques francophones, et d'un système end-to-end appris sur des livres audio en anglais. Nous observons ainsi qu'un biais de sélection du genre important dans les données d'apprentissage contribue de façon assez partielle au biais prédictif du système d'ASR, mais que ce dernier émerge néanmoins lorsque les données de parole regroupent des situations d'énonciation et des rôles de locuteurs et locutrices différents. Ce travail nous a également conduite à questionner la représentation des femmes dans les données, et plus généralement à repenser les liens entre conception théorique du genre et systèmes d'ASR
Machine learning systems contribute to the reproduction of social inequalities, because of the data they use and for lack of critical approches, thys feeding a discourse on the ``biases of artificial intelligence''. This thesis aims at contributing to collective thinking on the biases of automatic systems by investigating the existence of gender biases in automatic speech recognition (ASR) systems.Critically thinking about the impact of systems requires taking into account both the notion of bias (linked with the architecture, or the system and its data) and that of discrimination, defined at the level of each country's legislation. A system is considered discriminatory when it makes a difference in treatment on the basis of criteria defined as breaking the social contract. In France, sex and gender identity are among the 23 criteria protected by law.Based on theoretical considerations on the notions of bias, and in particular on the predictive (or performance) bias and the selection bias, we propose a set of experiments to try to understand the links between selection bias in training data and predictive bias of the system. We base our work on the study of an HMM-DNN system trained on French media corpus, and an end-to-end system trained on audio books in English. We observe that a significant gender selection bias in the training data contributes only partially to the predictive bias of the ASR system, but that the latter emerges nevertheless when the speech data contain different utterance situations and speaker roles. This work has also led us to question the representation of women in speech data, and more generally to rethink the links between theoretical conceptions of gender and ASR systems
APA, Harvard, Vancouver, ISO, and other styles
36

Hajji, Hicham. "Gestion des risques naturels : une approche fondée sur l'intégration des données." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0039/these.pdf.

Full text
Abstract:
La mise en oeuvre d'architectures ou de solutions de systèmes d'information géographique peut différer d'un cas à l'autre en fonction des objectifs et des besoins des applications. Dans la gestion des risques naturels, la conception de tels systèmes doit répondre à plusieurs problématiques comme l'hétérogénéité sémantique des données, la diversité des formats et des modèles de données, le caractère spatio-temporal de la gestion. Dans cette thèse, nous avons essayé de répondre à ces besoins en présentant une architecture de référence pour un système d'information pour la gestion des risques. Deux aspects ont été détaillés dans cette architecture: l'intégration des données et le développement d'une ontologie pour les risques. Le problème d'intégration des données a été abordé en utilisant le standard OpenGIS qui offre à la fois une définition équivoque des types de primitives géométriques, une prise en compte de la dimension temporelle, et un mécanisme pour la description des métadonnées. Une méthodologie d'intégration a été proposée comme un cadre pour assister: 1) à la transformation des schémas des données vers le modèle OpenGIS, 2) à l'identification des correspondances entre les éléments identiques, et 3) leur intégration dans un schéma intégré. L'ontologie a été développée pour éliminer la confusion sémantique entre les acteurs de la gestion des risques, et pour la modélisation du domaine en proposant un ensemble de concepts nécessaires à la description de la procédure de gestion des risques. Finalement, en relation avec le contrat CIFRE dont j'ai bénéficié, quelques systèmes d'information opérationnels sont présentés traitant de la procédure de gestion des risques
There is a huge geographic data available with many organizations collecting geographic data for centuries, but some of that is still in the form of paper maps or in traditional files or databases, and with the emergence of latest technologies in the field of software and data storage some has been digitized and is stored in latest GIS systems. However, too often their reuse for new applications is a nightmare, due to diversity of data sets, heterogeneity of existing systems in terms of data modeling concepts, data encoding techniques, obscure semantics of data,storage structures, access functionality, etc. Such difficulties are more common in natural hazards information systems. In order to support advanced natural hazards management based on heterogeneous data, this thesis develops a new approach to the integration of semantically heterogeneous geographic information which is capable of addressing the spatial and thematic aspects of geographic information. The approach is based on OpenGIS standard. It uses it as a common model for data integration. The proposed methodology takes into consideration a large number of the aspects involved in the construction and the modelling of natural hazards management information system. Another issue has been addressed in this thesis, which is the design of an ontology for natural hazards. The ontology design has been extensively studied in recent years, we have tried throughout this work to propose an ontology to deal with semantic heterogeneity existing between different actors and to model existing knowledge present for this issue. The ontology contains the main concepts and relationships between these concepts using OWL Language
APA, Harvard, Vancouver, ISO, and other styles
37

Kaplan, Stéphane. "Spécification algébrique de types de données à accès concurrent." Paris 11, 1987. http://www.theses.fr/1987PA112335.

Full text
Abstract:
Il est étudié l'extension du formalisme des types abstraits algébriques à la spécification de systèmes concurrents. Le concept clé de "process spécification" est introduit. Dans une telle spécification, des processus agissent sur des données au moyen d'un opérateur d'application. Les processus sont définis par composition d'action atomiques et d'action non-atomiques. Les opérateurs sont la composition non-déterministe, séquentielle ou parallèle. L'auteur s'intéresse à l'implémentation d'une "process spécification" par une autre et donne à cet effet une méthode de preuve
APA, Harvard, Vancouver, ISO, and other styles
38

Saidi, Selma. "Optimisation des transferts de données sur systèmes multiprocesseurs sur puce." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00875582.

Full text
Abstract:
Les systèmes multiprocesseurs sur puce, tel que le processeur CELL ou plus récemment Platform 2012, sont des architectures multicœurs hétérogènes constitués d'un processeur host et d'une fabric de calcul qui consiste en plusieurs petits cœurs dont le rôle est d'agir comme un accélérateur programmable. Les parties parallélisable d'une application, qui initialement est supposé etre executé par le host, et dont le calcul est intensif sont envoyés a la fabric multicœurs pour être exécutés. Ces applications sont en général des applications qui manipulent des tableaux trés larges de données, ces données sont stockées dans une memoire distante hors puce (off-chip memory) dont l 'accès est 100 fois plus lent que l 'accès par un cœur a une mémoire locale. Accéder ces données dans la mémoire off-chip devient donc un problème majeur pour les performances. une characteristiques principale de ces plateformes est une mémoire local géré par le software, au lieu d un mechanisme de cache, tel que les mouvements de données dans la hiérarchie mémoire sont explicitement gérés par le software. Dans cette thèse, l 'objectif est d'optimiser ces transfert de données dans le but de reduire/cacher la latence de la mémoire off-chip .
APA, Harvard, Vancouver, ISO, and other styles
39

Siriopoulos, Costas-Panou. "Essai sur les systèmes experts et l'analyse confirmatoire des données." Aix-Marseille 3, 1988. http://www.theses.fr/1988AIX32010.

Full text
Abstract:
A) l'intelligence artificielle dans la statistique: l'utilite clef de l'i. A. En statistique est d'aider les statisticiens d'etudier les strategies des analyses des donnees. L'existence, aujourd'hui, d'un grand nombre de logiciels statistiques pose des problemes aux usagers potentiels. Incorporer la connaissance statistique dans ces logiciels est une tache difficile mais faisable. Dans ce contexte plusieurs projets ont ete proposes, et recemment le projet a. I. D. A. Par m. Egea et j. P. Marciano. Nous etudions ce projet a l'aide d'une typologie ou modele d'interpretation. A titre d'exemple nous considerons le modele lineaire et la non-verification de l'hypothese de la non-autocorrelation des erreurs. Nous presentons cette connaissance sous la forme de 30 regles et 5 meta-regles. Nous concluons a une strategie possible sous forme d'un arbre hierarchique dont chaque noeud represente un frame, pour detecter le probleme et proposer des transformations ou des methodes d'estimation correctives (m. C. G. ). B) la statistique dans l'i. A. : nous considerons la theorie des possibilites, basee sur les sous-ensembles flous, pour manipuler et representer les informations incertaines et ou incompletes
A) artificial intelligence in statistical analysis: the key use of a. I. In statistics has been to enable statisticians to study strategies of data analysis. The existence, today, of a large number of statistical packages poses problems for potential users. Incorporating expert guidance in statistical software is technically challenging but worthwhile undertaking. Different systems and projects have been suggested. Recently, m. Egea and j. P. Marciano have proposed the a. I. D. A. Project in c. D. A. We consider the autocorrelation problem in a multiple linear model and we propose a typology to study the required statistical knowledge. We also propose a corpus of 30 rules of thumb and 5 meta-rules. We conclude in a possible strategy, for the detection and correction of the problem, in the form of an hierarchical tree in which each node is represented by a frame. B) statistics in artificial intelligence: expert systems work with propositions that may be uncertain. Accepting a probabilistic nature of uncertainty, we have to make a crucial assumption, namely, the additivity axiome. Once this assumption is dropped, we have other ways of characterizing uncertainty, in particular, possibilistic uncertainty based on fuzzy sets
APA, Harvard, Vancouver, ISO, and other styles
40

Pradel, Bruno. "Evaluation des systèmes de recommandation à partir d'historiques de données." Paris 6, 2013. http://www.theses.fr/2013PA066263.

Full text
Abstract:
Cette thèse présente différents protocoles d'évaluations permettantune meilleure estimation des erreurs de systèmes de recommandationsconstruits à partir d'historiques de données d'utilisateurs (ie sansinteractions directes avec les utilisateurs du système). Dans un premier chapitre de contribution, nous présentons lesrésultats d'une étude de cas d'un système de recommandation uniquementbasé sur les données d'achats d'un magasin de bricolage. Larecommandation est une tâche complexe qui à été souvent assimiléeuniquement à tache de prédiction de notes. Dans cette étude, nouscherchons à prédire les achats qu'un client va effectuer et non lanote qu'il attribuerait à un produit. Les données de notes étantindisponibles pour bon nombre d'industriels, cela correspond à uneapplication fréquemment rencontrée en pratique mais pourtant rarementtraitée dans la littérature. Dans ce cadre, nous évaluons lesperformances de plusieurs algorithmes de filtrage collaboratif del'état de l'art. Nous montrons comment certaines modifications desprotocoles d'apprentissages et de tests, ainsi que l'apportd'information de contexte, aboutit à de fortes variations desperformances entre algorithmes et à une sélection de modèle différente. Dans les chapitres suivants, nous abordons la problématique del'évaluation d'algorithmes de filtrage collaboratif à partir denotes. Dans un deuxième chapitre, nous détaillons notre participationau challenge de recommandation contextuelle de films CAMRa. Cechallenge propose deux modifications du protocole classique deprédiction de notes: les algorithmes sont évalués en considérant desmesures d'ordonnancement et les notes sont échantillonnées en test demanière temporelle sur deux périodes spécifiques de l'année: lasemaine de Noël et de la cérémonie des Oscars. Nous proposons unalgorithme de recommandations personnalisées qui prend en compte lesvariations temporelles de la popularité des items. La dernière contribution de cette thèse étudie l'influence duprocessus d'observations des notes sur les mesures de performancesTopK (rappel/ précision). Les utilisateurs choisissent les itemsqu'ils veulent noter, ainsi les notes sont obtenues par un processusd'observations non aléatoires. D'une part, certains items reçoiventbeaucoup plus de notes que les autres, et d'autre part, les notes"positives" sont sur-observés car les utilisateurs notent plusfréquemment les items qu'ils aiment. Nous proposons une analysethéorique de ces phénomènes et présentons également des résultatsd'expériences effectuées à l'aide de données Yahoo! réunissant desnotes collectées à la fois de manière classique et de manièrealéatoire. Nous montrons notamment qu'une prise en compte des notesmanquantes comme négatives en apprentissage aboutit à de bonnesperformances sur les mesures TopK, mais que ces performances peuventêtre trompeuses en favorisant des algorithmes modélisant la popularitédes items plus que les réelles préférences des utilisateurs
This thesis presents various experimental protocols leading to abetter offline estimation of errors in recommender systems. As a first contribution, results form a case study of a recommendersystem based on purchased data will be presented. Recommending itemsis a complex task that has been mainly studied considering solelyratings data. In this study, we put the stress on predicting thepurchase a customer will make rather than the rating he will assign toan item. While ratings data are not available for many industries andpurchases data widely used, very few studies considered purchasesdata. In that setting, we compare the performances of variouscollaborative filtering models from the litterature. We notably showthat some changes the training and testing phases, and theintroduction of contextual information lead to major changes of therelative perfomances of algorithms. The following contributions will focus on the study of ratings data. Asecond contribution will present our participation to the Challenge onContext-Aware Movie Recommendation. This challenge provides two majorchanges in the standard ratings prediction protocol: models areevaluated conisdering ratings metrics and tested on two specificsperiod of the year: Christmas and Oscars. We provides personnalizedrecommendation modeling the short-term evolution of the popularitiesof movies. Finally, we study the impact of the observation process of ratings onranking evaluation metrics. Users choose the items they want to rateand, as a result, ratings on items are not observed at random. First,some items receive a lot more ratings than others and secondly, highratings are more likely to be oberved than poor ones because usersmainly rate the items they likes. We propose a formal analysis ofthese effects on evaluation metrics and experiments on the Yahoo!Musicdataset, gathering standard and randomly collected ratings. We showthat considering missing ratings as negative during training phaseleads to good performances on the TopK task, but these performancescan be misleading favoring methods modeling the popularities of itemsmore than the real tastes of users
APA, Harvard, Vancouver, ISO, and other styles
41

Akbarinia, Reza. "Techniques d'accès aux données dans des systèmes pair-à-pair." Nantes, 2007. http://www.theses.fr/2007NANT2060.

Full text
Abstract:
Le but de cette thèse est de développer des nouvelles techniques d'accès aux données pour être utilisées par un service de traitement de requêtes dans des environnements P2P. En particulier, nous nous concentrons sur la conception de nouvelles techniques pour répondre à deux types de requêtes importants: les requêtes garantissant la currency des données (en français, la propriété des données d’être courantes, c. -à-d. à jour par rapport aux dernières modifications) et les requêtes top-k. Pour améliorer la disponibilité de données, la plupart des systèmes P2P s’appuient sur la réplication des données, mais sans garantir la currency. Cependant, pour beaucoup d'applications (par ex. Gestion d'agenda), la possibilité d'obtenir les données courantes est très importante. Donc, le service de traitement de requête doit traiter ce problème là. Le second problème que nous abordons est celui des requêtes top-k. Dans un système à grande échelle P2P, les requêtes top-k sont très utiles, par ex. Elles peuvent réduire le trafic du réseau significativement. Il existe des techniques efficaces pour l'exécution de requêtes top-k dans les systèmes distribués, mais elles ne conviennent pas aux systèmes P2P, en particulier aux DHTs. Dans cette thèse, nous donnons d’abord une vue d'ensemble des réseaux P2P actuels, et comparons leurs propriétés du point de vue du traitement de requêtes. Ensuite, nous proposons une solution complète au problème de la recherche d'une réplique courante dans les DHTs. Enfin, nous proposons de nouvelles solutions pour le traitement de requêtes top-k dans les systèmes P2P structuré, c. -à-d. Les DHTs, ainsi que les systèmes non structurés. Nous proposons également de nouveaux algorithmes pour traiter les requêtes top-k sur les listes triées, qui est un modèle très général. Nous avons validé nos solutions par une combinaison d'implémentation et de simulation ; Les résultats montrent de très bonnes performances, en termes du coût de communication et de temps de réponse
The goal of this thesis is to contribute to the development of new data access techniques for query processing services in P2P environments. We focus on novel techniques for two important kinds of queries: queries with currency guarantees and top-k queries. To improve data availability, most P2P systems rely on data replication, but without currency guarantees. However, for many applications which could take advantage of a P2P system (e. G. Agenda management), the ability to get the current data is very important. To support these applications, the query processing service must be able to efficiently detect and retrieve a current, i. E. Up-to-date, replica in response to a user requesting a data. The second problem which we address is supporting top-k queries which are very useful in large scale P2P systems, e. G. They can reduce the network traffic significantly. However, efficient execution of these queries is very difficult in P2P systems because of their special characteristics, in particular in DHTs. In this thesis, we first survey the techniques which have been proposed for query processing in P2P systems. We give an overview of the existing P2P networks, and compare their properties from the perspective of query processing. Second, we propose a complete solution to the problem of current data retrieval in DHTs. We propose a service called Update Management Service (UMS) which deals with updating replicated data and efficient retrieval of current replicas based on timestamping. Third, we propose novel solutions for top-k query processing in structured, i. E. DHTs, and unstructured P2P systems. We also propose new algorithms for top-k query processing over sorted lists which is a general model for top-k queries in many centralized, distributed and P2P systems, especially in super-peer networks. We validated our solutions through a combination of implementation and simulation and the results show very good performance, in terms of communication and response time
APA, Harvard, Vancouver, ISO, and other styles
42

Alustwani, Husam. "Interactivité et disponibilité des données dans les systèmes multimédias distribués." Besançon, 2009. http://www.theses.fr/2009BESA2041.

Full text
Abstract:
Deux problématiques principales ont guidé les travaux de cette thèse: (a) comment supporter efficacement les interactions (navigation) dans les présentations multimédias streamées et (b) comment améliorer la disponibilité des données dans un système de streaming P2P ? Afin de permettre une navigation rapide au sein d’une présentation multimédia, diffusée en continu, nous avons proposé une approche exploitant les informations disponibles sur son contenu (les objets la constituant). Ces informations permettent, entre autres, de préserver la cohérence sémantique de la présentation lors des interactions utilisateurs. Dans un deuxième temps, nous avons étudié les performances de notre approche en proposant une stratégie de pré-chargement, nommé CPS (Content-Based Prefetching Strategy), qui a permis de réduire considérablement les temps de latence des interactions utilisateurs. La disponibilité des données dans les systèmes de streaming P2P diffère fondamentalement de celle observée dans les systèmes PSP classiques, dans le sens où les données consommées sont dépendantes du temps. Ainsi, cette problématique se pose en terme de possibilité au pair destinataire (consommateur) de pouvoir terminer le visionnage du contenu vidéo dans sa totalité i. E. , durant toute la durée de la vidéo. Or, les systèmes P2P spontanés sont essentiellement caractérisés par leur volatilité fréquente, ce qui pose le problème de la disponibilité des pairs sources pendant le streaming. Nous avons étudié cette problématique en mettant en œuvre, dans un premier temps, un mécanisme de cache centralisé permettant de réduire les effets de la volatilité des pairs et en préservant uniquement les suffixes des vidéos en cours d’accès. Dans un deuxième temps, nous avons étendu notre approche vers un cache virtuel distribué. Les résultats des simulations ont montré la pertinence des approches proposées. Enfin, nous avons décrit la conception et la mis en œuvre d’un prototype qui démontre la faisabilité d’un système de streaming P2P spontané
The works in this thesis have been guided by two problems: (a) how to efficiently support fast browsing interactions in streamed multimedia presentations and (b) how to enhance data availability in pure P2P streaming systems ? In order to enable quick browsing within streamed multimedia presentations, we proposed an approach that takes full advantage of object multiplicity in a multimedia presentation. Our approach allows, among other features, to preserve the semantic on the presentation, when a fast browsing interaction occurs. In a second time, we studied the performances of our approach through the proposal of a Content-Based Prefetching Strategy, called CPS. Our strategy enables to considerably reduce the new interaction’s latency, that is to reduce the response time of a fast browsing action. Data availability in P2P streaming systems differs fundamentally from that observed in classical systems, in the sense that the use data are time-dependent. Thus, this problem arises in terms of the opportunity for a peer (consumer) to entirely receive a video content, that is able to watch the content to its end. However, spontaneous PSP systems are characterised, mainly, by the volatility of the peers. The unpredictable departure of peers poses the problem of the availability of peers that are sources for streaming. We have studied this problem by setting-up, a centralised caching mechanism to reduce the effects of peer’s departure and by only replicating the suffixes (last parts) of the videos that are being accessed. In a second step, we extended our approach towards a distributed virtual cache. The simulation results showed the relevance of the proposed approaches. Finally, we described the design and implementation of a prototype, that demonstrates the feasibility of a spontaneous P2P streaming system
APA, Harvard, Vancouver, ISO, and other styles
43

Saint-Joan, Denis. "Données géographiques et raisonnement : le système GEODES." Toulouse 3, 1995. http://www.theses.fr/1995TOU30179.

Full text
Abstract:
Les utilisateurs de systemes d'information geographique (sig) sont de plus en plus demandeurs de systemes d'analyses et/ou d'aide a la decision spatiale pour la resolution de problemes complexes qui ne s'apparentent pas a une simple superposition de cartes. Nous avons donc concu et realise le systeme geodes (geographic decision expert system) qui permet a un utilisateur d'exprimer de maniere aisee les connaissances symboliques specifiant un probleme a travers une interface graphique tout en tenant compte, d'une part, du caractere spatial des donnees et des connaissances, et d'autre part, du caractere flou de cette connaissance. Le systeme utilise cette specification du probleme et les donnees geographiques pour fournir une carte de solutions du probleme pose montrant les zones favorables au probleme et celles qui le sont moins. Il peut etre utilise dans des domaines tels que la geographie, l'ecologie, l'agriculture, la gestion des ressources naturelles, l'industrie c'est un systeme expert flou utilisant plusieurs types de donnees (rasteur ou vecteur) et manipulant deux types de regles: des regles non spatiales basees sur l'union et l'intersection des connaissances et des donnees, et des regles spatiales basees sur les caracteristiques (surface, orientation,) et les relations spatiales (a droite, proche, inclus,) des donnees. Le moteur d'inferences utilise une strategie en chainage avant et en largeur d'abord avec une resolution geometrique des inferences floues a partir de la representation trapezoidale des sous-ensembles flous pour accelerer les temps de calculs et en evaluant par paquet les regles traitant des memes connaissances
APA, Harvard, Vancouver, ISO, and other styles
44

Petitdemange, Eva. "SAMUFLUX : une démarche outillée de diagnostic et d'amélioration à base de doubles numériques : application aux centres d'appels d'urgence de trois SAMU." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2020. http://www.theses.fr/2020EMAC0012.

Full text
Abstract:
L’engorgement des structures d’urgence médicale est une réalité à laquelle les SAMU (Service d’Aide Médicale Urgente) n’échappent pas (5 à 15% d’augmentation des appels par an). De récents événements comme la pandémie de Covid-19 montrent les limites du système actuel pour faire face aux situations de crise. Le renfort en moyens humains ne peut être la seule solution face à ce constat et il devient incontournable de construire de nouveaux modèles organisationnels tout en visant une qualité de service permettant de répondre à 99% des appels entrants en moins de 60 secondes. Toutefois, ces modèles doivent prendre en compte la grande hétérogénéité des SAMU et de leur fonctionnement. A la lumière de ces constats, le travail de recherche présenté dans ce manuscrit a pour but d'évaluer l'efficacité organisationnelle et la résilience des SAMU dans la prise en charge des flux d'appels téléphoniques d'urgence pour faire face au quotidien et aux situations de crise. Cette évaluation nous permet de proposer et de tester de nouveaux schémas organisationnels afin de faire des préconisations adaptées aux particularités des centres d'appels d'urgence. Dans une première partie, nous proposons une méthodologie outillée pour le diagnostic et l'amélioration des centres d'appels d'urgence. Elle se décompose en deux grands volets : l'étude des données issues des centres d'appel d'urgence puis la conception et l'utilisation d'un double numérique. Pour chaque étape de cette méthodologie, nous proposons un outil associé. Dans une seconde partie, nous appliquons le premier volet de la méthodologie aux données de nos SAMU partenaires. Il s'agit d'être capable d'extraire de l'information et des connaissances des données de téléphonies ainsi que des processus métiers pour le traitement des appels d'urgence. La connaissance ainsi extraite permet de concevoir un double numérique qui soit proche du comportement réel des SAMU. Enfin dans une troisième partie, nous utilisons la matière produite précédemment pour modéliser et paramétrer un double numérique déployé sur un moteur de simulation à événements discret. Il nous permet de tester plusieurs scénarios en jouant sur différentes organisations de gestion de l'appel. Grâce à cela, nous faisons des préconisations sur les types d'organisations à adopter afin d'améliorer les performances des centres d'appel
The demand for emergency medical services has been significant and increasing over the last decade. In a constrained medico-economic context, the maintenance of operational capacities represents a strategic strake in front of the risk of congestion and insufficient accessibility for the population. Recent events such as the COVID-19 pandemic show the limits of the current system to face crisis situations. Reinforcement in human resources cannot be the only solution in front of this observation and it becomes unavoidable to build new organizational models while aiming at a quality of service allowing to answer 99% of the incoming calls in less than 60 seconds (90% in 15s and 99% in 30s MARCUS report and HAS recommendation October 2020). However, these models must take into account the great heterogeneity of EMS and their operation. In the light of these findings, the research work presented in this manuscript aims to evaluate the organizational effiectiveness and resilience of EMS in managing the flow of emergency telephone calls to deal with daily life and crisis situations. This evaluation allows us to propose and test new organizational schemes in order to make recommendations adpated to the particularities of emergency call centers. In a first part, we propose a methodology equipped for the diagnosis and improvement of emergency call centers. It can be broken down into two main parts: the study of data from emergency call centers, and then the design and use of a dual digital system. For each step of this methodology, we propose an associated tool. In a second part, we apply the first part of the methodology to our partner EMS data. The aim is to be able to extract information and knowledge from the telephony data as well as from the business processes for handling emergency calls. The knowledge thus extracted makes it possible to design a digital duplicate that is close to the real behavior of the EMS. Finally, in a third part, we use the material produced previously to model and parameterize a digital duplicate deployed on a discrete event simulation engine. It allows us to test several scenarios by playing on different call management organizations. Thanks to this, we make recommendations on the types of organizations to adopt in order to improve the performance of call centers
APA, Harvard, Vancouver, ISO, and other styles
45

Bazin, Cyril. "Tatouage de données géographiques et généralisation aux données devant préserver des contraintes." Caen, 2010. http://www.theses.fr/2010CAEN2006.

Full text
Abstract:
Le tatouage est un procédé fondamental pour la protection de la propriété intellectuelle. Il consiste à insérer une marque dans un document numérique en le modifiant légèrement. C'est la présence de cette marque qui permet au propriétaire légitime d'un document numérique de faire preuve de l'antériorité de ses droits. L'originalité de notre travail est double. D'une part nous utilisons une approche locale pour garantir à priori que la qualité des documents est préservée lors de l'insertion de la marque. D'autre part nous proposons un schéma de tatouage générique qui s'abstrait du type de documents à tatouer. La thèse s'articule en trois parties. Nous commencons par introduire les concepts de base du tatouage de données contraintes ainsi que l'état de l'art du tatouage de données géographiques. Nous présentons ensuite notre schéma de tatouage pour les données géographiques vectorielles qui sont souvent utilisées dans les systèmes d'informations géographiques. Ce schéma aveugle permet de tatouer un document tout en en préservant certaines qualités topologiques et métriques. La marque est robuste; elle résiste entre autres aux transformations géométriques et au découpage du document. Nous proposons une implémentation efficace que nous validons par de multiples expérimentations. Dans la dernière partie de la thèse, nous généralisons ce schéma aux données devant préserver des contraintes. Le schéma générique que nous obtenons facilitera la conception de schémas de tatouage pour de nouveaux type de données. Nous donnons notamment un exemple d'application du schéma générique pour les bases de données relationnelles. Afin de montrer qu'il est possible de travailler directement sur ce schéma, nous proposons deux protocoles de détection de la marque applicables directement sur toute implémentation du schéma générique
Digital watermaking is a fundamental process for intellectual property protection. It consists in inserting a mark into a digital document by slightly modifications. The presence of this mark allows the owner of a document to prove the priority of his rights. The originality of our work is twofold. In one hand, we use a local approach to ensure a priori that the quality of constrained documents is preserved during the watermark insertion. On the other hand, we propose a generic watermarking scheme. The manuscript is divided in three parts. Firstly, we introduce the basic concepts of digital watermarking for constrainted data and the state of the art of geographical data watermarking. Secondly, we present our watermarking scheme for digital vectorial maps often used in geographic information systems. This scheme preserves some topological and metric qualities of the document. The watermark is robust, it is resilient against geometric transformations and cropping. We give an efficient implementation that is validated by many experiments. Finally, we propose a generalization of the scheme for constrainted data. This generic scheme will facilitate the design of watermarking schemes for new data type. We give a particular example of application of a generic schema for relational databases. In order to prove that it is possible to work directly on the generic scheme, we propose two detection protocols straightly applicable on any implementation of generic scheme
APA, Harvard, Vancouver, ISO, and other styles
46

Fénié, Patrick. "Graico : méthode de modélisation et de conception de systèmes d'exploitation de systèmes de production." Bordeaux 1, 1994. http://www.theses.fr/1994BOR10622.

Full text
Abstract:
Cette these decrit la methode graico qui permet de modeliser et de concevoir des systemes d'exploitation (se) de systemes de production. Le se est responsable des prises de decision court et tres court terme dont la majorite sont declenchees sur evenement. Compose de centres d'exploitation, il est defini et modelise selon trois axes: coordination, synchronisation et cooperation. Les outils de modelisations du systeme physique de production conduit et du systeme d'exploitation assurent, par l'intermediaire d'une grammaire de specification, la structuration des choix de conception informatiques et organisationnels. Enfin, la demarche structure l'utilisation des outils pour l'analyse et la conception des systemes d'exploitation
APA, Harvard, Vancouver, ISO, and other styles
47

Langlet, Thomas. "Étude de convergences de séries aléatoires échantillonnées, mesures de Markov quasi-Bernoulli ou quasi-Bernoulli faible et temps de retour uniforme dans les systèmes exponentiellement mélangeants." Amiens, 2009. http://www.theses.fr/2009AMIE0122.

Full text
Abstract:
Dans la première partie de cette thèse, on s'intéresse à la convergence de certaines séries aléatoires. On détermine des conditions suffisantes sur la suite (ak)k et sur les variables aléatoires indépendantes (Xk)k, afin que pour presque tout ω ϵ Ω, on ait la convergence uniforme ou pour presque tout x de la série Σk ak f(x(X1+. . . +Xk)(ω)) pour une certaine classe de fonctions f. On trouve, aussi, des conditions suffisantes sur la suite (ak)k et sur les variables aléatoires indépendantes (Xk)k, afin que pour presque tout ω ϵ Ω, on ait la convergence dans L²(μ) ou μ-presque partout de la série Σk ak T^{(X1+. . . +Xk)(ω)}(g)(x) pour certaines classes de fonctions g ϵ L²(μ) et de flot {Tt,t ϵ G} d'opérateurs de L²(μ) dans L²(μ) (où G est un semi-groupe de l'ensemble des réels). La deuxième partie porte sur des propriétés de mesures : quasi-Bernoulli et quasi-Bernoulli faible. On trouve notamment des conditions nécessaires et suffisantes pour qu'une mesure de Markov inhomogène soit quasi-Bernoulli ou quasi-Bernoulli faible. On caractérise à l'aide de ces conditions les mesures de Bernoulli qui sont quasi-Bernoulli ou quasi-Bernoulli faible. On prouve que si une mesure de Bernoulli n'ayant que des probabilités non nulles est quasi-Bernoulli faible alors elle est quasi-Bernoulli. La dernière partie est consacrée à l'étude du problème du temps de retour uniforme dans les systèmes exponentiellement mélangeant. Il s'agit d'avoir un recouvrement aléatoire de l'espace engendré par un processus exponentiellement mélangeant. Etant donné un recouvrement aléatoire, on obtient une estimation du nombre de recouvrements en fonction de la dimension maximale locale de la mesure
In the first part of this thesis, we study the convergence of two different random series. We give some sufficient conditions on the sequence (ak)k, on the random independent variables (Xk)k, such that for almost every ω, to have the uniform convergence or almost everywhere convergence of Σk ak f(x(X1+. . . +Xk)(ω)) for a certain class of functions f. We also find some sufficient conditions on (ak)k and on the random independent variables (Xk)k to have a certain class of function g ϵ L²(μ) and a certain class of operator {Tt,t ϵ G} such that the series Σk ak T^{(X1+. . . +Xk)(ω)}(g)(x) converge in L²(μ) or for μ-almost every x. In the second part, we prove some necessary and sufficient condition for an inhomogeneous Markov measure to be a quasi-Bernoulli measure or a weak quasi-Bernoulli measure. We apply this condition on the Bernoulli measure. We proved that a Bernoulli measure which only has some non-negative probability is a weak quasi-Bernoulli measure, then it is a quasi-Bernoulli measure. The last part is devoted to the study of a uniform hitting problem in an exponentially mixing dynamical system. This is a random covering problem driven by an exponentially mixing stationary process. For such a covering, among others, we obtain a satisfactory estimation on the covering numbers
APA, Harvard, Vancouver, ISO, and other styles
48

Tahir, Hassane. "Aide à la contextualisation de l’administration de base de données." Paris 6, 2013. http://www.theses.fr/2013PA066789.

Full text
Abstract:
La complexité des tâches d'administration de bases de données nécessite le développement d'outils pour assister les experts DBA. A chaque apparition d’un incident, l'administrateur de base de données (DBA) est la première personne blâmée. La plupart des DBAs travaillent sous de fortes contraintes d'urgence et ont peu de chance d'être proactif. Ils doivent être constamment prêts à analyser et à corriger les défaillances en utilisant un grand nombre de procédures. En outre, ils réajustent en permanence ces procédures et élaborent des pratiques qui permettent de gérer une multitude de situations spécifiques qui diffèrent de la situation générique par quelques éléments contextuels et l'utilisation de méthodes plus adaptées. Ces pratiques doivent être adaptées à ces éléments de contexte pour résoudre le problème donné. L'objectif de cette thèse est d'utiliser le formalisme des graphes contextuels pour améliorer les procédures d'administration de base de données. La thèse montre également l'intérêt de l'utilisation des graphes contextuels pour capturer ces pratiques en vue de permettre leur réutilisation dans les contextes du travail. Jusqu'à présent, cette amélioration est réalisée par le DBA grâce à des pratiques qui adaptent les procédures au contexte dans lequel les tâches doivent être exécutées et les incidents apparaissent. Ce travail servira de base pour la conception et la mise en œuvre d'un Système d’Aide Intelligent Basée sur le Contexte (SAIBC) et qui sera utilisé par les DBAs
The complexity of database administration tasks requires the development of tools for supporting database experts. When problems occur, the database administrator (DBA) is frequently the first person blamed. Most DBAs work in a fire-fighting mode and have little opportunity to be proactive. They must be constantly ready to analyze and correct failures based on a large set of procedures. In addition, they are continually readjusting these procedures and developing practices to manage a multitude of specific situations that differ from the generic situation by some few contextual elements. These practices have to deal with these contextual elements in order to solve the problem at hand. This thesis aims to use Contextual Graphs formalism in order to improve existing procedures used in database administration. The thesis shows also the benefits of using Contextual Graphs to capture user practices in order to be reused in the working contexts. Up to now, this improvement is achieved by a DBA through practices that adapt procedures to the context in which tasks should be performed and the incidents appear. This work will be the basis for designing and implementing a Context-Based Intelligent Assistant System (CBIAS) for supporting DBAs
APA, Harvard, Vancouver, ISO, and other styles
49

Heba, Nurja Ines. "Contributions à l'analyse statistique et économétrique des données géoréférencées." Toulouse 1, 2005. http://www.theses.fr/2005TOU10048.

Full text
Abstract:
L'analyse spatiale est un domaine de recherche qui contribue à développer les aptitudes d'exploration des systèmes d'information géographiques. Nous étudions divers aspects de la modélisation des données géoréférencées. 1) Nous présentons une boîte à outils appelée GEOXP (sous Matlab) constituée de fonctions d'analyse exploratoire des données géo-référencées avec leur dimension spatiale. Ces fonctions intègrent des outils statistiques adaptés aux données spatiales. 2) Nous analysons le contexte théorique de l'analyse spatiale des valeurs immobilières en milieu urbain, en vue de la définition d'un travail empirique. Ce travail nous conduit à réfléchir sur le choix des matrices de poids dans les modèles de régression spatiale et nous proposons un nouveau type de matrice de poids fondée sur la densité des localisations. 3) Nous proposons une méthode pour la classification des données de flux entre des unités géographiques à partir de deux matrices, l'une décrivant les flux et l'autre décrivant leurs relations de voisinage
Spatial analysis is a research topic that might develop the exploration capacity of goegraphical information systems. We study different aspects of georeferenced data modelling. 1) We build a tool-box called GEOXP (using Matlab) organised with statistical functions offering an exploratory analysis of georeferenced data with spatial dimension. These functions use statistical tools adapted for spatial data. 2) We study the theoretical context of a spatial analysis of real estate data in urban environment to prepare an empirical work. This study bring us to a new research on weight matrix choice in spatial regression models and we offer a new type of weight matrix, built on location density. 3) We build a new methodology to classify data flows between geographical units by using two matrix, one describing the flows themselves and the othe one describing their neighbourhood relations
APA, Harvard, Vancouver, ISO, and other styles
50

Coupaye, Thierry. "Un modèle d'exécution paramétrique pour systèmes de bases de données actifs." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00004983.

Full text
Abstract:
Un systeme de bases de données actif est capable d'executer automatiquement des actions predefinies en reponse a des evenements specifiques lorsque certaines conditions sont satisfaites. Les regles actives, de la forme evenement-Condition-Action, sont au coeur de cette approche. Dans cette these, nous nous interessons aux modeles d'execution des systemes actifs. Le modele d'execution d'un systeme actif decrit quand et comment (ordonnancement, synchronisation) sont executées, au cours d'une application, les regles declenchées lors de l'execution d'une transaction. Nous proposons tout d'abord une taxonomie et une representation graphique des modeles d'execution des systemes actifs. Nous exposons ensuite un modele d'execution parametrique nomme Flare (Flexible active rule execution). Une caracteristique essentielle de ce modele est de considerer des modules de regles - chaque module etant destine a une utilisation particuliere des regles. On peut specifier, d'une part, le comportement de chaque regle d'un module, et d'autre part, la strategie d'execution de chaque module. Il suffit, pour cela, de choisir une valeur pour chacun des parametres proposes parmi un ensemble de valeurs predefinies. Nous donnons egalement une semantique denotationnelle (ou fonctionnelle) du modele. Nous montrons que ce formalisme fournit une specification implantable que nous utilisons dans le cadre de l'experimentation que nous menons autours de NAOS - un mecanisme de regles actives pour le SGBD a objets O2 - afin de remplacer son moteur d'execution par Flare.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography