To see the other types of publications on this topic, follow the link: Modélisation des données (informatique) – Informatique.

Dissertations / Theses on the topic 'Modélisation des données (informatique) – Informatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modélisation des données (informatique) – Informatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bisgambiglia, Paul-Antoine. "Traitement numérique et informatique de la modélisation spectrale." Corte, 1989. http://www.theses.fr/1989CORT3002.

Full text
Abstract:
L'ensemble du travail présent dans ce mémoire se coordonne autour des deux points forts suivants: mise au point d'un logiciel informatique spécifique appliqué à la résolution de problèmes décrits par des formes variationnelles faisant intervenir des opérateurs linéaires du second ordre. Cet outil est un logiciel d'éléments finis original (permettant de résoudre des problèmes numériques ardus, sur des petits calculateurs de type pc, et malgré tout très souple d'utilisation) car reposant sur des théorèmes et résultats nouveaux concernant les formes variationnelles, les bases propres, associées aux différents opérateurs permettant de décrire une gamme très large de problèmes. Traitement complet de problèmes de modélisation complexes, par application de la théorie et des méthodes issus de l'analyse spectrale, depuis leurs fondements les plus théoriques, jusqu'à leur résolution.
APA, Harvard, Vancouver, ISO, and other styles
2

Belghiti, Moulay Tayeb. "Modélisation et techniques d'optimisation en bio-informatique et fouille de données." Thesis, Rouen, INSA, 2008. http://www.theses.fr/2008ISAM0002.

Full text
Abstract:
Cette thèse est particulièrement destinée à traiter deux types de problèmes : clustering et l'alignement multiple de séquence. Notre objectif est de résoudre de manière satisfaisante ces problèmes globaux et de tester l'approche de la Programmation DC et DCA sur des jeux de données réelles. La thèse comporte trois parties : la première partie est consacrée aux nouvelles approches de l'optimisation non convexe. Nous y présentons une étude en profondeur de l'algorithme qui est utilisé dans cette thèse, à savoir la programmation DC et l'algorithme DC (DCA). Dans la deuxième partie, nous allons modéliser le problème clustering en trois sous-problèmes non convexes. Les deux premiers sous-problèmes se distinguent par rapport au choix de la norme utilisée, (clustering via les normes 1 et 2). Le troisième sous-problème utilise la méthode du noyau, (clustering via la méthode du noyau). La troisième partie sera consacrée à la bio-informatique. On va se focaliser sur la modélisation et la résolution de deux sous-problèmes : l'alignement multiple de séquence et l'alignement de séquence d'ARN par structure. Tous les chapitres excepté le premier se terminent par des tests numériques
This Ph.D. thesis is particularly intended to treat two types of problems : clustering and the multiple alignment of sequence. Our objective is to solve efficiently these global problems and to test DC Programming approach and DCA on real datasets. The thesis is divided into three parts : the first part is devoted to the new approaches of nonconvex optimization-global optimization. We present it a study in depth of the algorithm which is used in this thesis, namely the programming DC and the algorithm DC ( DCA). In the second part, we will model the problem clustering in three nonconvex subproblems. The first two subproblems are distinguished compared to the choice from the norm used, (clustering via norm 1 and 2). The third subproblem uses the method of the kernel, (clustering via the method of the kernel). The third part will be devoted to bioinformatics, one goes this focused on the modeling and the resolution of two subproblems : the multiple alignment of sequence and the alignment of sequence of RNA. All the chapters except the first end in numerical tests
APA, Harvard, Vancouver, ISO, and other styles
3

Rhin, Christophe. "Modélisation et gestion de données géographiques multi-sources." Versailles-St Quentin en Yvelines, 1997. http://www.theses.fr/1997VERS0010.

Full text
Abstract:
Le nombre de données géographiques disponibles augmente très rapidement à cause de la multiplication des sources de production et de distribution. Les logiciels dédiés à la gestion des données géographiques doivent donc manipuler de gros volumes de données, dont les structures et les représentations sont différentes. Ces logiciels doivent aussi garantir les mêmes fonctionnalités que les systèmes de gestion de bases de données : sûreté de fonctionnement et accès concurrents. Après avoir montré pourquoi les solutions existantes ne peuvent assurer l'ensemble de ces fonctionnalités, nous proposons d'abord un modèle conceptuel de données adapté aux données géographiques multi-sources. Ensuite nous proposons une architecture logicielle qui s'appuie sur un système de gestion de base de données orienté objet et qui conserve l'évolutivité et l'adaptabilité du modèle conceptuel. Cette architecture permet à la fois de garantir les fonctionnalités de base de données et de fournir des méthodes d'accès performantes. L'efficacité de cette architecture est obtenue grâce à l'intégration d'un index spatial au cœur du sgbdoo, au même niveau que les index standards. Nous étudions en détail le comportement d'un index spatial intègré, pour des requêtes de pointe et pour des requêtes de fenêtrage avec des fenêtres de taille variable. De plus, à travers la comparaison avec les comportements du même index spatial non intègré et d'un index standard du sgbdoo, nous mesurons précisément les gains de performance. Enfin nous décrivons les différentes stratégies possibles pour un interpréteur de requêtes comportant des critères thématiques et des critères spatiaux, afin d'utiliser au mieux les index spatiaux
APA, Harvard, Vancouver, ISO, and other styles
4

Primet, Pascale. "Une approche de modélisation des logiciels de robots et une méthodologie de configuration." Lyon, INSA, 1988. http://www.theses.fr/1988ISAL0006.

Full text
Abstract:
La robotique est un domaine qui regroupe de nombreuses disciplines. Un synthèse des résultats acquis en vue d'une conception à caractère global des systèmes de robots est aujourd'hui, indispensable. Notre propos est d'étudier la partie informatique de ces systèmes. Une analyse des systèmes de programmation de robots nous permet de situer le problème du développement des logiciels. Nous montrons que les spécificités des problèmes robotiques créent des besoins particuliers. Ceci nous conduit à proposer une modélisation des logiciels de robots, logiciels évolutifs, devant correspondre au mieux aux exigences futures de la robotique. Nous définissons en particulier les caractéristiques du cœur du système de programmation qui constitue "le système d'exploitation". Nous préconisons ensuite une méthodologie de conception et de composition des modules constituant le sous-ensemble robotique du système informatique adéquat. Cette méthodologie est basée sur trois concepts fondamentaux: une agence d'action-perception ouverte. Des gérants d'appareils robotiques répartis et un utilitaire de configuration interactive.
APA, Harvard, Vancouver, ISO, and other styles
5

Berthelon, Franck. "Modélisation et détection des émotions à partir de données expressives et contextuelles." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00917416.

Full text
Abstract:
Nous proposons un modèle informatique pour la détection des émotions basé sur le comportement humain. Pour ce travail, nous utilisons la théorie des deux facteurs de Schachter et Singer pour reproduire dans notre architecture le comportement naturel en utilisant à la fois des données expressives et contextuelles. Nous concentrons nos efforts sur l'interprétation d'expressions en introduisant les Cartes Émotionnelles Personnalisées (CEPs) et sur la contextualisation des émotions via une ontologie du contexte émotionnel(EmOCA). Les CEPs sont motivées par le modèle complexe de Scherer et représentent les émotions déterminées par de multiple capteurs. Les CEPs sont calibrées individuellement, puis un algorithme de régression les utilises pour définir le ressenti émotionnel à partir des mesures des expressions corporelles. L'objectif de cette architecture est de séparer l'interprétation de la capture des expressions, afin de faciliter le choix des capteurs. De plus, les CEPs peuvent aussi être utilisées pour la synthétisation des expressions émotionnelles. EmOCA utilise le contexte pour simuler la modulation cognitive et pondérer l'émotion prédite. Nous utilisons pour cela un outil de raisonnement interopérable, une ontologie, nous permettant de décrire et de raisonner sur les philies et phobies pour pondérer l'émotion calculée à partir des expressions. Nous présentons également un prototype utilisant les expressions faciales pour évaluer la reconnaissance des motions en temps réel à partir de séquences vidéos. De plus, nous avons pu remarquer que le système décrit une sorte d'hystérésis lors du changement émotionnel comme suggéré par Scherer pour son modèle psychologique.
APA, Harvard, Vancouver, ISO, and other styles
6

Villame, Thérèse. "Modélisation des activités de recherche d'information dans les bases de données et conception d'une aide informatique." Paris 13, 1994. http://www.theses.fr/1994PA131009.

Full text
Abstract:
Alors que les systemes informatiques de recherche d'information sont de plus en plus nombreux et sophistiques, leur acces reste difficile pour des utilisateurs non professionnels. Menes dans un contexte industriel, les travaux presentes dans cette these ont pour objectif de contribuer a la conception de systemes plus conviviaux et apportant une aide reelle aux utilisateurs. Dans cette perspective, nous considerons que cette aide ne doit pas se limiter a l'amelioratioin d'outils de recherche existant ponctuellement, mais etre veritablement integree a l'ensemble du processus de recherche. De ce point de vue, le centre de l'analyse est l'activite de l'utilisateur, qu'il est indispensable d'etre en mesure de decrire, mais egalement d'expliquer. Nous soutenons alors que l'activite doit etre abordee en situation de travail reelle, pour rendre compte du contexte dans lequel elle se deroule et privilegier le point de vue de l'utilisateur, pour cerner la signification qu'il accorde a ses actions. Nous abordons l'activite de recherche d'information a partir du cadre methodologiqzue et theorique du cours d'action, qui s'attache a prendre et rendre compte de ces dimensions. Nous proposons alors un modele de la construction de cette activite a deux niveaux. Le niveau de sa construction globale nous permet de montrer queles recherches sont organisees par les utilisateurs de facon coherente autour de grandes preoccupations pratiques et de degager les caracteristiques essentielles de l'activite. Le niveau de la construction locale nous permet de degager des elements d'explication, en particulier en ce qui concerne les savoirs et connaissances mis en oeuvre au cours de l'activite. Ces deux niceaux d'analyse sont complementaires et nous donnent les moyens de proposer un ensemble organise de principes directeurs pour la conception d'un systeme informatique de
Even though information retrieval computer systems are getting more and more numerous and sophisticated, their access remains difficult for non specialists. The aim of this thesis, developed in an industrial context, is to contribute to the design of more user-friendly computer systems providing actual support. We consider that such a support must not be limited to the improvement of existing tools, but must be integrated into the whole process of information retrieval. From this point of view, the focus of analysis is the user's work practice that must be described as well as explained. We therefore believe that work practice shall be captured within the real work environment, to reflect the context in which it is performed. To understand the actual meaning given by the user to his actions, the analysis has to be centered on user's point of view. We addressed information retrieval activity with the methodological and theoretical "course of action" framework, that aims at taking into account and reflecting these work practice dimensions. Then, we proposed a two level model of construction of this activity. The global construction level shows that information retrieval process is organized by users in a coherent way around practical concerns, and outlines the essential characteristics of activity. The local construction level outlines the explanatory elements, especially the "know-low" and knowledge exercised during activity. Both analysis levels are complementary and provide adequate means to offer a set of organized guidelines for the design of a computer system devoted to database information retrieval
APA, Harvard, Vancouver, ISO, and other styles
7

Rudloff, David. "Modélisation conceptuelle et optimisation des requêtes dans une interface en langue naturelle pour des bases de données." Université Louis Pasteur (Strasbourg) (1971-2008), 2000. http://www.theses.fr/2000STR13244.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Aouadhi, Mohamed Amine. "Introduction de raisonnement probabiliste dans la méthode B événementiel." Thesis, Nantes, 2017. http://www.theses.fr/2017NANT4118.

Full text
Abstract:
Les méthodes de modélisation et de vérification formelles à base de preuves, par exemple le B événementiel, ne permettent pas, à ce jour, de bien prendre en compte l’ensemble des aspects quantitatifs des systèmes réels. En particulier, l’ajout d’aspects probabilistes dans les systèmes B événementiel est une problématique qui n’a pas été bien étudiée dans l’état de l’art. La difficulté réside principalement dans l’expression des probabilités ainsi que la vérification des aspects probabilistes dans ce formalisme. Dans cette thèse, une extension probabiliste au B événementiel est proposée pour permettre la description ainsi que la véri- fication des aspects probabilistes des systèmes. Nous désignons cette extension par le B événementiel probabiliste. Dans cette extension, nous proposons de remplacer toutes les sources de non-déterminisme en B événementiel par des probabilités, ce qui permettra ainsi la description des comportements purement probabilistes. Le processus de développement en B événementiel étant basé sur le raffinement, nous proposons plusieurs approches de développement basées sur le raffinement qui permettront l’intégration progressive des probabilités. En particulier, nous étudions la convergence presque certaine d’un ensemble d’événements dans cette extension. La méthode B événementiel est équipée de la plateforme Rodin que nous étendons pour permettre la prise en compte des éléments de l’extension. Les différents aspects de ce travail sont illustrés par plusieurs études de cas : un protocole de communication pair à pair, le système de train d’atterrissage d’un avion et un système de freinage d’urgence
From the best of our knowledge, proof based modeling and verification methods, for example Event-B, are not capable of handling the complete spectrum of quantitative aspects from real-life systems. In particular, modeling probabilistic aspects of systems within Event-B is a problem which has not been well studied in the state of the art. The main difficulties lie in the expression of probabilities and the verification of probabilistic aspects within Event-B. This thesis presents a probabilistic extension of Event-B to support modeling and verification of probabilistic aspects of systems. We denote this extension by probabilistic Event-B. We propose to replace all the non-deterministic choices by probabilistic choices, which allows the description of fully probabilistic systems. The development process in Event-B is based on refinement, we therefore propose some development approaches based on refinement which permit the progres- sive integration of probabilities in Event-B models. In particular, we study the almost-certain convergence of a set of events within this extension. The Event-B method is equipped with the Rodin platform which we extend to take into consideration the new added elements of our extension.The different aspects of this work are illustrated by several case studies: a peer-to-peer communication protocol, a landing gear sys- tem and an emergency brake system
APA, Harvard, Vancouver, ISO, and other styles
9

Piolle, Guillaume. "Agents utilisateurs pour la protection des données personnelles : modélisation logique et outils informatiques." Phd thesis, Grenoble 1, 2009. https://theses.hal.science/tel-00401295.

Full text
Abstract:
Les usages dans le domaine des systèmes multi-agents ont évolué de manière à intégrer davantage les utilisateurs humains dans les applications. La manipulation d'informations privées par des agents autonomes appelle alors à une protection adaptée des données personnelles. Les présents travaux examinent d'abord le contexte légal de la protection de la vie privée, ainsi que les divers moyens informatiques destinés à la protection des données personnelles. Il en ressort un besoin de solutions fondées sur les méthodes d'IA, autorisant à la fois un raisonnement sur les réglementations et l'adaptation du comportement d'un agent à ces réglementations. Dans cette perspective, nous proposons le modèle d'agent PAw (Privacy-Aware) et la logique DLP (Deontic Logic for Privacy), conçue pour traiter des réglementations provenant d'autorités multiples. Le composant de raisonnement normatif de l'agent analyse son contexte hétérogène et fournit une politique cohérente pour le traitement des données personnelles. L'agent PAw contrôle alors automatiquement sa propre utilisation des données en regard de cette politique. Afin d'appliquer cette politique de manière distante, nous étudions les différentes architectures d'applications distribuées orientées vers la protection de la vie privée, notamment celles fondées sur les principes du Trusted Computing. Nous en proposons une complémentaire, illustrant la possibilité d'utiliser différemment cette technologie. L'implémentation de l'agent PAw permet la démonstration de ses principes sur trois scénarios, montrant ainsi l'adaptabilité de l'agent à son contexte normatif et l'influence des réglementations sur le comportement de l'application
Usage in the domain of multi-agent systems has evolved so as to integrate human users more closely in the applications. Manipulation of private information by autonomous agents has then called for an adapted protection of personal data. This work first examines the legal context of privacy protection and the various computing methods aiming at personal data protection. Surveys show a significant need for AI-based solutions, allowing both reasoning on the regulations themselves and automatically adapting an agent's behaviour to these regulations. The Privacy-Aware (PAw) agent model and the Deontic Logic for Privacy, designed to deal with regulations coming from multiple authorities, are proposed here in this perspective. The agent's normative reasoning component analyses its heterogeneous context and provides a consistent policy for dealing with personal information. PAw agent then automatically controls its own usage of the data with regard to the resulting policy. In order to enforce policies in a remote manner, we study the different distributed application architectures oriented towards privacy protection, several of them based on the principles of Trusted Computing. We propose a complementary one, illustrating a different possible usage of this technology. Implementation of the PAw agent allows demonstration of its principles over three scenarios, thus showing the adaptability of the agent to its normative context and the influence of the regulations over the behaviour of the application
APA, Harvard, Vancouver, ISO, and other styles
10

Piolle, Guillaume. "Agents utilisateurs pour la protection des données personnelles : modélisation logique et outils informatiques." Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00401295.

Full text
Abstract:
Les usages dans le domaine des systèmes multi-agents ont évolué de manière à intégrer davantage les utilisateurs humains dans les applications. La manipulation d'informations privées par des agents autonomes appelle alors à une protection adaptée des données personnelles. Les présents travaux examinent d'abord le contexte légal de la protection de la vie privée, ainsi que
les divers moyens informatiques destinés à la protection des données personnelles. Il en ressort un besoin de solutions fondées sur les méthodes d'IA, autorisant à la fois un raisonnement sur les réglementations et l'adaptation du comportement d'un agent à ces réglementations. Dans cette perspective, nous proposons le modèle d'agent PAw (Privacy-Aware) et la logique DLP (Deontic Logic for Privacy), conçue pour traiter des réglementations provenant d'autorités multiples. Le composant de raisonnement normatif de l'agent analyse son contexte hétérogène et fournit une politique cohérente pour le traitement des données personnelles. L'agent PAw contrôle alors automatiquement sa propre utilisation des données en regard de cette politique. Afin d'appliquer cette politique de manière distante, nous étudions les différentes architectures d'applications distribuées orientées vers la protection de la vie privée, notamment celles fondées sur les principes du Trusted Computing. Nous en proposons une complémentaire, illustrant la possibilité d'utiliser différemment cette technologie. L'implémentation de l'agent PAw permet la démonstration de ses principes sur trois scénarios, montrant ainsi l'adaptabilité de l'agent à son contexte normatif et l'influence des réglementations sur le comportement de l'application.
APA, Harvard, Vancouver, ISO, and other styles
11

Girard, Philippe. "Etude de la conduite de la conception des produits manufacturés : contribution à l'ingénierie des systèmes de conception." Bordeaux 1, 1999. http://www.theses.fr/1999BOR10525.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Biennier, Frédérique. "Modélisation d'une base d'hyperdocuments et méthode connexionniste d'aide a la navigation." Lyon, INSA, 1990. http://www.theses.fr/1990ISAL0104.

Full text
Abstract:
L'utilisation d'une base d'hyperdocuments doit être au moins aussi agréable que l'usage d'une documentation sur support papier. Un des principaux problèmes rencontrés par les utilisateurs, submergés de possibilités de déplacement le long des liens établis entre les nœuds de l'hyperdocument, consiste à accéder aux informations pertinentes le long d'un parcours adapté à leurs besoins propres. Le travail présenté ici commence par préconiser une décomposition de la base documentaire en trois niveaux, ainsi qu'une structure à base d'arbres persistants afin de permettre le stockage de plusieurs niveaux de versions avec un minimum de redondances. Ensuite, nous avons couplé la base documentaire avec un réseau de neurones associatif, activé sur demande selon des modalités particulières. De là procède l'assistance à l'utilisateur, en permanence susceptible de proposer le parcours de consultation qui semble le mieux correspondre à ses besoins apparents. Le système est totalement soumis au contrôle de l'utilisateur grâce à un ensemble de paramètres aisément maniables. Enfin des raffinements successifs permettent à l'utilisateur d'obtenir pleinement satisfaction
Hyperdocument bases must at least be as easy to use as paper documents. One of the readers' major problem is to select a path, from a myriad of browsing possibilities along the defined links, adapted to their own goals in order to reach the information they need. First, we propose a ,storage model for the hyperdocument base. By splitting the structure in three levels and an heavy use of persistent trees in each level, redundancy is avoided and several kinds of version can be stored. Then, the documentary base is coupled to an associative epigenetic neural network. By running this network, according to particular activation rules, a path adapted to the users' defined needs is dynamically built. By this way, the system proposes the answers and their organizations which seem to best fit the users' needs. By using several simple parameters, the users control totally the system and they can adjust the answers to their particular needs by several refinements
APA, Harvard, Vancouver, ISO, and other styles
13

Delprat, J. Christophe. "Application des concepts et des outils d'HBDS à l'étude de Merise." Paris 6, 1991. http://www.theses.fr/1991PA066461.

Full text
Abstract:
Ce mémoire propose une étude originale de Merise, une des méthodes de conception de systèmes d'information les plus répandues en France. Le modèle de base utilisé pour ce travail est HBDS (hypergraph based data structure) développé par le professeur F. Bouillé, directeur du laboratoire d'informatique appliquée aux sciences de la terre (LIST). Il permet non seulement de représenter les données à l'aide d'un formalisme simple, mais également de manipuler ces dernières grâce à une symbolique (l'EXEL). Ce langage algorithmique assure une portabilité des programmes parmi la plupart des langages procéduraux, l'ADT et le simula. A l'aide d'EXEL et d'HBDS, l'étude de merise s'est principalement portée autour de trois centres d'intérêts : la structuration des informations la validité de cette représentation, ainsi que la vérification des différents modèles regroupant ces données, et la transformation progressive de ces modèles suivant le cycle d'abstraction décrit par Merise. Un autre problème est ensuite abordé. Il s'agit du passage entre le formalisme de Merise et celui d'HBDS. Ce dernier travail est basé sur un exemple concret du domaine pétrolier.
APA, Harvard, Vancouver, ISO, and other styles
14

Goullioud, Renaud. "Modélisation des structures d'échanges de données dans un environnement parallèle : approche par simulation à événements discrets." Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0093.

Full text
Abstract:
L'analyse des performances des machines multiprocesseurs peut s'envisager de plusieurs manières: l'approche analytique, l'utilisation de logiciels de simulation spécifiques ou l'utilisation de simulateurs existants et d'application très générale. La simulation à événements discrets avec le simulateur SIMAN a été retenue. Ainsi les principaux éléments du système sont modélisés sans atteindre le niveau électronique du composant. Afin de valider notre approche, nous avons effectué une étude comparée, entre l'approche analytique et la modélisation par SIMAN, du problème de la cohérence entre les caches. Les résultats obtenus montrent que notre approche est précise et sensible. De plus, nous avons mis en évidence ses apports par rapport à la solution analytique. Afin de montrer l'intérêt de l'approche, un cas pratique est étudié : un système cible à trois transputers. Les résultats comparés entre les simulations d'un programme réel sur le modèle du système et l'exécution réelle confirment l'exactitude et la précision de notre méthode d'analyse du comportement du système cible. Bien que l'étude ait été effectuée sur une machine à base de trois transputers, elle peut sans difficultés être appliquée à des architectures plus complexes
The capabilities of the thermal probe for determining the thermal conductivity have been studied in phase change materials. A numerical modeling in ID cylindrical coordinates has been performed in order to predict thermal behaviour of the probe-material system. Lt takes into account the important variation of specific heat. An enthalpy formulation suppres the need of calculating the solid-liquid interface position. Faisability and limits of the method have been obtained from simulations. Lt needs evaluation of sensitivity coefficients for all parameters. Calculated and noised thermograms have allowed to develop a modified Gauss minimisation method wich removes instability and divergence caused by linear dependence of sensivity coefficients. An experimental set up has been carried out and water-agar gel conductivity has been determined
APA, Harvard, Vancouver, ISO, and other styles
15

Bonnail, Nicolas. "Analyse des données, modélisation et commande pour la microscopie en champ proche utilisant des actionneurs piézoélectriques." Aix-Marseille 2, 2001. http://www.theses.fr/2001AIX22059.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Longueville, Véronique. "Modélisation, calcul et évaluation de liens pour la navigation dans les grands ensembles d'images fixes." Toulouse 3, 1993. http://www.theses.fr/1993TOU30149.

Full text
Abstract:
La conception et l'etude d'un systeme de recherche d'images peut se resumer a une double interrogation: comment optimiser l'acces a l'information pour repondre au mieux aux attentes des utilisateurs et comment evaluer les performances du systeme par rapport a ces attentes? dans ce contexte, cette these traite a la fois de la construction et de l'evaluation des graphes de connexion pour la navigation visuelle dans les grands ensembles d'images fixes. Pour un ensemble donne d'images, chaque sommet du graphe represente une image et les arcs reliant les sommets dans le graphe definissent l'ensemble des liens existants entre les images. Via une interface de parcours visuel dans le graphe adaptee, ce sont ces liens que les utilisateurs suivent lors de leurs recherches en naviguant d'image en image. Au-dela des outils de construction d'un graphe de liens dans un grand ensemble d'images, les apports principaux de cette these se situent: sur le plan des interfaces utilisateur: la notion de vues differentes sur un meme ensemble de liens permet a l'utilisateur de mettre en uvre differents types de parcours visuels; sur le plan de l'evaluation: plusieurs modeles d'utilisation d'un systeme de recherche de documents sont proposes et des protocoles et mesures d'evaluation leur sont associes. Les protocoles de test ont ete mis en uvre lors d'experimentations reelles par des utilisateurs, et les resultats correspondants sont presentes et discutes. On y trouve la confirmation de l'efficacite de la navigation visuelle pour l'exploration d'un ensemble d'images et la generalisation de selections preexistantes, mais aussi une meilleure quantification de ses limites pour la recherche finalisee d'une image ou d'un petit nombre d'images
APA, Harvard, Vancouver, ISO, and other styles
17

Buard, Pierre-Yves. "Modélisation des sources anciennes et édition numérique." Caen, 2015. https://hal.archives-ouvertes.fr/tel-01279385.

Full text
Abstract:
Les sources anciennes présentent une complexité d'organisation textuelle qui incite à la définition de modèles d'édition spécifiques adaptés. Sur la base de l'étude des pratiques des métiers de la conservation, de l'analyse et de l'édition des textes anciens, la thèse propose un modèle général d'organisation du travail permettant la circulation des informations sur les objets conservés ainsi que les textes portés par ces mêmes objets. La prise en compte des cultures métier confrontées au contexte de la convergence numérique et de l'omniprésence du réseau conduit à interroger la notion de document pour la replacer dans une logique plus vaste des flux de données et des fragments d'informations numériques. Nous proposons de considérer et d'organiser l'ensemble des informations manipulées en flux de textes structurés par les chercheurs en sciences en humaines et sociales. En nous appuyant sur de nombreuses expérimentations menées dans le monde de l'édition institutionnelle, nous proposons un modèle d'organisation des ressources textuelles finement structurés dans le but de faciliter les exploitations éditoriales et les programmes de recherche dans le domaine des humanités numériques
Ancient sources present a very complex text organization that guides to define dedicated patterns. Beginning with the study of practices in the fields of preservation, analyze and edition of ancient texts, this thesis gives a general work pattern to organize circulation of information on objects and on texts carried by these objects. Paying attention to the cultural dimension of skills envolved in ancient sources facing both digital convergence and global networking guides us to rethink the document in the larger fields of flows and fragments. We propose to organize all informations used in text flows marked up by scholars. Based on many experimentations lead in institutional publishing, we propose a general organisational pattern to manage highly annotated textual resources in order to easily build editorial or research exploitations
APA, Harvard, Vancouver, ISO, and other styles
18

Wakim, Bernadette. "La Conception des bases de données orientées objet : Propositions pour la construction d'un AGL." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0028.

Full text
Abstract:
L'arrivée sur le marché des premiers SGBD orientés objet conduit à poser le problème de conception de ces bases de données orientées objet. En effet, plus systèmes d'information sont complexes, plus les outils pour les traiter deviennent sophistiqués, plus le recours à des méthodes et outils de conception deviennent nécessaires. Il convient donc d'explorer de nouvelles voies afin que ces SGBD puissent être pleinement utilisés. Nous proposons quelques concepts pour une approche méthodologique orientée objet. Le but cherché consiste à offrir un ensemble de représentations graphiques permettant de traduire les notions de d'attribut-tuple , d'attributs atomiques, de liens d'agrégation et d'héritage. La finalité est, bien-sûr, la génération de code permettant d'implanter le schéma d'une base de données d'un SGBD orienté objet (cible 02). La méthode se caractérise par une phase d'intégration impliquant des tâches algorithmiques, des décisions humaines (choix de certaines relations , etc. . . ). Parmi ces décisions, certaines ont codées ·et enregistrées comme des règles expérimentales applicables par défaut, d'autres interviennent lors du dialogue entre le système et l'utilisateur. Des processus d'intégration sont proposés afin de fournir une vision un recours aides outils de conception (AGL ). Nous avons mis au oint un permettant de visualiser graphiquement les objets suivant les au modèle et assurant d'une manière automatique (ou semi-automatique des vues utilisateurs
The recent apparition of the Object Oriented DBMSs requires an enhancement of classical information system design. The complexity of the Information System is accompanied by the development of more sophisticated aide tools and by having recourse to design methodologies. Using the traditional design methods are insufficient to abject approach. For example, the methods formed upon the Entity - Association model are not convenient for the design of applications developed on abject oriented DBMSs. New means must be explored to benefit as much as possible from such DBMSs. We propose some concepts for an Object Oriented methodology. The proposed method, folloing an object oriented approach provides a static and dynamic representation of the applications. Our approach considers different aspects of the same object, depending on the viewpoint of each users. We proceed then to integrate all these views in a global conceptual scheme. The views integration, tockled in some classical conceptual methods arises new problems features and highlights the complexity of phenomena. E can mention, for example. Inheritance conflicts, data semantic, synonymy and polysemy. The target DBMS which guides us is 02. We have developed a tool. (CASE)
APA, Harvard, Vancouver, ISO, and other styles
19

Carrère, Cécile. "Prise en compte de l'hétérogénéité tumorale dans l'optimisation d'une chimiothérapie : contrôle optimal, analyse théorique et numérique." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0305.

Full text
Abstract:
Pour éviter l'apparition de cellules cancéreuses résistantes à une chimiothérapie, beaucoup de protocoles imposent de fortes doses de médicament : la dose maximale tolérée par le patient (MTD). Dans une série d'expériences in vitro menées par M.Carré au laboratoire du CRO2 à la Timone, Marseille, la présence de cellules résistantes dès le début du traitement fait échouer ce protocole, alors que l'utilisation de plus faibles doses permet de contrôler la taille de la tumeur. Afin d'expliquer et d'optimiser ce phénomène, G.Chapuisat a développé un modèle EDO reproduisant les résultats de ces expériences. L'analyse du plan de phase de ce système, et l'utilisation de la théorie du contrôle optimal, permettent alors de déterminer des protocoles de traitements efficaces pour réduire la tumeur à une taille minimale. Afin de prendre en compte l'organisation spatiale des cellules, nous avons ensuite étudié un modèle EDP de compétition-diffusion de deux espèces dans un milieu favorable. Enfin, en collaboration avec H.Zidani, nous développons des méthodes d'optimisation numérique pour contrôler la taille de la tumeur au cours du temps
To prevent the emergence of drug resistance during cancer chemotherapy, most medical protocols use the maximal tolerated dose (MTD) of drug possible. In a series of in vitro experiments, M.Carré showed that such protocols fail if resistant cells are present in the initial tumour. However, smaller doses of treatment maintain a small, stable tumour sensitive to the drug. To model and optimize such results, G.Chapuisat designed an ODE mathematical model of this experiment. We first study it in the framework of optimal control theory, to design protocols minimizing the tumour size and resistant charge. Then, we study a PDE model of competition-diffusion of two species, to understand the influence of motility on resistance emergence. Finally, we developped with H.Zidani other technics of treatment optimization, using dynamic programming
APA, Harvard, Vancouver, ISO, and other styles
20

Fernandez, Conception. "Modélisation des systèmes d'exploitation par HBDS." Paris 6, 1988. http://www.theses.fr/1988PA066235.

Full text
Abstract:
Modélisation générale des systèmes d'exploitation en utilisant la méthode HBDS (hypergraph based data structure) basée sur les types abstraits de données et s'appuyant sur une représentation graphique rigoureuse. Les concepts HBDS permettent la représentation des structures des données du système, alors que le fonctionnement de son noyau est simulé par des algorithmes écrits en exel.
APA, Harvard, Vancouver, ISO, and other styles
21

Abouchi, Nacer. "Analyse et mesure de performance des reseaux de communication par simulation." Lyon, INSA, 1990. http://www.theses.fr/1990ISAL0057.

Full text
Abstract:
La complexité des réseaux de communications, qu'ils soient locaux ou étendus, ne peut être modélisée que partiellement par les méthodes mathématiques existantes. L'analyse des performances et du comportement des réseaux étendus en fonction des techniques de routage adaptatifs est encore mal maîtrisée. De même, il peut être utile d'étudier quantitativement les techniques d'accès aux réseaux locaux en fonction de leur configuration ou de leur utilisation. La simulation aléatoire à événement discret est une solution qui peut prendre en compte toutes les spécifications d'un réseau sans les simplifier, il existe encore peu d'outils spécialisés dans la simulation de réseaux. Dans une première partie, après avoir évoqué les rôles de la modélisation et de la simulation dans les systèmes notamment les systèmes de communications, nous présentons les principaux critères qu'il faut étudier afin de pouvoir faire un choix correct d'outil de modélisation et de simulation; une étude comparative des outils les plus utilisés est présentées. La présentation des modèles de simulations que nous avons conçu pour représenter les réseaux de communications locaux et étendus fait l'objet du deuxième chapitre. La troisième partie sera consacrée à "OSIRES",· l'outil de simulation de réseaux que nous avons développé. Notre étude est poursuivie par l'analyse des différents algorithmes de routages déterministes ou adaptatifs rencontrés dans des réseaux existants ou proposés dans la littérature. Dans une dernière partie les techniques d'accès aux réseaux locaux retenues par l'OSI sont analysées et comparées. Nous concluons ce mémoire par les perspectives et les suites à donner à ce travail
The of communication networks either local area or wide area networks can be partially modelized using the existing mathematical methods. The analysis or the wide area network's performances and of the behaviour as a function of adaptive routing techniques is still badly controlled. In the same way for local area networks, it may be usefully to study quantitatively their access random discrete event simulation is a solution which can take all the specifications of a network into consideration without any simplification. In the first part, after the evocation of the system modelling and simulation roles, more particularly of the communication systems, we introduce ·the principal criteria that should be studied in order to choose correctly the tools of modelling and simulation. A comparative study of the mostly used tools is also included. The goal of the second part is to present the simulation models that we designed to represent the communication networks (local or wide). The 3 rd part is dedicated for "OSIRES" the network simulation tool we developed. Our study will be guided by the analysis of different deterministic or adaptive routing algorithms either found in the existing networks or proposed in the literature. In the last part, the local area network access techniques proposed by ISO will be analysed and compared. Finally, we conclude this thesis by the perspective and what could be do more
APA, Harvard, Vancouver, ISO, and other styles
22

Bouchikhi-Ouzzane, Samira. "La modélisation du comportement de l'interprète humain face à des données de télédétection des régions urbaines." Paris, EHESS, 1999. http://www.theses.fr/1999EHES0054.

Full text
Abstract:
La these de doctorat porte sur la modelisation du comportement de l'interprete humain face a des donnees de teledetection des regions urbaines ; la conception d'un systeme a base de connaissances et la construction d'une base de donnees ; la mise en place d'un tel systeme et sa validation. Suivant les applications de la teledetection pour l'analyse de l'espace urbain, nous avons developpe un modele d'aide a la decision. La recherche est organisee autour deux axes : la modelisation des connaissances et l'application de ce modele a l'analyse de l'espace urbain a l'aide de donnees satellitaires. Le projet de recherche s'appuie sur les experiences de specialistes du domaine puisqu'il porte sur l'analyse d'image, la teledetection et l'urbanisme. Il presente une methodologie adaptee et les differentes etapes de l'elaboration de l'outil implemente permettant d'analyser et de reproduire le raisonnement des experts. Le systeme construit et realise est applique a plusieurs exemples d'analyse de villes.
APA, Harvard, Vancouver, ISO, and other styles
23

Sall, Ousmane. "Contribution à la modélisation de données multi-sources de type DATAWEB basé sur XML." Littoral, 2010. http://www.theses.fr/2010DUNK0284.

Full text
Abstract:
Des données de nature environnementale sur la vallée du fleuve Sénégal ont collectées depuis de nombreuses années à partir des activités des différents experts y intervenant. Ces données de nature spatio-temporelle, présentent certaines particularités sémantiques et structurelles selon les partenaires. Des moyens de collecte et de stockage divers sont utilisés, induisant ainsi pour les données une dimension structurelle de l’hétérogénéité à laquelle est apparentée une dimension sémantique liée à leur description. Afin de résoudre la problématique de l’hétérogénéité structurelle, nous avons proposé l’introduction d’une phase préalable de pré-intégration par une représentation de l’ensemble des données partenaires sous XML, constituant ainsi un entrepôt de documents XML dit ici Dataweb. Nous utilisons ensuite le vocabulaire contrôlé décrivant les données de chaque partenaire et la réutilisation d’une ontologie du domaine comme un support pour la construction d’une base de connaissances. Cette base est alors générée partir du dataweb partenaire constituant ainsi un dataweb sémantique. Ce dataweb sémantique permet ainsi l’intégration sémantique et structurelle des données de chaque partenaire. Pour l’intégration entre les différents dataweb sémantiques nous exploitons les travaux développés sur les systèmes à base de hubs en définissant une ontologie avec les concepts que chaque partenaire désire partager et à partir desquels nous constituons une ontologie globale
Environmental data in the Senegal River Valley have been collected for many years from the activities of the various experts and organisms involved therein. These spatio-temporal data display certain specific semantic and structural features depending on the owners. Various systems have been used for the collection and storage of the data, thus, conferring them a structural dimension of heterogeneity, to which a semantic dimension related to them description has been attached, with a proper vocabulary controlled within every organism or expert. In this context, we perform an integration in three phases. First, a structural integration phase, based on the use of XML documents warehouses (called dataweb), allows us to create a warehouse for each agency involved in the project. A second step is to make the integration of these XML documents warehouses by associating a knowledge-base to each warehouse thus constituting semantic dataweb. That is done by an automatic building of OWL ontology starting from XML dataweb and by re-use of the Agricultural Ontology Service. A third mediation phase permits to query in a uniform manner the different semantic dataweb via a web application
APA, Harvard, Vancouver, ISO, and other styles
24

Tchienehom, Pascaline Laure. "Modélisation et exploitation de profils : accès sémantique à des ressources." Toulouse 1, 2006. http://www.theses.fr/2006TOU10026.

Full text
Abstract:
L'accès à des ressources est une vision plus large de l'accès à l'information où les ressources peuvent être étendues à toutes sortes de catégories de personnes, choses ou actions. L'hétérogénéité de ces ressources a conduit au développement de nombreuses méthodes d'accès. Ces méthodes sont basées sur la description des ressources utilisées, que l'on appelle profil, et sur la définition de principes d'exploitation de ces descriptions pour la réalisation d'une tâche spécifique (recherche, filtrage, etc. ). Les modèles de profils et principes d'exploitation de ces derniers diffèrent d'une application à une autre. Afin de faire collaborer différentes applications, il y a un réel besoin de définir un cadre homogène et flexible de modélisation et d'exploitation de profils. Nos travaux visent à proposer des solutions sur ces deux aspects, au travers d'un modèle générique de profil ainsi que de méthodes d'analyse sémantique et d'appariement d'instances de ce modèle. Pour valider nos propositions, un outil d'aide à la construction, à la visualisation et à l'analyse sémantique de profils a été implémenté. De plus, une évaluation des méthodes d'analyse sémantique et d'appariement de profils proposées a été effectuée
Resources access is a broader view of information access where resources can be extended to any kind of persons, things and actions. Heterogeneity of resources has led to development of several access methods. These methods rely on the description of resources that we call profile, and also on the definition of using ru les of those profiles in order to achieve a specific task (retrieval, filtering, etc. ). Profiles and their using rules differ from one application to another. For applications cooperation, there is a real need of a flexible and homogenous framework for the modelling and use of profiles. Our research work aims at prodiving solutions in those two aspects, thanks to a profile generic model and methods for semantic analysis and matching of instances of this model. In order to validate our proposals, an assistant tool for profiles construction, visualization and semantic analysis has been implemented. Furthermore, an evaluation of methods for profiles semantic analysis and matching has been carried out
APA, Harvard, Vancouver, ISO, and other styles
25

Shariat, Ghodous Parisa. "Modélisation intégrée de données de produit et de processus de conception." Lyon 1, 1996. http://www.theses.fr/1996LYO10208.

Full text
Abstract:
Le travail de recherche présenté dans ce mémoire, traite de la problématique de développement d'un produit dans un environnement d'ingénierie moderne. L'échange et le partage de données dans un tel environnement jouent un rôle important dans l'amélioration de la qualité de produit et de la productivité. L'essentiel de notre travail, porte sur la représentation générique des connaissances liées au développement d'un produit. Dans le domaine de représentation de données de produit, les recherches récentes ont abouti à la norme internationale pour la représentation interpretable par l'ordinateur des informations de produit et leurs échanges, nommée STEP (STandard for Exchange of Product data models). Mais afin de faciliter l'intégration des systèmes XAO (CAO, CFAO,. . . ) et pour avoir un support suffisant pour les activités de gestion et d'ingénierie dans les systèmes CIM (Computer Integrated Manufacturing), il n'est pas suffisant de représenter uniquement les données entre les processus mais il est aussi nécessaire de représenter les processus. Ce travail a pour objet l'étude d'une approche pour la modélisation simultanée de produit et de ses processus de développement. Cette approche fournit un cadre pour représenter les données de produit et les données de processus en utilisant la méthodologie et les modèles de données de STEP. Pour faciliter la modélisation normalisée de données de produit et de processus, un prototype de système de générateur de modèles de données STEP (SMGS) a été développé. Dans ce système, en utilisant la norme STEP comme ressource de base, nous avons essayé de résoudre les problèmes de transformation des différents points de vue des experts de modélisation de données de produit et ses processus. L'applicabilité de ce modèle est verifiée par des exemples d'application pris dans les domaines de la cinématique, de la modélisation géométrique et de la trajectoire d'outil
APA, Harvard, Vancouver, ISO, and other styles
26

Politaki, Dimitra. "Vers la modélisation de clusters de centres de données vertes." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4116.

Full text
Abstract:
La consommation énergétique des clusters de centres de données augmente rapidement, ce qui en fait les consommateurs d'électricité à la croissance la plus rapide au monde. Les sources d’électricité renouvelables et en particulier l’énergie solaire en tant qu’énergie propre et abondante peuvent être utilisées pour couvrir leurs besoins en électricité et les rendre «verts», c’est-à-dire alimentés par le photovoltaïque. Ce potentiel peut être exploré en prévoyant l'irradiance solaire et en évaluant la capacité fournie pour les clusters de centres de données. Dans cette thèse, nous développons des modèles stochastiques pour l'énergie solaire; un à la surface de la Terre et un second qui modélise le courant de sortie photovoltaïque. Nous d'abord validons nos modèles par des données réels, puis nous proposons une étude comparative avec d’autres systèmes, notamment les modèles dits on-off. Nous concluons que notre modèle d'irradiance solaire peut capturer les corrélations multi-échelles de façon plus optimale, et il se montre particulièrement convénient dans le cas d’une production à petite échelle. De plus, nous proposons une nouvelle analyse de cycle de vie pour un système de cluster réel, ainsi qu'un modèle de cluster prenant en charge la soumission de travaux par lots et prenant en compte le comportement client impatient et persistant. Enfin, pour comprendre les caractéristiques essentielles du cluster d’ordinateurs, nous analysons deux cas: le complexe Google publié et le Nef cluster de l’Inria. Nous avons également implémenté marmoteCore-Q, un outil de simulation d’une famille de modèles de file d’attente, basé sur nos modèles
Data center clusters energy consumption is rapidly increasing making them the fastest-growing consumers of electricity worldwide. Renewable electricity sources and especially solar energy as a clean and abundant energy can be used, in many locations, to cover their electricity needs and make them "green" namely fed by photovoltaics. This potential can be explored by predicting solar irradiance and assessing the capacity provision for data center clusters. In this thesis we develop stochastic models for solar energy; one at the surface of the Earth and a second one which models the photovoltaic output current. We then compare them to the state of the art on-off model and validate them against real data. We conclude that the solar irradiance model can better capture the multiscales correlations and is suitable for small scale cases. We then propose a new job life-cycle of a complex and real cluster system and a model for data center clusters that supports batch job submissions and cons iders both impatient and persistent customer behavior. To understand the essential computer cluster characteristics, we analyze in detail two different workload type traces; the first one is the published complex Google trace and the second, simpler one, which serves scientific purposes, is from the Nef cluster located at the research center Inria Sophia Antipolis. We then implement the marmoteCore-Q, a tool for the simulation of a family of queueing models based on our multi-server model for data center clusters with abandonments and resubmissions
APA, Harvard, Vancouver, ISO, and other styles
27

Chauveau, Estelle. "Optimisation des routes maritimes : un système de résolution multicritère et dépendant du temps." Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0139.

Full text
Abstract:
Les compagnies d'affrètement maritime cherchent à utiliser les prévisions météorologiques pour optimiser les déplacements de leurs bateaux. La détermination d'une route optimale en durée et en consommation de carburant constitue un problème difficile au sens de la théorie de la complexité, et cette route peut évoluer pendant le trajet, rendant le problème pratique encore plus complexe. Pour répondre à ce besoin, des logiciels de routage existent, mais dès lors qu'il s'agit de prendre en considération plusieurs critères qui parfois sont contradictoires, on se rend compte de l'absence dans l'état de l'art d'algorithmes efficaces. L'objectif de cette thèse est de répondre à cette problématique en proposant un cadre de modélisation adéquat et des algorithmes efficaces dans des conditions industrielles. Le premier travail réalisé porte sur la mise en place d'une méthodologie permettant de transformer les données brutes - en entrée - en un modèle mathématique exploitable. Cette première étape conditionne ensuite les algorithmes utilisés, et donc leur efficacité. Ainsi, le problème est modélisé par un graphe prenant en compte le temps. La seconde contribution est la proposition d'un algorithme multi-objectif et time-dependent permettant d'identifier les chemins pareto-optimaux dans ce graphe. Un troisième apport concerne le traitement de ces chemins, de sorte à optimiser la vitesse le long d'un trajet. Enfin, un système logiciel opérationnel intégrant l'ensemble de ces contributions permet de valider expérimentalement, sur des données réelles, le modèle de représentation proposé ainsi que les algorithmes qui l'exploitent
Maritime charter companies try to use weather forecast in order to optimize the journeys of their fleet. Let consider a boat transporting merchandise (or goods) from a port to another. Given the date and time of departure and trying to minimize fuel consumption, determining the best route to take is a difficult problem in the meaning of complexity theory. Moreover, the best route likely changes during the journey leading to an even more difficult problem. To tackle this type of issues, many routing software are available. However, to our knowledge, the state of the art still lacks of algorithms capable of efficiently solving the problem while considering multiple and sometime contradictory criteria.The aim of the this PhD thesis is to build a relevant modelling framework to solve this problem as well as to develop algorithms to be used and validated in industrial conditions.The first task undertaken was the development of a methodology to format raw data, mainly spatial and weather data, into usable input data for mathematical model. This first step was essential as it conditioned which algorithms could be used, and consequently their efficiency. We chose to model the problem as a graph that takes time into account.The second task was the development of a multi-objective and time dependent algorithm. This algorithm identifies pareto-optimum paths within the graph.A third work focused on processing the paths in order to optimize speed during the whole journey, and as a consequence, fuel consumption
APA, Harvard, Vancouver, ISO, and other styles
28

Chauveau, Estelle. "Optimisation des routes maritimes : un système de résolution multicritère et dépendant du temps." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0139/document.

Full text
Abstract:
Les compagnies d'affrètement maritime cherchent à utiliser les prévisions météorologiques pour optimiser les déplacements de leurs bateaux. La détermination d'une route optimale en durée et en consommation de carburant constitue un problème difficile au sens de la théorie de la complexité, et cette route peut évoluer pendant le trajet, rendant le problème pratique encore plus complexe. Pour répondre à ce besoin, des logiciels de routage existent, mais dès lors qu'il s'agit de prendre en considération plusieurs critères qui parfois sont contradictoires, on se rend compte de l'absence dans l'état de l'art d'algorithmes efficaces. L'objectif de cette thèse est de répondre à cette problématique en proposant un cadre de modélisation adéquat et des algorithmes efficaces dans des conditions industrielles. Le premier travail réalisé porte sur la mise en place d'une méthodologie permettant de transformer les données brutes - en entrée - en un modèle mathématique exploitable. Cette première étape conditionne ensuite les algorithmes utilisés, et donc leur efficacité. Ainsi, le problème est modélisé par un graphe prenant en compte le temps. La seconde contribution est la proposition d'un algorithme multi-objectif et time-dependent permettant d'identifier les chemins pareto-optimaux dans ce graphe. Un troisième apport concerne le traitement de ces chemins, de sorte à optimiser la vitesse le long d'un trajet. Enfin, un système logiciel opérationnel intégrant l'ensemble de ces contributions permet de valider expérimentalement, sur des données réelles, le modèle de représentation proposé ainsi que les algorithmes qui l'exploitent
Maritime charter companies try to use weather forecast in order to optimize the journeys of their fleet. Let consider a boat transporting merchandise (or goods) from a port to another. Given the date and time of departure and trying to minimize fuel consumption, determining the best route to take is a difficult problem in the meaning of complexity theory. Moreover, the best route likely changes during the journey leading to an even more difficult problem. To tackle this type of issues, many routing software are available. However, to our knowledge, the state of the art still lacks of algorithms capable of efficiently solving the problem while considering multiple and sometime contradictory criteria.The aim of the this PhD thesis is to build a relevant modelling framework to solve this problem as well as to develop algorithms to be used and validated in industrial conditions.The first task undertaken was the development of a methodology to format raw data, mainly spatial and weather data, into usable input data for mathematical model. This first step was essential as it conditioned which algorithms could be used, and consequently their efficiency. We chose to model the problem as a graph that takes time into account.The second task was the development of a multi-objective and time dependent algorithm. This algorithm identifies pareto-optimum paths within the graph.A third work focused on processing the paths in order to optimize speed during the whole journey, and as a consequence, fuel consumption
APA, Harvard, Vancouver, ISO, and other styles
29

Allard, Pierre. "Modélisation logique de l'analyse multidimensionnelle des relations multivaluées : application à l'exploration de données géographiques." Rennes 1, 2011. http://www.theses.fr/2011REN1S117.

Full text
Abstract:
Depuis le début de l'informatique, les entreprises ont compris l'intérêt des solutions de gestion d'information. Les données collectées par les entreprises sont un atout puissant pour étudier les tendances passées, les tendances du moment, et les choix à faire dans le futur. Au milieu des années 1990 apparaissent les termes d'informatique décisionnelle (Business Intelligence, la synthèse d'information pour aider à la prise de décision), d'OLAP (On-Line Analytical Processing, ensemble d'outils pour l'exploration, l'analyse et l'affichage de données multidimensionnelles), puis de S-OLAP (Spatial OLAP, OLAP avec un support géographique). Un utilisateur d'OLAP non informaticien n'a pas besoin de connaître de langage à priori pour manipuler des données multidimensionnelles, créer des graphiques, etc. Cependant, nous considérons le modèle de données OLAP trop rigide, car il est structuré à priori sous forme multidimensionnelle, et chaque contenu doit posséder une unique valeur agrégée. Nous partons de ce constat pour proposer un nouveau paradigme de système d'information, permettant l'analyse et l'exploration des données multidimensionnelles de relations multivaluées. Pour modéliser ce paradigme, nous utilisons les systèmes d'information logiques (LIS), un système d'information qui possède des caractéristiques communes avec OLAP, en particulier sur les aspects d'exploration de données. Notre paradigme de système d'information est défini par un modèle de données, un mode de navigation et un mode de représentation flexibles. Nous terminons cette thèse par l'application de ce paradigme sur plusieurs domaines, dont l'exploration de données géographiques
Since the beginning of data processing, the companies have realized the importance of information management solutions. The gathered data are a powerful asset to study the trends and make choices for the future. Business Intelligence appeared in the mid-90s (information synthesis to assist decision-making) with OLAP (On-Line Analytical Processing, a tools set for the exploration, analysis and display of multidimensional data) and S-OLAP (Spatial OLAP, OLAP with spatial support). A OLAP user, unspecializedin computer sciences,does not needto knowa language to handle multidimensional data, create graphics, etc. However, we consider that the OLAP data modelistoo rigid,because ofitsa priorimultidimensionnal structureandbecause each content must have a single aggregate value. This observation is the starting point of this thesis. We propose a new paradigm of information system, able to analyze and explore multidimensional and multivalued data. To model this paradigm, we use Logical Information Systems (LIS), which share features with OLAP, especially on the data mining aspects. Our paradigm is defined by a flexible data model, an easy navigation and modular representation. We conclude this thesisby the application of this paradigm on several topics, including the exploration of geographic data
APA, Harvard, Vancouver, ISO, and other styles
30

Aldanondo, Michel. "Modélisation des données pour la planification et l'ordonnancement de la production : mécanismes d'agrégation et de désagrégation." Toulouse, INSA, 1992. http://www.theses.fr/1992ISAT0012.

Full text
Abstract:
Ce travail porte sur la modélisation des données dans les systèmes de production manufacturière dans lesquels le système de décision est considéré comme un ensemble de centres de décisions hiérarchisés. Ce problème de modélisation se rencontre lors de l'analyse du système de gestion des entreprises industrielles. Le système de décision étant décomposé en niveaux, ce travail propose une modélisation des données correspondant à cette décomposition. Un modèle générique de données du niveau le plus détaillé est défini; des règles garantissant la cohérence des informations sont élaborées. Ce modèle de base et les règles de cohérence sont utilisés pour l'étude des interactions entre des modèles de données associés à des niveaux de décision successifs d'une structure hiérarchisée. Les données structurelles sont agrégées et les données décisionnelles désagrégées. La cohérence horizontale des données de chaque niveau et la cohérence verticale des données des niveaux successifs sont analysées
APA, Harvard, Vancouver, ISO, and other styles
31

Lecoq, Jean-Christophe. "Modélisation logique de liens entre attributs hétérogènes, fondée sur une technique de fermeture vectorielle généralisée dans un environnement multimédia à couplage." Rouen, INSA, 2004. http://www.theses.fr/2004ISAM0008.

Full text
Abstract:
La modélisation logique multimédia fait intervenir l'intégration d'attributs hétérogènes (alphanumériques et représentations) sur plusieurs niveaux de données. Cette forme d'intégration est assez peu abordée dans la littérature mais présente de nombreux avantages de plus-value sémantique pour le système. Peu de modèles sont fondés autour de ce paradigme, ni le modèle multidimensionnel des bases de données, ni les environnements hétérogènes fédérés ne permettent de prendre en compte la dépendance des traitements. La plupart des systèmes multimédia ignorent globalement la dépendance de leurs systèmes locaux. Nous présentons une approche fondée sur la généralisation d'une technique de fermeture vectorielle dans un environnement à couplage. Cette approche permet de conserver l'autonomie des sous-systèmes hétérogènes tout en définissant une famille d'opérateurs globaux. La fermeture est fondée sur un espace intermédiaire constitué de concepts. Pour généraliser cette approche à tout type de représentation, nous définissons une méthode d'apprentissage analytique structurelle pour ces concepts, basée sur un principe réductionniste de la forme. L'approche est de type différentielle, en faisant varier légèrement le type d'une représentation pour laquelle nous connaissons les concepts nous déterminons la variations conceptuelle. De ce fait, la dérive liée à notre approche spéculative est contrôlée. Pour valider cette méthode, nous proposons quelques exemples sur des problèmes joués. Dans le cas du spatial d'abord, nous exposons une extension du pouvoir d'expression de manière à prendre en compte les représentations composites et non simplement connexes. Cette extension nous montre qu'à opérateur constant, l'augmentation de l'espace intermédiaire rend plus séléctif le mécanisme de sélection des attributs. L'extension nous montre aussi que nous pouvons exprimer sémantiquement de nouveaux opérateurs. Dans le cas graphique, nous réalisons une contribution originale en construisant une fermeture graphique. Enfin nous proposons des exemples d'intégration entre représentations pour l'amélioration du maintien de la cohérence multimédia.
APA, Harvard, Vancouver, ISO, and other styles
32

Zaki, Chamseddine. "Modélisation spatio-temporelle multi-échelle des données dans un SIG urbain." Ecole Centrale de Nantes, 2011. http://www.theses.fr/2011ECDN0024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Bame, Ndiouma. "Gestion de donnée complexes pour la modélisation de niche écologique." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066125.

Full text
Abstract:
Cette thèse concerne la gestion de données de biodiversité à large échelle. Elle a pour objectifs d’optimiser les requêtes pour les chercheurs qui peuvent accéder gratuitement aux données mondiales de biodiversité. Ces données partagées par des laboratoires de recherche du monde entier, sont mises à disposition du GBIF qui les fédère et les rend accessibles aux chercheurs, décideurs, grand public. Avec une quantité importante et une croissance rapide des données et des utilisateurs qui expriment de nouveaux besoins, le GBIF est confronté à un double problème d’expressivité des requêtes et d’efficacité. Ainsi, nous proposons une solution décentralisée pour l’interrogation des données de biodiversité. La solution cumule les ressources de plusieurs machines éloignées et peu puissantes pour offrir la puissance de calcul et de stockage nécessaire pour garantir la réactivité du système pour les usagers. En outre, elle fournit une interface d’interrogation de haut niveau qui est plus expressif pour les usagers. Puis, nous mettons en œuvre un mécanisme de répartition dynamique des données à la demande. Cette approche qui est basée sur la structure des données de biodiversité et les spécificités des requêtes d’analyse des usagers, adapte dynamiquement les capacités des machines aux demandes des usagers. Ensuite, nous proposons une approche d’optimisation de requêtes qui adapte dynamiquement le placement des données et la charge de chaque machine en fonction de ses performances pour traiter les requêtes des usagers dans des délais impartis. Nous avons validé expérimentalement cette solution avec des données réelles du GBIF concernant 100 millions observations
This thesis concerns large scale biodiversity data management. Its objectives are to optimize queries for researchers who have free access to biodiversity worldwide data. These data which are shared by worldwide research laboratories are federated in GBIF data warehouse. GBIF makes accessible its data to researchers, policy makers and general public. With a significant amount of data and a rapid growth of data and users that express new needs, the GBIF portal is facing a double problem of expressiveness of queries and of efficiency. Thus, we propose a decentralized solution for biodiversity data interrogation. Our solution combines the resources of several of remote and limited machines to provide the needed computing and storage power to ensure system responsiveness for users. It also provides high-level query interface which is more expressive for users. Then, we propose a dynamic data distribution on demand approach. This approach which is based on data properties and characteristics of users analysis queries adapts dynamically machines capacities to users demands. Then, we propose a queries optimization approach that adapts dynamically data placement and machines loads according to performances in order to process users queries within deadlines. We experimentally validated our solution with real GBIF data concerning 100 million observation data
APA, Harvard, Vancouver, ISO, and other styles
34

Thibault, Serge. "Modélisation morpho-fonctionnelle des réseaux d'assainissement urbain a l'aide du concept de dimension fractale." Lyon, INSA, 1987. https://theses.hal.science/tel-00277119.

Full text
Abstract:
Les systèmes d'assainissement urbain sont des objets qui assurent une fonction hydrologique (concentration et évacuation des eaux d'origine météorique) à partir de réseaux de canalisations dont les structures sont en perpétuelle évolution. Après avoir constaté que les modèles représentant l'activité hydrologique des réseaux furent basés sur une approche centrée sur le seul pôle fonctionnel et noté l'insuffisance d'une telle position, il est proposé de recentrer la modélisation de l'objet en reliant le pôle fonctionnel au pôle structurel ; liaison entre ce qu'est et ce que fait l'objet. La théorie de la Dimension Fractale, et en particulier l'utilisation du concept de dimension d'homothétie, permettent de concevoir un modèle de structure des réseaux principalement ramifiés. La forme d'un réseau d'agglomération est alors représentée à partir de sa complète décomposition (non unique) en sous systèmes structurés par des réseaux morph0logiquement quantifiés par une. Dimension d'homothétie statistique comprise entre un et deux. La validation expérimentale de ce modèle enrichit son sens initial. En effet, les structures sont évolutives ; leur état est quantifié à partir d'une mesure de l'état de celui-ci relativement à l'objet fractal théorique par le biais d'un coefficient de complétude. Le modèle étant compatible avec le fait hydrologique, est décrit le mode de formalisation d'un modèle fonctionnel qui conjugue par convolution deux distributions, l'une relative au sol et l'autre au réseau. Le fonctionnel et le structurel sont reliés l'un à l'autre ; le modèle est globalement, un modèle morpho-fonctionnel.
APA, Harvard, Vancouver, ISO, and other styles
35

Royan, Jérôme. "Visualisation interactive de scènes urbaines vastes et complexes à travers un réseau." Rennes 1, 2005. http://www.theses.fr/2005REN1S013.

Full text
Abstract:
Ces travaux de thèse portent sur la visualisation de scènes urbaines tridimensionnellestrès vastes et très complexes à travers un réseau. L'objectif majeur est d'obtenir une eprésentation adaptée à la transmission et visualisation d'un ensemble de bâtiments constituant un modèle 3D urbain. Cette représentation multi-résolution des bâtimentsd'une ville, appelée PBTree, se base sur une représentation 2D1/2 modélisant les bâtimentsà l'aide de prismes (représentation 2D1/2 issue des méthodes fiables et robustes de modélisation non-assitée de villes). Cette représentation multi-résolution a été conçue pour optimiser la transmission (compression, progressivité) et la visualisation (niveaux de détails, adaptabilité au point de vue) de modèles urbains. La multi-résolution est très bien adaptée au survol des villes. Cependant, une solution est proposée dans le cas d'une navigation au niveau du sol, et est basée sur un calcul de visibilité permettant de sélectionner le niveau de résolution transmis et visualisé
APA, Harvard, Vancouver, ISO, and other styles
36

Guehis, Sonia. "Modélisation, production et optimisation des programmes SQL." Paris 9, 2009. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2009PA090076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Cartier, Emmanuel. "Repérage automatique des expressions définitoires : modélisation de l'information définitoire, méthode d'exploration contextuelle, méthodologie de développement des ressources linguistiques, description des expressions du français contemporain, implémentation informatique." Paris 4, 2005. http://www.theses.fr/2004PA040228.

Full text
Abstract:
Ce travail a pour sujet le repérage automatique des expressions définitoires du français, et il a trois objectifs principaux : décrire formellement les expressions définitoires du français contemporain et implémenter les règles de repérage correspondantes dans le logiciel e-doc Finder de la société e-doc Labs ; contribuer à l'élaboration d'un modèle pour le repérage d'informations textuelles ; contribuer à l'automatisation de la tâche d'élaboration des ressources linguistiques. La description des expressions définitoires donne lieu à une modélisation de cette information comme un énoncé dans lequel un locuteur met en relation définitoire un terme et une expression définitoire, eu égard à un domaine d'activité et à une inscription temporelle. Les relations définitoires sont l'identification, la catégorisation, la spécification et l'attribution. Nous décrivons les patrons linguistiques permettant de repérer le terme, la relation définitoire et les composantes de l'expression définitoire. Nous décrivons un certain nombre de phénomènes d'intégration textuelle (transformations syntaxiques, négation, coordination, anaphores, cataphores ellipses). Nous décrivons en second lieu un modèle de repérage d'informations textuelles, inspirée de l'exploration contextuelle, qui comporte trois caractéristiques : externalisation, adaptabilité des ressources linguistiques, fort pouvoir expressif des règles de repérage. Enfin, dans ce modèle, nous donnons des éléments méthodologiques permettant de développer rapidement et efficacement des ressources linguistiques (dictionnaires et grammaires) pour une information donnée
This work deals with automatic extraction of definitory statements. It has three main goals : formal description of French definitory statements and implementation into e-doc Labs software e-doc Finder; contribution to a software specification for text mining; contribution to the methodology and autoomatization of linguistic resources development. We describe a conceptuel model of definitory statements, composed of a term, a definitory semantic relation, a definition, a domain field and a temporal assignment. Definitory semantic relations are identification, categorisation, specification, attribution. We describe the linguistic patterns for each of these elements as well as textual integration phenomena (syntactiv transformations, negation, coordination, anaphora). Second, we describe a model for text mining, inspired from the Contextual Exploration Method, that has three main properties : externality, adaptability of linguistic resources; high expressive power of grammar rules. Last, we give methodological elements to set up linguistic ressources in such a system and evoke the steps toward an automatic learning system of semantic classes and patterns
APA, Harvard, Vancouver, ISO, and other styles
38

Cao, Van Toan. "La mise en registre automatique des surfaces acquises à partir d'objets déformables." Doctoral thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26764.

Full text
Abstract:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Three-dimensional registration (sometimes referred to as alignment or matching) is the process of transforming many 3D data sets into the same coordinate system so as to align overlapping components of these data sets. Two data sets aligned together can be two partial scans from two different views of the same object. They can also be two complete models of an object generated at different times or even from two distinct objects. Depending on the generated data sets, the registration methods are classified into rigid registration or non-rigid registration. In the case of rigid registration, the data is usually acquired from rigid objects. The registration process can be accomplished by finding a single global rigid transformation (rotation, translation) to align the source data set with the target data set. However, in the non-rigid case, in which data is acquired from deformable objects, the registration process is more challenging since it is important to solve for both the global transformation and local deformations. In this thesis, three methods are proposed to solve the non-rigid registration problem between two data sets (presented in triangle meshes) acquired from deformable objects. The first method registers two partially overlapping surfaces. This method overcomes some limitations of previous methods to solve large global deformations between two surfaces. However, the method is restricted to small local deformations on the surface in order to validate the descriptor used. The second method is developed from the framework of the first method and is applied to data for which the deformation between the two surfaces consists of both large global deformation and small local deformations. The third method, which exploits both the first and second method, is proposed to solve more challenging data sets. Although the quality of alignment that is achieved is not as good as the second method, its computation time is accelerated approximately four times since the number of optimized parameters is reduced by half. The efficiency of the three methods is the result of the strategies in which correspondences are correctly determined and the deformation model is adequately exploited. These proposed methods are implemented and compared with other methods on various types of data to evaluate their robustness in handling the non-rigid registration problem. The proposed methods are also promising solutions that can be applied in applications such as non-rigid registration of multiple views, 3D dynamic reconstruction, 3D animation or 3D model retrieval.
APA, Harvard, Vancouver, ISO, and other styles
39

Kellal, Abderrazak. "Contribution à l’étude des asservissements électropneumatiques." Lyon, INSA, 1987. http://www.theses.fr/1987ISAL0025.

Full text
Abstract:
Le développement d'asservissements électropneumatiques dans un contexte robotique implique de maîtriser les problèmes posés par la commande d'un axe, donc la modélisation d'un ensemble servovalve-vérin-charge. Aussi dans la première partie de ce mémoire nous avons : -d'une part défini les essais nécessaires à la caractérisation en régime statique d'une restriction puis d'une servovalve et présenté les résultats expérimentaux obtenus. - d'autre part, après un rappel des éléments de modélisation d'une chambre de vérin, établi un modèle d'état non linéaire simplifié, en négligeant les échanges thermiques et les variations de température devant la température moyenne, et un modèle linéarisé autour d'une position d'équilibre. La seconde partie de ce mémoire est consacrée à : - la description de la structure mécanique et micro informatique de l'asservissement réalisé, - l'établissement du modèle d'état non linéaire de l'ensemble servovalve-vérin-bras et d'un modèle linéaire réduit original, utilisé pour le calcul de la commande par retour d'état, -la présentation de l'étude expérimentale.
APA, Harvard, Vancouver, ISO, and other styles
40

Yatim, Houssein. "Etude théorique et expérimentale du procédé de distillation extractive discontinue." Lyon, INSA, 1993. http://www.theses.fr/1993ISAL0102.

Full text
Abstract:
La distillation extractive permet la séparation d'un mélange azéotropique grâce à l'ajout d'un tiers corps, le solvant. La mise en œuvre d'un procédé « batch »de distillation peut. Permettre de profiter des avantages de la flexibilité du traitement par lots de produits à haute valeur ajoutée. Nous avons étudié expérimentalement la mise en œuvre d'un recédé batch de séparation du mélange acétone-méthanol eu utilisant l'eau comme solvant. Le déroulement de procédé est séquentiel et les paramètres opératoires peuvent être optimisés. La simulation numérique du procédé a été développée. Une méthode d'interpolation linéarité à deux dimensions a permis d'économiser le de calcul pour les propriétés thermodynamiques des mélanges à l'équilibre. Les résultats de la simulation ont été validés expérimentalement. L'influence des paramètres opératoires prépondérants (taux de reflux, débit et localisation de l'alimentation du solvant, puissance au bouilleur), sur l'efficacité du procédé a été examinée. La faisabilité du procédé original de distillation extractive batch a ainsi été démontrée, et les éléments d'une optimisation ont été obtenus
The process of batch extractive distillation may provide the advantages of both the batch and the extractive distillation. So far this process has not been applied at all probably due to its complexity. An algorithm and a computer program were developed for simulating the experiments of a batch extractive distillation process (separation on acetone and methanol on a pilot plant column containing 32 bubble cap trays applying water as solvent). For the integration of the set of non-linear differential equations (component material balances) the Runge-Kutta method was used, the initial column profile was computed at total reflux. For saving computation time a two dimensional linear interpolation method was applied for the ternary mixture when calculating VLE. The experimental and calculated results are compared. The influence of the variation of the main operating parameters have been examined to evaluate the recovery of the separation of the process
APA, Harvard, Vancouver, ISO, and other styles
41

Richard, Claude. "Etude expérimentale et théorique de composites piézoélectriques de connectivité 1. 3. 1. Pour hydrophone." Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0039.

Full text
Abstract:
Des composites piézoélectriques de connectivité 1. 3. 1 à base de PZT et de polymères ont été construits de façon à éviter un contact mécanique entre les barreaux de PZT et la matrice dans les directions transverses à la polarisation. Les barreaux de PZT sont disposés dans des évidements réalisés dans la matrice et sont tenus entre deux plaques métalliques Les plaques qui sont aussi les électrodes réalisent le transfert de charge mécanique de la matrice élastique vers les barreaux rigides ainsi qu'un renforcement de la structure vis à vis des contraintes transverses. Les facteurs de mérite hydrostatiques obtenus varient entre 4 fois et 12 fois celui du Titanate de Plomb. L'influence de la fraction ·volumique de PZT et de l'épaisseur des armatures sur la sensibilité et sur la stabilité sous pression est montrée. Des résultats expérimentaux et de modélisation sont présentés et discutés. La grande influence de -la non-linéarité du PZT sous forte contrainte uniaxiale sur la stabilité sous pression du composite est analysée. Des mesures du facteur de mérite longitudinal des divers PZT sous haute contrainte uniaxiale sont réalisés et sont la base de l'optimisation du composite. Cette optimisation démonte que les PZ T durs sont les mieux ad a tés à cette à piézoélectriques aux hydrophones profondément immergés
1. 3. 1 piezoelectric-polymer composites have been made on the basis of non-mechamical contact between the polymer matrix and the piezoelectric rads within the transverse directions. The piezoelectric rads (PZT) are put in hales drilled in the matrix and are held between two metallic plates. The plates, which are also used as electrodes, provide the mechanical stress transfer from the resilient matrix toward the stiff rods and a reinforcement of the structure against the transverse loads. The hydrostatic figures of merit lie between 4 times and 12 times the Lead Titanate one. The influence of the PZT volume fraction and the plate thickness on the sensitivity and on the pressure stability are shown. Experimental and modelling results are given and discussed. The great influence of the uniaxial stress dependence of the PZT longitudinal figure of merit on the composite stability is analysed. Measurements of the longitudinal of merit of various PZT under high uniaxial stress are made and are the basis of an optimization of the piezo-composite. This optimization shows the best suitability of the hard PZT for this dee underwater hydrophone application
APA, Harvard, Vancouver, ISO, and other styles
42

Fénié, Patrick. "Graico : méthode de modélisation et de conception de systèmes d'exploitation de systèmes de production." Bordeaux 1, 1994. http://www.theses.fr/1994BOR10622.

Full text
Abstract:
Cette these decrit la methode graico qui permet de modeliser et de concevoir des systemes d'exploitation (se) de systemes de production. Le se est responsable des prises de decision court et tres court terme dont la majorite sont declenchees sur evenement. Compose de centres d'exploitation, il est defini et modelise selon trois axes: coordination, synchronisation et cooperation. Les outils de modelisations du systeme physique de production conduit et du systeme d'exploitation assurent, par l'intermediaire d'une grammaire de specification, la structuration des choix de conception informatiques et organisationnels. Enfin, la demarche structure l'utilisation des outils pour l'analyse et la conception des systemes d'exploitation
APA, Harvard, Vancouver, ISO, and other styles
43

Abbar, Sofiane. "Modèle d'accès personnalisé pour les plateformes de livraison de contenu : une approche basée sur les services." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0053.

Full text
Abstract:
L’accès personnalisé adapté aux préférences et aux contextes des utilisateurs est un défi dans plusieurs applications. Ainsi, nous avons proposé un modèle d’accès personnalisé (PAM) basé sur des modèles multidimensionnels de profil utilisateur et de contexte. Le PAM fournit un ensemble de services qui permet la double prise en compte du profil et du contexte lors de la personnalisation. Ces services servent, entre autres, à : la découverte automatique des contextes d’un utilisateur ainsi que de ses préférences contextuelles, la projection d’un profil dans un contexte courant et l’appariement des profils et des contenus pour le calcule de recommandations. Nous avons également montré que la composition de ses services permet d’intégrer le contexte dans une application personnalisée, sans altérer son fonctionnement interne. Dans ce cas précis, nous avons instancié le PAM pour définir des systèmes de recommandation sensibles aux contextes, qui ont servi à l’évaluation de notre approche
Access to relevant information adapted to user’s preferences and contexts is a challenge in many applications. In this thesis, we address the personalization in the context of content delivery platforms. Hence we propose a personalized access model based on multidimensional models of user’s profile and context. The PAM provides a set of services that enable applications to take into account both user’s profile and context within personalization processes, hence delivering more accurate contents. PAM services include, but are not limited to, an automatic approach for contexts and contextual preferences discovery, the projection of user’s profile within his current context, and matching of profiles and contents to provide user recommendations. We also show that PAM services allow a smooth integration of context within personalized applications without changing their inner processes. Thus, we instantiated the PAM to define context-aware recommender systems used to evaluate our approach
APA, Harvard, Vancouver, ISO, and other styles
44

Behlouli, Hassan. "Apprentissages auto-améliorants et modélisation de la dynamique temporelle de données évolutives par réseaux de neurones : application au diagnostic et la prédiction en électrocardiologie quantitative." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0034.

Full text
Abstract:
Nous présentons dans ce mémoire diverses méthodologies visant à améliorer le SUIVI décisionnel de patients et leur validation dans le domaine de l'électrocardiologie quantitative. Dans une première partie, nous proposons une extension au classique modèle d'apprentissage avec professeur de la Reconnaissance de Formes en introduisant le concept d'apprentissage auto-améliorant basé sur l'extraction de connaissances à partir de bases de données non documentées. Ensuite nous appliquons ce concept au cas particulier de l'apprentissage supervisé par réseaux de neurones et nous proposons une méthodologie d'apprentissage auto améliorant intégrant itérativement dans l'ensemble d'apprentissage de départ des données non expertisées extraites de bases de données non validées par des experts. Cette méthode fait intervenir les concepts de combinaison de réseaux de neurones, la notion de rejet de cas ambigus et le contrôle du processus d'apprentissage par validation croisée. Appliquée au classement de pathologies cardiaques, nous montrons que, dans la plupart des cas, une amélioration des performances des classifieurs est observée. Dans une deuxième partie, nous avons mis au point une méthodologie à base de réseaux de neurones pour modéliser le comportement dynamique du cœur, en particulier pour prédire un des principaux descripteurs de la repolarisation ventriculaire, l'intervalle QT, en fonction de RR, l'inverse de la fréquence cardiaque. Une première évaluation sur des séquences l'Electrocardiogrammes 3D (ECG-3D) enregistrés en continu sur 24 heures a permis de démontrer la pertinence des modèles élaborés et d'étudier le rôle de différents paramètres (notamment l'effet mémoire et le niveau de bruit) sur la qualité de prédiction des modèles. Enfin, ce travail s'est concrétisé par une série d'outils d'analyse et de traitement génériques que nous avons intégrés dans l'environnement MATIS (MAthematical Tools Integration Software), système qui est l'un des pivots de la future station de travail du chercheur cardiologue
We present various methodologies to improve decision making on follow-up patient data and their validation in the field of quantitative electrocardiology. First, we propose an extension to the classical Pattern Recognition supervised learning model by introducing a self-improving concept based on information min. Ing from undocumented datasets. Then we apply this concept to the particular case of neural networks based supervised learning and we propose a self-improving learning methodology integrating iteratively, in the initial learning set, undocumented data that are extracted from databases not validated by experts. This method involves different concepts such as neural network combination, rejection of ambiguous cases and control of the learning process by cross-validation. Using this approach for the categorisation of cardiac diseases we could significantly improve the performance of the original classifiers. Secondly, we developed a methodology based on neural networks to model the dynamic behavior of the heart particularly for predicting one of the main descriptors of the ventricular repolarisation, i. E. : the QT interval as a function of the RR interval that represents the inverse of heart rate. An initial evaluation on a series of sequences of 30 electrocardiograms (3D ECG) continuously '1 recorded over 24 hours allowed to demonstrate the pertinence of the models and to study the ray of some parameters (e. G. Memory effect and noise level) on the prediction quality of this model We conclude by presenting another outcome of our work, a series of generic analysis processing tool s that were integrated into the MATIS environment (Mathematical Tools Integration Software), which is a fundamental building black for the future workstation of the research cardiologist
APA, Harvard, Vancouver, ISO, and other styles
45

Letellier, Guillaume. "Modélisation du complexe récepteur muscarinique-toxine MT7 à partir de données thermodynamiques." Paris 7, 2008. https://tel.archives-ouvertes.fr/tel-00447060.

Full text
Abstract:
Les récepteurs muscariniques à l'acétylcholine sont des protéines transmembranaires jouant des rôles dans de nombreux processus physiologiques. La toxine MT7 est un puissant modulateur allostérique de ces récepteurs. De plus, cette toxine est le seul ligand connu spécifique du sous-type 1 des récepteurs muscariniques (hMl). Nous avons étudié les bases moléculaires de l'interaction entre la toxine MT7 et le récepteur hMl par modélisation moléculaire. Tout d'abord un échantillonnage des structures des deux partenaires a été réalisé par dynamique moléculaire. Les mouvements de grande amplitude de la boucle E2 du récepteur ont été prédits par dynamique activée. Puis la toxine a été arrimée sur le récepteur par des calculs de dynamique moléculaire sous contraintes ambigiies dérivées de données de mutagénèse. Ce modèle a ensuite été optimisé par une simulation de dynamique moléculaire libre, en environnement membranaire explicite. Enfin, des calculs en retour des valeurs d'énergie libre de liaison ont été effectués afin de valider le modèle. Nous prédisons que la toxine se lie sur un dimère de récepteurs hMl. Le cœur de l'interaction est localisé sur un des monomères en contacts avec les boucles II et III de la toxine. Cette interaction est complétée par des interactions hydrophobes au niveau de la boucle I sur le second monomère. L'analyse de ce modèle apporte des éléments de compréhension à la fois sur bases structurale de la haute affinité de cette toxine ainsi que sur sa sélectivité pour ce sous-type de récepteur. Il apparaît que cette sélectivité est essentiellement portée par la boucle extracellulaire E2 du récepteur
Muscarinic acetylcholine receptors are transmembrane proteins involved into various biological process. Muscarinic toxin MT7 is a powerful modulator of theses receptors. Furthermore, this toxin is the only known ligand specific of the subtype I of muscarinic receptors. We have study by the molecular basis of the interaction between MT7 toxin and hMl receptor with molecular modeling tools. To begin, a sampling of both partners' structures by molecular dynamics has been performed. Large scale motions of the e2 loop of the receptor have been predicted by activated molecular dynamics. Then the toxin structure has been docked on the receptor by molecular dynamics under ambiguous restraints, derived from mutagenesis experiments. This model was then optimized by a free molecular dynamics into explicit membrane environment. Finally, binding free energies have been back calculated to validate the model. We predict that the toxin binds a dimer of hMl receptor. The core of the interaction is localized on a first monomer in contact with loops II and III of the toxin. The toxin also establishes hydrophobic interactions with the second monomer and toxin loop I. The analysis of this model brings structural basis for understanding the high affinity of this toxin and its selectivity for the subtype 1 of muscarinic receptors. The selectivity appears to be mainly determined by extracellular loop e2 of the receptor
APA, Harvard, Vancouver, ISO, and other styles
46

Zoghlami, Asma. "Modélisation et conception de systèmes d’information géographique gérant l’imprécision." Paris 8, 2013. http://octaviana.fr/document/170325245#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
La problématique de notre travail porte sur la gestion de connaissances spatiotemporelles imprécises dans la construction des systèmes d’information géographique. Nous nous attachons plus particulièrement à leur conceptualisation, représentation et structuration à l’aide de la théorie des ensembles flous. La conception de systèmes d’information étant usuellement faite à l’aide de l’Unified Modeling Langage (UML), nous avons privilégié les approches le complétant. Comme le PERCEPTORY, avec ses PictograF, étend l’UML pour la modélisation des SIG, et comme Fuzzy UML enrichit l’UML pour la gestion de l’imprécision, nous avons proposé une approche intitulée F-PERCEPTORY exploitant leurs avantages respectifs. La deuxième partie de notre travail a porté sur l’implémentation (structuration, contraintes, règles) de SIG modélisés à l’aide de notre approche. Pour cela, nous avons opté pour une représentation des données par des ensembles flous connexes et normalisés stockés via des α-coupes. Enfin, la dernière partie de notre travail a eu pour objectif de proposer une méthodologie pour l’étude de la trajectoire d’une ville du passé au futur basée sur les informations stockées, la modélisation descriptive et logique des dynamiques spatiales tenant compte des aspects imprécis et sur des processus d’extraction de règles. Les précédentes contributions ont été introduites dans l’objectif de la gestion des données archéologiques rémoises d’une part, et l’étude des dynamiques spatiales de la ville de Saint-Denis d’autre part
Our work focuses on the management of imprecise spatiotemporal knowledge in the construction of geographic information systems. We more particularly deal with their conceptualization, representation and structure using the fuzzy set theory. As the information system design is usually done using the Unified Modeling Language (UML), we favored approaches extending it. Therefore, since PERCEPTORY, with its PictograF language, extends the UML for modeling GIS, and Fuzzy UML enriches UML for the management of imprecision, we proposed an approach called F-PERCEPTORY exploiting their respective advantages. The second part of our work is focused on the implementation (structure, constraints, rules) of GIS modeled using our approach. For this, we chose a data representation by connex, normalized fuzzy sets stored via α-cuts. Finally, the last part of our work aimed to propose a methodology for the study of urban trajectories from the past to the future based on the stored information, descriptive and logical modeling of spatial dynamics taking account of imprecise, and on rule mining processes. Previous contributions have been introduced with the aim of managing Reims archaeological data and the study of the spatial dynamics of the city of Saint-Denis
APA, Harvard, Vancouver, ISO, and other styles
47

Blin-Lacroix, Jean-Luc. "Analyse et modélisation des fractures et des systèmes fracturaux en milieu rocheux : contribution à l'élaboration d'une chaîne de logiciels intégrant l'acquisition des données, le traitement analytique et statistique, la simulation." Vandoeuvre-les-Nancy, INPL, 1988. http://www.theses.fr/1988NAN10342.

Full text
Abstract:
Réalisation d'un modèle de probabilité tridimensionnel de la géométrie des fractures et des systèmes fracturaux, sont décris: un nouveau système de saisie de l'information, traitement analytique et statistique des données et simulation. Toutes ces étapes font l'objet d'une chaine de logiciels dont la structure et les modalités d'utilisation sont décrites en détail
APA, Harvard, Vancouver, ISO, and other styles
48

Verdie, Yannick. "Modélisation de scènes urbaines à partir de données aeriennes." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00881242.

Full text
Abstract:
L'analyse et la reconstruction automatique de scène urbaine 3D est un problème fondamental dans le domaine de la vision par ordinateur et du traitement numérique de la géométrie. Cette thèse présente des méthodologies pour résoudre le problème complexe de la reconstruction d'éléments urbains en 3D à partir de données aériennes Lidar ou bien de maillages générés par imagerie Multi-View Stereo (MVS). Nos approches génèrent une représentation précise et compacte sous la forme d'un maillage 3D comportant une sémantique de l'espace urbain. Deux étapes sont nécessaires; une identification des différents éléments de la scène urbaine, et une modélisation des éléments sous la forme d'un maillage 3D. Le Chapitre 2 présente deux méthodes de classifications des éléments urbains en classes d'intérêts permettant d'obtenir une compréhension approfondie de la scène urbaine, et d'élaborer différentes stratégies de reconstruction suivant le type d'éléments urbains. Cette idée, consistant à insérer à la fois une information sémantique et géométrique dans les scènes urbaines, est présentée en détails et validée à travers des expériences. Le Chapitre 3 présente une approche pour détecter la 'Végétation' incluses dans des données Lidar reposant sur les processus ponctuels marqués, combinée avec une nouvelle méthode d'optimisation. Le Chapitre 4 décrit à la fois une approche de maillage 3D pour les 'Bâtiments' à partir de données Lidar et de données MVS. Des expériences sur des structures urbaines larges et complexes montrent les bonnes performances de nos systèmes.
APA, Harvard, Vancouver, ISO, and other styles
49

Bernardi, Fabrice. "Conception de bibliothèques hiérarchisées de modèles réutilisables selon une approche orientée objet." Corte, 2002. http://www.theses.fr/2002CORT3068.

Full text
Abstract:
Le domaine de la modélisation et de la simulation de systèmes est un domaine extrêmement vaste et complexe. De nombreux formalismes et de nombreuses techniques ont été développés depuis un certain nombre d'années, tous poursuivant le même objectif : dégager les meilleures métaphores et analogies permettant de mieux comprendre un phénomène quelconque. Cette multiplicité a conduit au développement de nombreux environnements de modélisation et de simulation le plus souvent incompatibles, et ce, même dans le cas d'environnements conçus sur la base d'un seul et même formalisme. Par ailleurs, les systèmes étudiés devenant de plus en plus complexes, la réutilisabilité des modèles est devenue une préocupation majeure. Devant ces constats, nous avons tenté d'apporter une contribution à l'élaboration de bibliothèques de modèles réutilisables pouvant être intégrés à différents environnements de modélisation et de simulation. Cette contribution repose sur la prise en compte de trois objectifs principaux qui sont la généricité de l'emploi, la gestion d'une hiérarchie d'abstraction et la gestion d'une hiérarchie d'héritage entre les modèles stockés. Nous donnons dans cette dissertation deux approches complémentaires du problème, l'une formelle et l'autre orientée objet. L'approche formelle permet de poser les bases du développement. Nous y définissons les concepts essentiels de contextes, d'éléments et d'arbres de stockage. Cette approche nous permet également d'introduire de quelles manières sont gérées les différentes hiérárchies à mettre en oeuvre. L'approche orientée objet est fondée sur les concepts développés dans l'approche formelle. Nous y définissons les packages et les classes définis et nous y détaillons le fonctionnement du moteur de stockage et de ses sevices. Notre approche est finalement illustrée par la présentation de son intégration avec un environnement de modélisation et de simulation, JDEVS.
APA, Harvard, Vancouver, ISO, and other styles
50

Baietto, Marie-Christine. "Le contact unilatéral avec frottement le long de fissures de fatigue dans les liaisons mécaniques." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0088.

Full text
Abstract:
L'objectif de ce travail qui se situe dans le cadre de l'étude de l'usure et de la fatigue associées au contact mécanique, est la modélisation du comportement de fissures si tuées dans la zone d'influence du contact. Le problème est traité dans le domaine de l'élasticité linéaire bidimensionnelle. Le frottement entre les lèvres de la fissure est pris en compte. La fissure est inclinée par rapport à la surface du solide, rectiligne ou non, débouchante ou non. Elle peut être unique ou en présence d'autres fissures. Le modèle proposé permet le calcul des facteurs d'intensité de contraintes KI et KII en tête de fissure. La modélisation s'articule autour de la description de fissures à l'aide de distributions de vecteurs de Burgers et d'un algorithme de résolution de contact. Unilatéral avec frottement entre leurs lèvres. Une description incrémentale permet de décrire des cycles complets de chargement en prenant en compte l' hystérésis due au frottement. Les tests de validation du modèle réalisé montrent qu'il est efficace et plus général que les modèles de la littérature développés dans ce domaine. Une comparaison avec des résultats expérimentaux valide l'aptitude du modèle à décrire un comportement réel. Dans les situations nouvelles que ce modèle permet d'aborder, nous citerons la prise en compte de fissures inclinées, rectilignes ou non, ainsi que la présence simultanée de plusieurs fissures.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography