Dissertations / Theses on the topic 'Structuration de données'

To see the other types of publications on this topic, follow the link: Structuration de données.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Structuration de données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Pigeau, Antoine. "Structuration géo-temporelle de données multimédia personnelles." Phd thesis, Nantes, 2005. http://www.theses.fr/2005NANT2131.

Full text
Abstract:
Les travaux de recherche présentés dans cette thèse portent sur la classification de ollections d'images personnelles acquises à partir d'un mobile. Nous avons choisi de traiter la structuration de la collection d'images comme un problème de classification. Notre approche est basée sur la construction de deux partitions distinctes, l'une temporelle et l'autre spatiale, à partir des métadonnées des images : leur date et leur géolocalisation. Les principaux ingrédients de notre approche sont les modèles de mélange gaussien et le critère statistique ICL pour déterminer leur complexité. Un algorithme d'optimisation incrémental du critère ICL est tout d'abord proposé, permettant la construction de partitions non-hiérarchiques. Il est ensuite combiné avec un algorithme agglomératif pour fournir un algorithme hiérarchique incrémental. Enfin nous proposons plusieurs techniques, pour construire des partitions ybridespatio-temporelles, prenant en compte les contraintes d'IHM sur un mobile
Usage of mobile devices raises the need for organizing large personal multimedia collection. The present work focus on personal image collections acquired from mobile phones equipped with a camera. We deal with the structuring of an image collection as a clustering problem. Our solution consists in building two distinct temporal and spatial partitions, based on the temporal and spatial metadata of each image. The main ingredients of our approach are the Gaussian mixture models and the ICL criterion to determine the models complexities. First, we propose an incremental optimization algorithm to build non-hierarchical partitions in an automatic manner. It is then combined with an agglomerative algorithm to provide an incremental hierarchical algorithm. Finally, two techniques are roposed to build hybrid spatio-temporal classifications taking into account the human machine interaction constraints
APA, Harvard, Vancouver, ISO, and other styles
2

Falip, Joris. "Structuration de données multidimensionnelles : une approche basée instance pour l'exploration de données médicales." Thesis, Reims, 2019. http://www.theses.fr/2019REIMS014/document.

Full text
Abstract:
L'exploitation, a posteriori, des données médicales accumulées par les praticiens représente un enjeu majeur pour la recherche clinique comme pour le suivi personnalisé du patient. Toutefois les professionnels de santé manquent d'outils adaptés leur permettant d'explorer, comprendre et manipuler aisément leur données. Dans ce but, nous proposons un algorithme de structuration d'éléments par similarité et représentativité. Cette méthode permet de regrouper les individus d'un jeu de données autour de membres représentatifs et génériques aptes à subsumer les éléments et résumer les données. Cette méthode, procédant dimension par dimension avant d'agréger les résultats, est adaptée aux données en haute dimension et propose de plus des résultats transparents, interprétables et explicables. Les résultats obtenus favorisent l'analyse exploratoire et le raisonnement par analogie via une navigation de proche en proche : la structure obtenue est en effet similaire à l'organisation des connaissances utilisée par les experts lors du processus décisionnel qu'ils emploient. Nous proposons ensuite un algorithme de détection d'anomalies qui permet de détecter des anomalies complexes et en haute dimensionnalité en analysant des projections sur deux dimensions. Cette approche propose elle aussi des résultats interprétables. Nous évaluons ensuite ces deux algorithmes sur des données réelles et simulées dont les éléments sont décrits par de nombreuses variables : de quelques dizaines à plusieurs milliers. Nous analysant particulièrement les propriétés du graphe résultant de la structuration des éléments. Nous décrivons par la suite un outil de prétraitement de données médicales ainsi qu'une plateforme web destinée aux médecins. Via cet outil à l'utilisation intuitif nous proposons de structurer de manière visuelle les éléments pour faciliter leur exploration. Ce prototype fournit une aide à la décision et au diagnostique médical en permettant au médecin de naviguer au sein des données et d'explorer des patients similaires. Cela peut aussi permettre de vérifier des hypothèses cliniques sur une cohorte de patients
A posteriori use of medical data accumulated by practitioners represents a major challenge for clinical research as well as for personalized patient follow-up. However, health professionals lack the appropriate tools to easily explore, understand and manipulate their data. To solve this, we propose an algorithm to structure elements by similarity and representativeness. This method allows individuals in a dataset to be grouped around representative and generic members who are able to subsume the elements and summarize the data. This approach processes each dimension individually before aggregating the results and is adapted to high-dimensional data and also offers transparent, interpretable and explainable results. The results we obtain are suitable for exploratory analysis and reasoning by analogy: the structure is similar to the organization of knowledge and decision-making process used by experts. We then propose an anomaly detection algorithm that allows complex and high-dimensional anomalies to be detected by analyzing two-dimensional projections. This approach also provides interpretable results. We evaluate these two algorithms on real and simulated high-dimensional data with up to thousands of dimensions. We analyze the properties of graphs resulting from the structuring of elements. We then describe a medical data pre-processing tool and a web application for physicians. Through this intuitive tool, we propose a visual structure of the elements to ease the exploration. This decision support prototype assists medical diagnosis by allowing the physician to navigate through the data and explore similar patients. It can also be used to test clinical hypotheses on a cohort of patients
APA, Harvard, Vancouver, ISO, and other styles
3

Gelgon, Marc. "Structuration statistique de données multimédia pour la recherche d'information." Habilitation à diriger des recherches, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00450297.

Full text
Abstract:
L'unité du travail réside en ce qu'on s'intéresse à la recherche de structure dans les données numériques (issues de données multimédia), en vue d'y faciliter la recherche d'information. Le cadre méthodologique de la résolution est que nous privilégions ici celui des modèles probabi- listes, en particulier les mélanges de lois, et de l'estimation statistique associée. La recherche de structure implique que le jeu de données étudié est composé de sous-populations de caracté- ristiques distinctes : il s'agit de séparer et de caractériser ces sous-populations, deux problèmes fortement imbriqués. Les entités extraites et les attributs qu'on en leur associe seront alors directement utiles pour la recherche d'information.
APA, Harvard, Vancouver, ISO, and other styles
4

Benadi, Sofiane Abdelkader. "Structuration des données et des services pour le télé-enseignement." Lyon, INSA, 2004. http://theses.insa-lyon.fr/publication/2004ISAL0058/these.pdf.

Full text
Abstract:
La révolution des STIC touche fondamentalement le domaine éducatif. En s'inscrivant dans ce courant, cette thèse porte sur la conception d'environnements informatiques pour le télé-enseignement. Plus particulièrement, notre travail concerne la mise en place d'un modèle pour la structuration des données et des services dont le but est de servir de base à la conception d'environnements hypermédias permettant la génération dynamique d'activités pédagogiques adaptées aux profils et aux préférences des apprenants. Cette adaptation est réalisée grâce à l'usage des différents langages gravitant autour de la technologie XML et grâce à un découpage horizontal du système en trois niveaux interdépendants (niveaux Support, Structure et Sémantique). Leur rôle respectif est expliqué en décrivant, à chaque fois, les intérêts de cette modélisation. Nous décrivons enfin une plate-forme respectant ce modèle qui a été implémenté afin de valider l'ensemble de nos propositions. Plan de thèse : Le premier chapitre de la thèse présente le domaine de l'EIAH au travers de quelques modèles de l'informatique pédagogique. L'évolution de ce domaine nous amène à poursuivre ce chapitre par la présentation des principaux systèmes d'enseignement assisté par ordinateur. Ayant marqué les recherches dans ce domaine, nous présentons ensuite notre vision de ce qui est appelé l'ingénierie pédagogique. Nous aborderons par la suite la normalisation de l'enseignement à distance avec une brève histoire des normes et de leurs enjeux majeurs. Nous terminons par un bilan sur la situation actuelle et notre proposition d'évolution. Dans le deuxième chapitre nous parlons d'adaptativité des interfaces et des aspects pris en compte pour la modélisation des apprenants ce qui nous amène à discuter des travaux réalisés dans le domaine des systèmes hypermédias adaptatifs. Nous finissons par un bilan sur l'adaptativité des interfaces EIAH. Le troisième chapitre concerne les spécifications de notre modèle nommé AHXEL. Les différentes approches sur lesquelles nous nous sommes appuyées pour définir ces spécifications sont d'abord présentées. Ensuite, nous décrivons comment nous avons mis en oeuvre le modèle apprenant et la structuration des activités pédagogiques multimédias que celà impose. Enfin, un bilan sur notre modèle de gestion des documents pédagogiques nous permet de la situer par rapport à d'autres architectures existances. Le quatrième chapitre décrit la mise en oeuvre du modèle AHXEL. Cette mise en oeuvre est abordée du côté contenu et du côté contenant (plateforme OWASIS). Les besoins en terme d'architecture informatique sont mis en évidence. Puis les choix techniques effectués pour la réalisation informatique sont précisés. L'implémentation du modèle AHXEL est alors exposée dans le détail à l'aide d'illustrations. Le cinquième chapitre présente le processus devant être suivi par les auteurs durant la création de contenu avec quelques résultats et exemples de consultation. Puis, deux expérimentations de notre environnement sont décrites. Les objectifs de ces expérimentations, leur déroulement et leurs résultats sont présentés. Pour conclure nous effectuons un bilan de notre travail et nous ouvrons de nouvelles perspectives de recherches
The evolution of the ICT basically touches the educational field. While fitting in this current, this thesis relates to the design of environments for e-learning. More particularly, our work concerns the implementation of a model for structuring the data and the services whose goal is to used as a basic for the design of hypermedia environments allowing the dynamic generation of pedagogical activities adapted to the profiles and the preferences of the learners. This adaptation is carried out thanks to the use of the various languages revolving around XML technology and thanks to a horizontal system division in three interdependent levels (support, structure and semantics levels). Their respective roles are explained each time by describing the interests of this modelling. Finally, we describe a platform respecting this model which was implemented in order to validate all our proposals
APA, Harvard, Vancouver, ISO, and other styles
5

Ben, Meftah Salma. "Structuration sématique de documents XML centres-documents." Thesis, Toulouse 1, 2017. http://www.theses.fr/2017TOU10061/document.

Full text
Abstract:
La numérisation des documents et le développement des technologies Internet ont engendré une augmentation permanente du nombre de documents et de types de documents disponibles. Face à cette masse documentaire, XML (eXtensible Markup Language) s’est imposé comme format standard de structuration et d’échange de documents. Ainsi, un nombre de plus en plus important de documents devient disponible sous ce format. Ces documents XML peuvent être classés en deux types : les documents XML orienté-données et les documents XML orienté-textes. Les documents XML orienté-données sont constitués d’un ensemble d’éléments généralement courts et précis et sont similaires aux données relationnelles. Nous constatons que les balises utilisées pour ce type de documents décrivent généralement d’une manière précise le contenu, et offrent la sémantique basique nécessaire à la description de l’information (Exemples de balises : Article, Client, Quantité, Prix). A contrario, les documents XML orienté-textes sont riches en texte et utilisent des balises qui reflètent la plupart du temps un découpage (structurel) logique (exemples de balises : Contenu, Section, Paragraphe). Malheureusement, ces balises n’ont qu’une très pauvre vocation sémantique. Partant de cette constatation, le développement d’approches supportées par des outils automatisés permettant de décrire la sémantique des documents XML orientés-textes devient un besoin urgent, voire une nécessité pour certains usages. Dans ce contexte, nous proposons une approche de structuration sémantique des documents XML à partir de leurs structures logiques et de leurs contenus. Elle construit une arborescence de concepts. Cette approche de structuration sémantique passe par quatre phases : 1) Extraction des termes des contenus des documents en utilisant des techniques de recherche d’information ; 2) Détermination d’une taxonomie1 qui sera affectée au document, c’est-à-dire celle qui correspond au mieux à sa sémantique (cette étape se base sur une démarche de pondération d’un ensemble de taxonomies candidates) ; 3) Affectation, à chaque élément feuille de la structure logique du document, du concept le plus significatif à partir de la taxonomie retenue ; 4) Inférence de concepts aux éléments non feuilles du document. Notre approche de structuration sémantique des documents se base sur l’indexation sémantique et diffère des autres travaux par : 1) Le choix d’une taxonomie appropriée pour chaque document, il s’agit de déterminer la taxonomie qui décrit au mieux la sémantique du document, et 2) La pondération des concepts extraits de manière à donner plus d’importance aux concepts les plus spécifiques car nous partons du constat suivant : plus le niveau auquel se situe le concept est bas dans la hiérarchie, plus l’information qu’il apporte est fine et ciblée. Pour exploiter ces structures sémantiques, nous avons étendu le méta-modèle d’entrepôts de documents pour assurer leur stockage. De plus, nous avons introduit le concept de métadocument afin de permettre l’interrogation de ces structures sémantiques. Enfin, pour évaluer nos propositions, nous avons mené un ensemble d’expérimentations sur la collection de documents XML ImageCLEFMed 2010 en utilisant la ressource sémantique MeSH (NML's Medical Subject Headings). Les résultats obtenus montrent que l’algorithme de pondération des concepts des taxonomies qui a été proposé permet de sélectionner avec précision la taxonomie pertinente pour un document donné et, en conséquence, les concepts pertinents à affecter aux éléments feuilles de la structure sémantique de ce document
Le résumé en anglais n'a pas été communiqué par l'auteur
APA, Harvard, Vancouver, ISO, and other styles
6

Daniel-Vatonne, Marie-Christine. "Les termes : un modèle de représentation et structuration de données symboliques." Montpellier 2, 1993. http://www.theses.fr/1993MON20031.

Full text
Abstract:
Nos travaux se situent dans le cadre de l'analyse conceptuelle des donnees. Notre objectif est de generaliser les representations par variables binaires ou nominales en y adjoignant la modelisation de structures internes. Le probleme est de ne pas perdre en complexite algorithmique ce qui est gagne en puissance de representation. Selon ces considerations, decrire les donnees et les classes de donnees par des structures arborescentes est un bon compromis. Le systeme de representation que nous proposons s'appuie sur un modele algebrique: les magmas. Il permet de construire des termes assimilables a des arborescences finies, etiquetees et typees. Leur interpretation est intuitive et ils autorisent les descriptions recursives. Une relation d'ordre naturel, la generalisation, induit un treillis sur les termes. Nous etudions ce treillis et montrons qu'il possede des proprietes proches de celles d'un treillis booleen. En particulier, nous montrons que l'on peut construire un treillis de galois mettant en correspondance des ensembles d'objets et leur description par des termes
APA, Harvard, Vancouver, ISO, and other styles
7

Ribert, Arnaud. "Structuration évolutive de données : application à la construction de classifieurs distribués." Rouen, 1998. http://www.theses.fr/1998ROUES073.

Full text
Abstract:
Les travaux présentés dans ce mémoire abordent le problème de l'enrichissement de la base d'apprentissage des systèmes de classification. L'approche retenue repose essentiellement sur la distribution du problème de classification qui permet un classifieur modulaire, donc évolutif. La méthodologie mise en place consiste a utiliser l'information non supervisée fournie par une hiérarchie indicée en conjonction avec l'information supervisée fournie par un operateur humain. Cette procédure permet d'identifier des régions de l'espace de représentation (dénommées ilots) ou la concentration d'éléments d'une même classe est forte. La structure de la hiérarchie indicée permet ensuite de construire une hiérarchie de classifieurs associes aux ilots et regroupements d'ilots. La pertinence de la distribution obtenue a été vérifiée sur une base de chiffres manuscrits (NIST) à l'aide de perceptrons multi-couches et de l'algorithme des k plus proches voisins. Afin d'obtenir un classifieur distribue évolutif, nous présentons un algorithme de construction de hiérarchie indicée capable de prendre en compte l'ajout d'un nouvel élément sans recalculer la totalité de la hiérarchie. La validation expérimentale de cet algorithme a montré qu'il permettait d'économiser d'importantes ressources mémoires (moyennant un choix d'ultramétrique judicieux) mais que son coût de calcul devait être diminué. Dans le cadre d'une aide à l'étiquetage de nouvelles données nous avons introduit un algorithme de catégorisation multi-échelle ne nécessitant pas la connaissance a priori du nombre d'agrégats dans les données. La validation sur une base de chiffres manuscrits a montré le bon comportement de l'algorithme. La dernière partie de ce mémoire présente notre contribution à un modèle neuronal développé au PSI ces dernières années particulièrement adapté à une utilisation dans une hiérarchie de classifieurs évolutifs, notamment grâce à ces capacités d'auto-configuration.
APA, Harvard, Vancouver, ISO, and other styles
8

Tlili, Assed. "Structuration des données de la conception d'un bâtiment pour une utilisation informatique." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1986. http://tel.archives-ouvertes.fr/tel-00529509.

Full text
Abstract:
Cette recherche propose une structure et un dictionnaire de données de la conception thermique d'un bâtiment d'habitation. L'analyse qui y est effectuée facilite la tâche des créateurs de logiciels spécifiques aux différents domaines de la conception des bâtiments en les dispensant des analyses séparées et répétées. Ces logiciels se partagent les données, saisies et manipulées une seule fois, et les échangent entre eux sans problèmes de compatibilité. La démarche se résume en quatre points : - L'analyse préliminaire de la conception d'un bâtiment fournit des listes, de phases, de fonctions et tâches, de dossiers et documents, et enfin d'ouvrages, à partir desquelles pourraient être collectées les données. - Cette collecte sera effectuée dans le domaine restreint de la conception thermique, pour permettre une analyse plus détaillée. Celle-ci aboutit, grâce aux méthodes de structuration, à la "structure brute" du premier niveau, qui contient des fichiers, et à la "structure simplifiée" du second niveau, qui contient des structures de données. - La "méta-structure" du troisième niveau contient la totalité des résultats dans le fichier "STRUCTURE" : nomenclature des données classées par types, et le fichier "DICTIONNAIRE" : tous les paramètres des données classées par ordre alphabétique. - L'application est réalisée grâce au fichier "BASE", dont le contenu (identifiants et valeurs des données) est saisi une seule fois par le premier utilisateur. La méthode qui a permis la proposition de ces résultats pour ce domaine restreint reste valable pour les domaines non traités. Le traitement de tous les domaines de la conception d'un bâtiment aboutirait à un système de CAO global.
APA, Harvard, Vancouver, ISO, and other styles
9

Cho, Choong-Ho. "Structuration des données et caractérisation des ordonnancements admissibles des systèmes de production." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0053.

Full text
Abstract:
Dans ce mémoire, nous proposons, dans une phase préliminaire, la spécification et la modélisation de la base de données pour l'ordonnancement au sein d'une architecture hiérarchique de gestion de production, et de façon plus approfondie, la spécification analytique des ensembles de solutions admissibles pour aider à l'ordonnancement de trois types d'ateliers différents : - l'un, composé de plusieurs machines en en considérant les temps de réglage comme important sous des contraintes ensemblistes et Cou séquentielles, "flow-shop", un critère potentielles - un autre, composé d'une machine seule, avec des contraintes de dates limite de lots, la machine étant assimilée à une cellule de gestion au sein de l'atelier, et le "job-shop" classique, avec les trois contraintes précédentes: ensemblistes, potentielles, et dates limite. Un des caractères originaux de ce travail notamment, l'introduction d'une nouvelle structure de pour modéliser des familles de séquences de tâches
This work deals, on the one band, with the specification and the modelization of data bases for the scheduling problems in a hierarchical architecture of manufacturing systems, on the other hand, with the analytical specification of the set of feasible solutions for the decision support scheduling problems about three different types of workshops: - first, made up several machines (flowshop: sequences of operations are the same for all jobs), considering the important cri teri on as the set up times under set tasks groups) and potential. Constraints, - second, with only one machine, under the given due dates of jobs constraints, finally, organised in a jobshop, under the three previous constraints: set, potential and due dates. One of original researchs concerns the new structure: PQR trees, to characterise the set of feasible sequences of tasks
APA, Harvard, Vancouver, ISO, and other styles
10

Aguila, Orieta Del. "Analyse et structuration des données dans les logiciels de CAO en électromagnétisme." Grenoble INPG, 1988. http://www.theses.fr/1988INPG0077.

Full text
Abstract:
Cette étude s'inscrit dans le cadre de l'application de la méthode des éléments finis au calcul des champs électromagnétiques. La complexité des logiciels réalisés nous a conduit à clarifier les concepts de structures des données ainsi que les moyens informatiques qui permettent la mise en oeuvre de ces structures. Après avoir effectué une étude bibliographique exhaustive concernant les bases de données nous présentons les caractéristiques essentielles des données rencontrées en CAO afin de déterminer les modèles de données qui s'adaptent le mieux à notre problème. Bien qu'il n'y ait pas un modèle unique pour la CAO, nous fournirons les éléments permettant d'appréhender la solution la mieux adaptée à chacun des programmes rencontrés. Nous présentons ensuite deux logiciels de CAO qui utilisent la méthode des éléments finis FLUX 3D pour l'électromagnétisme, I-DEAS Supertab pour la mécanique et nous analysons leurs structures de données. Nous présentons enfin quelques algorithmes de maillage de surfaces en 3D ainsi que des algorithmes de visualisation d'objets avec élimination des parties cachets
APA, Harvard, Vancouver, ISO, and other styles
11

Mühlhoff, Philippe. "HBDS structuration d'un système de CAO intergraph." Paris 6, 1990. http://www.theses.fr/1990PA066634.

Full text
Abstract:
Ce travail est organisé en deux parties. La première partie est la description des systèmes de CAO Intergraph de base VAX/VMS et Unix. Les systèmes de CAO traditionnels sont d'abord décrits. Ils sont basés sur le langage graphique IGDS et sur le gestionnaire de bases de données DMRS. Ensuite, les nouveaux systèmes de CAO Intergraph sont décrits. Ils incorporent dans le noyau graphique un langage orienté objet et sont développes dans le monde Unix. La deuxième partie de la thèse consiste en l'élaboration d'un noyau basé sur les notions de message et de types abstraits de données. Sur cette base est développé un système d'exploitation et un langage graphique basé sur les diagrammes de Petri. Ces développements nous permettent de modéliser et décrire algorithmiquement la couche de géométrie associative d'intergraph. Cette deuxième partie se termine sur les possibilités de requêtes à base de clauses de Horn (Prolog) pour interroger des structures HBDS ainsi que sur la possibilité d'utiliser un noyau à base de messages et TAD pour faire de la simulation discrète. En dernière partie (annexe), tous les outils employés dans la thèse sont décrits ainsi que deux systèmes d'information géographique (Tigris et DLG/E).
APA, Harvard, Vancouver, ISO, and other styles
12

Thion, Romuald. "Structuration relationnelle des politiques de contrôle d'accès : représentation, raisonnement et vérification logiques." Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0028/these.pdf.

Full text
Abstract:
Le contrôle d'accès est le mécanisme qui définit et impose ce qu'il est permis et interdit de faire dans un système. Les politiques de contrôle d'accès sont des ensembles de faits et règlements structurés selon des modèles. Depuis l'initiative des modèles à rôles, de nombreuses générations d'organisation des droits d'accès ont vu le jour. Les politiques et les modèles sont ainsi devenus plus grands, plus complexes et soulèvent de nombreux problèmes de formalisation, de vérification et d'administration. La thèse montre que les modèles de contrôle d'accès existants partagent de nombreux traits. Après avoir analysé et synthétisé ces éléments communs, nous proposons une structuration relationnelle pour concevoir, organiser et formaliser les droits d'accès. L'approche est fondée sur les dépendances de données : des classes de formules logiques qui imposent des contraintes sur les données relationnelles. L'approche met à profit des résultats qui dépassent le cadre strict du modèle relationnel et résolvent des problèmes actuels d'expression, de vérification et de raisonnement sur les politiques de contrôle d'accès. Un des problèmes majeurs que nous abordons est de s'assurer qu'une politique est intègre, qu'elle satisfait bien aux propriétés imposées par le modèle. La thèse met à profit des ponts existants entre les dépendances et des domaines de recherche connexes. Nous proposons ainsi une représentation permettant d'exprimer graphiquement les modèles ainsi qu'une méthode semi-automatisée pour assister la réorganisation de politiques existantes. Les récentes applications des dépendances de données offrent de riches perspectives d'applications au contrôle d'accès
Access control is a mechanism which defmes and controls the privileges of users in a system. Nowadays, it is one of the most common and pervasive mechanisms used for security enforcement in information systems. Access control policies are sets of facts and rules organized by mean of access control models. Sin ce the role-based access control initiative, several access control models have been proposed in the literature. The policies and models have become larger and more complex, and several issues on formalization, verification and administration have appeared. The PhD thesis shows that access control models share common characteristics. Upon analysis and synthesis of these traits, we propose a relational structuration for the design, organization and formalization of privileges. The framework is built upon data dependencies: fragments of first-order logic dedicated to express constraints between relational data. Some results from the data bases community benefit the approach by helping address current issues on expression, verification, and reasoning on access control policies. We focus particularly on the integrity property ofpolicies: guaranteeing that the policies enforce the properties defined in the model. The thesis profits from bridges between data dependencies, conceptual graphs and formal concepts analysis. Thus, we propose a graphical representation of the models and a semi-automated method for eengineering the policies. Finally, we present perspectives for access control models based upon recent applications of data dependencies from the databases community
APA, Harvard, Vancouver, ISO, and other styles
13

Djennaoui, Mohand-Said. "Structuration des données dans le cadre d'un système de gestion de bases de connaissances." Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0077.

Full text
Abstract:
La déduction et la structuration des informations sont des caractéristiques essentielles pour la nouvelle génération des Systèmes de Gestion de Bases de Données (appelés communément Systèmes de Gestion de Bases de Connaissances((SGBC) EPSILON est un SGBC basé sur l'intégration de la programmation logique (PROLOG) et des Bases de Données Relationnelles. Il permet d'utiliser les données stockées dans une Base de Données comme des faits PROLOG- et de façon transparente à l'uti1isateur. Cette thèse décrit l'enrichissement de ce système en le dotant de mécanismes de structuration de données dans le sens des relations NF2 (relations imbriquées). L'utilisateur peut définir des vues externes basées sur un modèle NF2. Au niveau interne, les relations restent compatibles avec le modèle relationnel classique. Sans remettre en cause le noyau d'EPSILON, nous avons ajouté les éléments suivants : • Un méta-interprète d'un langage de programmation logique incluant des constructeurs d'ensemble et de tuple. Un traducteur rendant transparent l'utilisation du méta-interprête précédent • un méta-interprète permettant d'interprêter des requêtes SQL qui manipulent des relations imbriquées
Both the deduction and the structuration of the information are essential features for the new generation of DBMS (namely Knowledge Base management System : KBMS). EPSILON is KBMS integration (combining) logic programming (PROLOG) and relational databases ; It allows to use data stored in the data bases as prolog's facts and with user transparency. This work descibes the system's enriching by endowing it with structuration mechanisms in the sens of NF2 relations (Nested relations). The user can define external views based on a NF2 model. At the internal level, the relations remain compatible with the traditional relational model. Around the EPSILON kermel, we have designed and developed: - A meta-interpreter of logic based language including sets and tuples constructors. - A translater which allows to use the met-interpreter in a transparency way. - A meta-interpreter which allows to handle SQL request relation
APA, Harvard, Vancouver, ISO, and other styles
14

Debrauwer, Laurent. "Des vues aux contextes pour la structuration fonctionnelle de bases de données à objets en CROME." Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-253.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Sene, Alsane. "Modélisation et structuration des connaissances dans les processus de télémédecine dédiés aéronautique." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30251/document.

Full text
Abstract:
Tout professionnel de la santé est sujet devant un patient à une incertitude inhérente à la pratique médicale. Dans le cas d'incident médical lors d'un trajet aérien, cette incertitude comporte trois sources additionnelles : (1) variabilité des conditions aéronautiques, (2) variabilité individuelle des conditions du patient, (3) variabilité individuelle des compétences de l'intervenant. Aujourd'hui les incidents médicaux dans l'avion sont estimés à 350 par jour dans le monde et lorsqu'ils surviennent, ils sont pris en charge dans 95% des cas par des professionnels de la santé passagers qui se portent volontaires. C'est souvent pour eux une première expérience. La principale raison de la réticence des professionnels de la santé à répondre à l'appel du commandant est la nécessité d'improviser; ayant à établir un diagnostic et évaluer la gravité de l'état du patient dans des conditions difficiles. A part l'assistance à distance par télémédecine l'intervenant, souvent seul face à ses doutes et son incertitude, ne dispose d'aucune autre aide à bord. Par ailleurs l'aviation civile dispose de systèmes de retour d'expérience (RETEX) pour gérer la complexité de tels processus. Des politiques de recueil et d'analyse des événements sont mises en place à l'échelle internationale, par exemple ECCAIRS (European Co-ordination Centre for Accident and Incident Reporting Systems) et ASRS (Aviation Safety Reporting System).Dans ce travail de thèse, nous proposons tout d'abord une formalisation sémantique basée sur les ontologies pour préciser conceptuellement le vocabulaire des incidents médicaux se produisant durant les vols commerciaux. Ensuite, nous mettons en œuvre un processus d'extraction des connaissances à partir des données (bases existantes) pour identifier les structures caractéristiques (patterns) des différents groupes d'incidents majeurs. Enfin, nous proposons une architecture de Système d'Aide à la Décision Médicale (SADM) qui intègre la gestion des incertitudes présentes tant sur les données récoltées que les niveaux de compétences des professionnels médicaux intervenants
There is an inherent risk in the practice of medicine that can affect the conditions of medical activities (diagnostic or therapeutic purposes). The management of uncertainty is also an integral part of decision-making processes in the medical field. In the case of a medical incident during an air travel, this uncertainty includes three additional sources: (1) variability of the aeronautical conditions, (2) individual variability of the patient's conditions, (3) individual variability of the intervener's skills. Presently, medical incidents in the plane are estimated worldwide at 350 per day and when they occur, they are handled in 95 \% of cases by health professionals who are passengers. It is often for them a first experience. The main reason for the reluctance of health professionals to respond to the aircraft captain's call is the need to improvise; having to make a diagnosis and assess the severity of the patient's condition under difficult conditions. Apart from telemedicine with remote assistance, the intervener, often alone in the face of his doubts and uncertainty, has no other decision aid tool on board. Civil aviation also has feedback systems to manage the complexity of such processes. Event collection and analysis policies are put in place internationally, for example ECCAIRS (European Co-ordination Center for Accident and Incident Reporting Systems) and ASRS (Aviation Safety Reporting System). In this work, we first propose a semantic formalization based on ontologies to clarify conceptually the vocabulary of medical incidents occurring during commercial flights. Then, we implement a knowledge extraction process from the data available on existing databases to identify the patterns of the different groups of incidents. Finally, we propose a Clinical Decision Support System (CDSS) architecture that integrates the management of the uncertainties present on both the collected data and the skill levels of the medical professionals involved
APA, Harvard, Vancouver, ISO, and other styles
16

Lombard, Vincent. "Structuration et exploration d'informations génomiques et fonctionnelles des enzymes actives sur les glucides." Thesis, Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10037/document.

Full text
Abstract:
Les glucides sont très rependus dans la nature et sont impliqués dans une multitude de phénomènes biologiques. Sous forme de saccharides et de glycoconjugués, ils constituent une partie substantielle de la biomasse produite sur terre et représentent une source potentielle d’énergie renouvelable de première importance. La diversité des glucides complexes est créée et contrôlée par un panel d’activités enzymatiques qui interviennent dans leur assemblage, dégradation et modification. L’étude structurale et fonctionnelle des enzymes actives sur les glucides (CAZymes) est à la base de multiples efforts de recherche appliquée en biotechnologie. L’industrie recherche actuellement des enzymes avec des activités et des spécificités encore plus performantes. L’activité de recherche de ces nouvelles enzymes est grandement facilitée par l’accumulation de séquences biologiques dans les bases de données, provenant notamment des études génomiques.Mon sujet de recherche s’inscrit dans un objectif de développement d’outils pour la classification et l’identification de nouvelles enzymes impliqués dans la conversion de la biomasse. Tous ces travaux sont en lien direct avec la mise en place d’une nouvelle infrastructure de la base de données CAZy et l’analyse de données génomiques, métagénomiques et biochimiques. La refonte complète de la structure de la base de données préexistantes et de son interface a été ainsi réalisée. Cet effort a été validé par l’analyse des familles de polysaccharide lyases et la création de sous-familles, dont l’homogénéité fonctionnelle a été révélée. De plus, la détection systématique de protéines modulaires portant des modules d’adhésion aux composants de la paroi végétale a permis l’identification de nouvelles protéines potentiellement impliquées dans la dégradation de la biomasse végétale. Enfin, j’ai implémenté des approches automatisées capables d’analyser de grands volumes de données (méta)génomiques pour en extraire le contenu en CAZymes
Carbohydrates are widely distributed in nature, where they are involved in a multitude of important biological events. Saccharides and glycoconjugates constitute the main component of the biomass produced on earth, therefore they represent a plentiful source of renewable energy. The diversity of complex carbohydrates is created and controlled by a panel of enzyme activities involved in their assembly, degradation and modification. The structural and functional study of Carbohydrate Active enZymes on (CAZymes) has been the basis for many applied research efforts in biotechnology. For exemple, the biotechnology industry is currently searching enzymes with enhanced activities and specificities. The identification of new enzymes is potentially facilitated by the large-scale accumulation of gene sequences, particularly from current genomic studies.This thesis aimed at developing tools for the classification and identification of new enzymes involved in biomass degradation. To this end, a new structure of the CAZy database was developed and applied to mining genomic, metagenomic and biochemical data. A complete reorganisation of the structure of the existing database and its interface has been achieved. In this effort the analysis of all known families of polysaccharide lyases has been validated and subfamilies were created, which revealed functional homogeneity. In addition, the systematic identification of modular proteins containing plant cell wallbinding modules allowed the identification of new proteins potentially targeting plant biomass. Finally, I show that it is indeed possible to analyze large volumes of (meta)genomic data by automated methods in order to understand their CAZyme contents
APA, Harvard, Vancouver, ISO, and other styles
17

Voiron, Nicolas. "Structuration de bases multimédia pour une exploration visuelle." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAA036/document.

Full text
Abstract:
La forte augmentation du volume de données multimédia impose la mise au point de solutions adaptées pour une exploration visuelle efficace des bases multimédia. Après avoir examiné les processus de visualisation mis en jeu, nous remarquons que ceci demande une structuration des données. L’objectif principal de cette thèse est de proposer et d’étudier ces méthodes de structuration des bases multimédia en vue de leur exploration visuelle.Nous commençons par un état de l’art détaillant les données et les mesures que nous pouvons produire en fonction de la nature des variables décrivant les données. Suit un examen des techniques de structuration par projection et classification. Nous présentons aussi en détail la technique du Clustering Spectral sur laquelle nous nous focaliserons ensuite.Notre première réalisation est une méthode originale de production et fusion de métriques par corrélation de rang. Nous testons cette première méthode sur une base multimédia issue de la vidéothèque d’un festival de films. Nous continuons ensuite par la mise au point d’une méthode de classification supervisée par corrélation que nous testons avec les données vidéos d’un challenge de la communauté multimédia. Ensuite nous nous focalisons sur les techniques du Clustering Spectral. Nous testons une technique de Clustering Spectral supervisée que nous comparons aux techniques de l’état de l’art. Et pour finir nous examinons des techniques du Clustering Spectral semi-supervisé actif. Dans ce contexte, nous proposons et validons des techniques de propagation d’annotations et des stratégies permettant d’améliorer la convergence de ces méthodes de classement
The large increase in multimedia data volume requires the development of effective solutions for visual exploration of multimedia databases. After reviewing the visualization process involved, we emphasis the need of data structuration. The main objective of this thesis is to propose and study clustering and classification of multimedia database for their visual exploration.We begin with a state of the art detailing the data and the metrics we can produce according to the nature of the variables describing each document. Follows a review of the projection and classification techniques. We also present in detail the Spectral Clustering method.Our first contribution is an original method that produces fusion of metrics using rank correlations. We validate this method on an animation movie database coming from an international festival. Then we propose a supervised classification method based on rank correlation. This contribution is evaluated on a multimedia challenge dataset. Then we focus on Spectral Clustering methods. We test a supervised Spectral Clustering technique and compare to state of the art methods. Finally we examine active semi-supervised Spectral Clustering methods. In this context, we propose and validate constraint propagation techniques and strategies to improve the convergence of these active methods
APA, Harvard, Vancouver, ISO, and other styles
18

Bouchekif, Abdesselam. "Structuration automatique de documents audio." Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1038/document.

Full text
Abstract:
La structuration en thèmes est un domaine de recherche très prisé dans le traitement automatique du langage naturel car elle est le point de départ de plusieurs applications comme la recherche d’information, le résumé automatique et la modélisation des thèmes. Dans cette thèse, nous avons proposé un système de structuration automatique des journaux d’informations. Notre système contient deux modules : segmentation thématique et titrage. La segmentation thématique consiste à effectuer un pavage de l’émission en segments thématiquement homogènes. Ces derniers, sont généralement identifiés par des étiquettes anonymes, c’est alors le rôle du module de titrage d’affecter un titre à chaque segment.Ces travaux ont permis plusieurs contributions originales tel que l’exploitation conjointe de la distribution des mots et des locuteurs (cohésion de la parole) ainsi que l’utilisation des relations sémantiques de type diachronique. Après l’étape de segmentation, nous proposons d’apparier chaque segment avec les articles de presse du même jour. Le titre associé au segment est celui de l’article le plus proche thématiquement. Finalement, nous avons proposé deux nouvelles métriques d’évaluation, l’une pour la segmentation thématique et l’autre pour le titrage. Les expériences sont menées sur trois corpus caractérisés par leur richesse et leur diversité. Ils sont constitués de 168 journaux télévisés issus de 10 chaînes françaises transcrits automatiquement
The topic structuring is an area that has attracted much attention in the Natural Language Processing community. Indeed, topic structuring is considered as the starting point of several applications such as information retrieval, summarization and topic modeling.In this thesis, we proposed a generic topic structuring system i.e. that has the ability to deal with any TV Broadcast News.Our system contains two steps: topic segmentation and title assignment. Topic segmentation consists in splitting the document into thematically homogeneous fragments. The latter are generally identified by anonymous labels and the last step has to assign a title to each segment.Several original contributions are proposed like the use of a joint exploitation of the distribution of speakers and words (speech cohesion) and also the use of diachronic semantic relations. After the topic segmentation step, the generated segments are assigned a title corresponding to an article collected from Google News during the same day. Finally, we proposed the evaluation of two new metrics, the first is dedicated to the topic segmentation and the second to title assignment.The experiments are carried out on three corpora. They consisted of 168 TV Broadcast News from 10 French channels automatically transcribed. Our corpus is characterized by his richness and diversity
APA, Harvard, Vancouver, ISO, and other styles
19

Roche, Philip. "Structuration de la végétation et organisation du paysage en Provence calcaire : approche spatiale et hiérarchique." Aix-Marseille 1, 1994. http://www.theses.fr/1994AIX11008.

Full text
Abstract:
En prenant comme cas d'etude, une commune du centre var (83), la commune de le val, le principal objectif de ce travail est methodologique. A travers l'examen des differents outils permettant la quantification des patrons spatiaux a differentes echelles et la creation d'un systeme d'information geographique base sur l'utilisation d'une base de donnees spatialisee, il a ete recherche les relations existant entre l'organisation spatiale du paysage et les structures de vegetation. La theorie de la hierarchie fournit un cadre conceptuel en formalisant les relations entre des phenomenes se deroulant a differentes echelles. Ce travail a permis, notamment, de montrer l'existence d'une forte correlation entre l'ordination spatiale des unites de vegetation et leur ordination le long des sequences de succession. Les patrons spatiaux resultent alors de phenomenes temporels par abandon successif de territoires excentres. L'etude des relations entre les gradients floristiques et les gradients de structure du paysage a mis en evidence la necessite d'integrer conjointement au paysage, les variables geo-pedologiques dans des modeles lineaires bases sur la technique des regressions multiples. La vegetation repond de fait a des determinismes qui sont a la fois locaux (contraintes ecologiques) et spatiaux (organisation du paysage, dynamique des populations), ce qui a permis de definir un lien fort entre les approches spatiales et les approches floristiques. La spatialisation des donnees et l'integration des activites humaines permet d'approcher les phenomenes ecologiques
APA, Harvard, Vancouver, ISO, and other styles
20

Gouriveau, Rafael. "Analyse des risques : formalisation des connaissances et structuration des données pour l'intégration des outils d'étude et de décision." Toulouse, INPT, 2003. http://www.theses.fr/2003INPT035H.

Full text
Abstract:
Le management des risques associe différents processus d'analyse et de décision délicats. L'hétérogénéité des informations exploitées dans ce contexte ainsi que la diversité des modèles de traitement utilisables rendent difficile la définition d'un cadre formel pour cette démarche. Dans ce contexte, notre objectif est de favoriser la mise en œuvre du management des risques. Notre contribution porte sur deux aspects complémentaires. Nous proposons des moyens simples et opérationnels pour formaliser et traiter les données, informations et connaissances ; nous avançons des solutions portant sur une approche "floue/possibiliste" de l'analyse des risques et sur la réalisation d'analyses multi-critères. Nous proposons un modèle conceptuel des données permettant de décrire la situation étudiée et d'intégrer de façon cohérente les outils d'analyse et décisionnels, assurant ainsi un continuum entre toutes les étapes du processus de management des risques.
APA, Harvard, Vancouver, ISO, and other styles
21

Zanghi, Hugo. "Approches modèles pour la structuration du web vu comme un graphe." Thesis, Evry-Val d'Essonne, 2010. http://www.theses.fr/2010EVRY0041/document.

Full text
Abstract:
L’analyse statistique des réseaux complexes est une tâche difficile, étant donné que des modèles statistiques appropriés et des procédures de calcul efficaces sont nécessaires afin d’apprendre les structures sous-jacentes. Le principe de ces modèles est de supposer que la distribution des valeurs des arêtes suit une distribution paramétrique, conditionnellement à une structure latente qui est utilisée pour détecter les formes de connectivité. Cependant, ces méthodes souffrent de procédures d’estimation relativement lentes, puisque les dépendances sont complexes. Dans cette thèse nous adaptons des stratégies d’estimation incrémentales, développées à l’origine pour l’algorithme EM, aux modèles de graphes. Additionnellement aux données de réseau utilisées dans les méthodes mentionnées ci-dessus, le contenu des noeuds est parfois disponible. Nous proposons ainsi des algorithmes de partitionnement pour les ensembles de données pouvant être modélisés avec une structure de graphe incorporant de l’information au sein des sommets. Finalement,un service Web en ligne, basé sur le moteur de recherche d’ Exalead, permet de promouvoir certains aspects de cette thèse
He statistical analysis of complex networks is a challenging task, given that appropriate statistical models and efficient computational procedures are required in order for structures to be learned. The principle of these models is to assume that the distribution of the edge values follows a parametric distribution, conditionally on a latent structure which is used to detect connectivity patterns. However, these methods suffer from relatively slow estimation procedures, since dependencies are complex. In this thesis we adapt online estimation strategies, originally developed for the EM algorithm, to the case of graph models. In addition to the network data used in the methods mentioned above, vertex content will sometimes be available. We then propose algorithms for clustering data sets that can be modeled with a graph structure embedding vertex features. Finally, an online Web application, based on the Exalead search engine, allows to promote certain aspects of this thesis
APA, Harvard, Vancouver, ISO, and other styles
22

Grosjean, Frédéric. "Le football, un élément de structuration de l'espace franc-comtois." Besançon, 2003. http://www.theses.fr/2003BESA1037.

Full text
Abstract:
Le football représente une activité dominicale essentielle en France : on se retrouve autour du stade pour commenter le match, supporter l'équipe locale, décourager le club visiteur, voir son fils jouer, etc. Sa large expression (en France, deux millions de licenciés répartis dans vingt-mille clubs) lui confère le rôle de service offert à la population. L'objectif de cette thèse est de démontrer que le football, et plus généralement le sport, peut être assimilé à un service. Les recherches présentées sont appliquées au football en Franche-Comté. Les clubs de football sont alors les prestataires de ce service (l'offre), et les footballeurs en sont les consommateurs (la demande). Les recherches se composent donc en deux parties : - la première se consacre à l'analyse du service football sous l'angle de l'offre (les clubs) ; elle examine les logiques de diffusion spatio-temporelle de l'offre de service. Elle illustre le cycle de vie d'un service sportif ; - la deuxième est dédiée à la demande (les pratiquants), ou plutôt des demandes. Les licenciés répondent aux mêmes règles du jeu, mais ils consomment leur pratique sportive différemment : ils choisissent leur club en fonction de leur motivation individuelle (pratique de loisir ou de compétition) et de leur appartenance sociale (proximité sociale). Un outil de gestion de base de données spatio-temporelles (MGéO'FOOT : Mieux Gérer et Organiser le Football) a été élaboré. En vue de proposer des politiques cohérentes de planification territoriale, l'utilisation d'un tel outil s'avère pertinente et très utile pour les responsables de la discipline
Football is an integral part of Sunday life in France: The French gather around the stadium to comment on the game, support the home club, discourage the visiting club, see their sons play, etc. Its broad appeal (in France, two million players are represented in a total of 20,000 clubs) suggests that it can be seen as a type of service for the population. The aim of this dissertation is to show that football, as well as sport in general, can be compared to a service. The research presented is specific to football in Franche-Comté. Consequently, the clubs themselves can be equated to the producers of the service (the supply), with the players as the consumers (the demand). The research is made up of two parts : - the first is concerned with the analysis of football as a service from the perspective of the demand (clubs); it examines the various manners in which football (the supply) has been delivered to its audience (the ones who demand it). It illustrates the life cycle of a sport as a service; - the second is concerned with the demand (the players), or rather the demands. The participants play according to the same rules, but they pursue the activity differently: they choose their club based on their own personal motivation (be it for pleasure or for competition) and on the club's social advantages (the social milieu). A basic management tool (MGéO'FOOT: Mieux Gérer et Organiser le Football) for the collection of space-time data was designed to more effectively manage and organize football. In order to facilitate more effective land planning, this tool was considered very appropriate and useful for the persons in charge of the discipline
APA, Harvard, Vancouver, ISO, and other styles
23

Pierret, Jean-Dominique. "Methodologie et structuration d'un outil de decouverte de connaissances base sur la litterture biomedicale : une application basee sur le MeSH." Phd thesis, Université du Sud Toulon Var, 2006. http://tel.archives-ouvertes.fr/tel-00011704.

Full text
Abstract:
L'information disponible dans les bases de données bibliographiques est une information datée, validée par un processus long qui la rend peu innovante. Dans leur mode d'exploitation, les bases de données bibliographiques sont classiquement interrogées de manière booléenne. Le résultat d'une requête est donc un ensemble d'informations connues qui n'apporte en lui-même aucune nouveauté.
Pourtant, en 1985, Don Swanson propose une méthode originale pour extraire de bases de donnés une information innovante. Son raisonnement est basé sur une exploitation systématique de la littérature biomédicale afin de dégager des connexions latentes entre différentes connaissances bien établies. Ses travaux montrent le potentiel insoupçonné des bases bibliographiques dans la révélation et la découverte de connaissances. Cet intérêt ne tient pas tant à la nature de l'information disponible qu'à la méthodologie utilisée. Cette méthodologie générale s'applique de façon privilégiée dans un environnement d'information validée et structurée ce qui est le cas de l'information bibliographique. Nous proposons de tester la robustesse de la théorie de Swanson en présentant les méthodes qu'elle a inspirées et qui conduisent toutes aux mêmes conclusions. Nous exposons ensuite, comment à partir de sources d'information biomédicales publiques, nous avons développé un système de découverte de connaissances basé sur la littérature.
APA, Harvard, Vancouver, ISO, and other styles
24

Piron, Marie. "Structuration de l'information a plusieurs niveaux et analyse des donnees : developpement methodologique et application aux donnees d'une enquete socio-economique a ouagadougou (burkina faso)." Paris 6, 1990. http://www.theses.fr/1990PA066770.

Full text
Abstract:
Une enquete comportant plusieurs niveaux de collecte emboites fournit un ensemble d'informations hierarchisees. C'est sur le croisement des informations et l'etude simultanee des niveaux que repose la richesse de l'enquete. L'exploiter, c'est: concevoir un tableau rectangulaire qui croise l'ensemble des variables definies a plusieurs niveaux et qui traite une meme population statistique. Il s'agit de ponderer toutes les unites statistiques. Nous mettons en evidence un systeme de ponderation coherent donne par une population statistique de reference; envisager l'etude d'un ensemble de niveaux emboites qui constitue un systeme d'echelles. Il s'agit de degager les structures specifiques de chaque niveau et celles que l'on perd dans le changement d'echelle. Nous proposons une methode, basee sur l'analyse des correspondances et la decomposition de l'inertie pour une serie de partition emboitees, qui consiste en une succession d'analyses inter-classes et intra-classes qui jouent le role d'aide a l'interpretation du systeme d'echelles. Ainsi, decrire un ensemble d'informations hierarchisees revient a considerer un systeme d'echelles c'est-a-dire un processus de classification pour lequel les classes sont imposees
APA, Harvard, Vancouver, ISO, and other styles
25

Ben, Abdallah Nabil. "Analyse et structuration de documents scientifiques pour un accès personnalisé à l'information : vers un système d'information évolué." Lyon 1, 1997. http://www.theses.fr/1997LYO19003.

Full text
Abstract:
Dans le contexte de recherche d'information en texte integrale, l'utilisateur est generalement confronte a une surabondance de documents : a presque toutes les questions il a de multiples reponses qui ne sont pas necessairement pertinentes. Afin de pouvoir remedier a ce probleme de bruit, il est souhaitable que de l'utilisateur soit aiguille vers un sous-corpus personnalise repondant a ses attentes. Cette etude presente un systeme de filtrage d'information base sur une caracterisation du profil d'utilisateur, un decoupage des documents en unites documentaires et un systeme d'aiguillage. Dans ses aspects theoriques, le present travail porte sur la formalisation des operations pratiques mises en uvres dans une recherche de documents textuels pour en deduire a la fois la facon dont on peut definir le profil de l'utilisateur et les proprietes des unites documentaires. Les problemes resultants des associations etablies entre les caracteristiques de l'utilisateur et les proprietes des unites documentaires sont largement discutes. Cette nouvelle approche de filtrage de documents basee essentiellement sur ces associations pourrait ameliorer la conception classique de la recherche documentaire qui consiste a apparier (appariement strict ou approche) les constituants de la requete de l'utilisateur avec les outils de representation des documents (concepts, mots, groupes de mots, etc. ). Cette conception aura toujours a gerer des donnees (documents) dont la semantique est difficile a mettre en evidence et des utilisateurs dont les besoins ne peuvent etre reduits a des expressions.
APA, Harvard, Vancouver, ISO, and other styles
26

Serrano, Laurie. "Vers une capitalisation des connaissances orientée utilisateur : extraction et structuration automatiques de l'information issue de sources ouvertes." Caen, 2014. http://www.theses.fr/2014CAEN2011.

Full text
Abstract:
Face à l’augmentation vertigineuse des informations disponibles librement (notamment sur le Web), repérer efficacement celles qui présentent un intérêt s’avère une tâche longue et complexe. Les analystes du renseignement d’origine sources ouvertes sont particulièrement concernés par ce phénomène. En effet, ceux-ci recueillent manuellement une grande partie des informations d'intérêt afin de créer des fiches de connaissance résumant le savoir acquis à propos d’une entité. Dans ce contexte, cette thèse a pour objectif de faciliter et réduire le travail des acteurs du renseignement et de la veille. Nos recherches s’articulent autour de trois axes : la modélisation de l’information, l'extraction d’information et la capitalisation des connaissances. Nous avons réalisé un état de l’art de ces différentes problématiques afin d'élaborer un système global de capitalisation des connaissances. Notre première contribution est une ontologie dédiée à la représentation des connaissances spécifiques au renseignement et pour laquelle nous avons défini et modélisé la notion d'événement dans ce domaine. Par ailleurs, nous avons élaboré et évalué un système d’extraction d’événements fondé sur deux approches actuelles en extraction d'information : une première méthode symbolique et une seconde basée sur la découverte de motifs séquentiels fréquents. Enfin, nous avons proposé un processus d’agrégation sémantique des événements afin d'améliorer la qualité des fiches d'événements obtenues et d'assurer le passage du texte à la connaissance. Celui-ci est fondé sur une similarité multidimensionnelle entre événements, exprimée par une échelle qualitative définie selon les besoins des utilisateurs
Due to the considerable increase of freely available data (especially on the Web), the discovery of relevant information from textual content is a critical challenge. Open Source Intelligence (OSINT) specialists are particularly concerned by this phenomenon as they try to mine large amounts of heterogeneous information to acquire actionable intelligence. This collection process is still largely done by hand in order to build knowledge sheets summarizing all the knowledge acquired about a specific entity. Given this context, the main goal of this thesis work is to reduce and facilitate the daily work of intelligence analysts. For this sake, our researches revolve around three main axis: knowledge modeling, text mining and knowledge gathering. We explored the literature related to these different domains to develop a global knowledge gathering system. Our first contribution is the building of a domain ontology dedicated to knowledge representation for OSINT purposes and that comprises a specific definition and modeling of the event concept for this domain. Secondly, we have developed and evaluated an event recognition system which is based on two different extraction approaches: the first one is based on hand-crafted rules and the second one on a frequent pattern learning technique. As our third contribution, we proposed a semantic aggregation process as a necessary post-processing step to enhance the quality of the events extracted and to convert extraction results into actionable knowledge. This is achieved by means of multiple similarity measures between events, expressed according a qualitative scale which has been designed following our final users' needs
APA, Harvard, Vancouver, ISO, and other styles
27

Gouy, Manolo. "Origine et fonction de l'utilisation de la dégénérescence du code génétique chez Escherichia coli : structuration en banque de données et analyse statistique des séquences nucléotidiques." Lyon 1, 1987. http://www.theses.fr/1987LYO10052.

Full text
Abstract:
La degenerescence du code genetique pose le probleme du choix des codons synonymes dans les genes proteiques. Deux aspects de ce probleme ont ete abordes ici pour la bacterie escherichia coli. Le choix des codons a-t-il des consequences fonctionnelles. Quelles sont ses causes et son origine evolutive. Pour ce faire, on a etudie statistiquement la composition en codons des genes proteiques chez e. Coli, ses plasmides et ses phages. Les deux tendances majeures dans l'utilisation des codons chez e. Coli sont (1) la preference vers les codons correspondants aux trna isoaccepteurs majeurs, (2) la preference des codons du type ssu (s=c ou g) et des codons du type wwc sur wwu (w=a ou u). L'intensite de ces deux tendances est tres fortement correlee au degre d'expressivite des genes. Ceci indique que le choix des codons est relie a l'efficacite traductionnelle des genes. Effectivement, divers auteurs ont montre que la vitesse d'elongation de la traduction est sensible a la concentration relative des trna. Les genes de plasmides, en accord avec la grande diversite de leur origine, presentent un tres faible niveau moyen d'adaptation a la distribution cellulaire des trna. Chez les genes de phages les plus fortement exprimes, on retrouve l'adaptation a la distribution cellulaire des trna, quoique l'intensite du biais soit moindre que chez l'hote. Generalement, dans les genomes de coliphages, des structures propres a chaque virus coexistent avec une adaptation a l'hote. Au dela des biais portant sur la composition globale en codons des genes, on a etudie les relations entre codons adjacents. Dans les genes bacteriens, le contexte des codons n'est pas aleatoire. On a detecte un biais dans les dinucleotides situes a la frontiere des codons qui semble lie a l'optimisation de la traduction. On a d'autre part realise un systeme informatique permettant la consultation et l'extraction des donnees des banques de sequences nucleotidiques et proteiques. Ce systeme, nomme acnuc, est installe sur un centre serveur national, mettant ainsi trois grandes banques de donnees a la disposition de la communaute des biologistes francais. Le systeme acnuc est particulierement efficace pour la constitution d'echantillons de sequences nucleotidiques definis sur criteres biologiques.
APA, Harvard, Vancouver, ISO, and other styles
28

Jagueneau, Liliane. "Structuration de l'espace linguistique entre Loire et Gironde : analyse dialectométrique des données phonétiques de l'"Atlas linguistique et ethnographique de l'Ouest"." Toulouse 2, 1987. http://www.theses.fr/1987TOU20082.

Full text
Abstract:
Cette etude porte sur la structuration geolinguistique des traits phonetiques entre loire et gironde, dans le "centre-ouest" (vendee, deux-sevres, vienne, charente-maritime, charente, et points limitrophes), zone-limite entre les langues du nord et du sud de la france ("oil" et "oc"). Elle presente d'abord la description phonetique de cette zone, a partir de l'atlas linguistique et ethnographique de l'ouest (b. Horiot-g. Massignon). C'est ensuite la repartition dans l'espace de ces traits phonetiques qui est analysee: ils ne sont en effet ni disperses au hasard ni ordonnes selon des limites dialectales rigides. Apres l'analyse automatique de ces donnees, une nouvelle structuration de l'espace linguistique est proposee: d'une part, la structuration de l'espace qui resulte de la classification ascendante hierarchique des parlers (82 points) se rapproche beaucoup du schema geologique de cette region, et correspond en partie aux aires historiques, culturelles ou economiques, mais elle differe toujours des subdivisions administratives. D'autre part, la classification ascendante hierarchique des traits phonetiques met en evidence un nouveau schema geolinguistique: les traits phonetiques se repartissent en un "noyau", entoure d'une "aire d'influence" ou ils rayonnent de maniere diffuse (theorie des noyaux geolinguistiques). Enfin l'analyse des correspondances attire l'attention sur les rapports entre les points (parlers), et sur les rapports entre les points et les modalites phonetiques
This study deals with the geolinguistic structuration of phonetic features between loire and gironde, in the "centre-ouest" (vendee, deux-sevres, vienne, charente-maritime, charente, and some surrounding points) - a boundary area between northern and southern languages of france ("oil" and "oc"). It first presents the phonetic description of this area, derived from the maps of the atlas linguistique et ethnographique de l'ouest (b. Horiot-g. Massignon). And then, the space distribution of these phonetic features is analysed: actually they are neither spread about nor ordered according to strict dialect limits. After the automatic analysis of these data, a new structuration of linguistic space is put forward: on the one hand, the space structuration which results from the cluster analysis of the languages (eighty-two points) is quite similar to the geological one, and partly corresponds to historical, cultural or economic areas; but it always differs from administrative divisions. On the other hand, the cluster analysis of phonetic features reveals a new geolinguistic scheme: these phonetic features are distributed in a "nucleus", and then diffuse into an "area of influence". (theory of geolinguistic nuclei) finally, through the multivariate analysis, attention is drawn to the relations between the points themselves, and to the relations between the points and the phonetic modalities
APA, Harvard, Vancouver, ISO, and other styles
29

Riosset, Catherine. "Base de données urbaines : méthodologie d'analyse et de structuration de l'information pour une application de gestion et de conception de l'assainissement." Lyon, INSA, 1990. http://www.theses.fr/1990ISAL0096.

Full text
Abstract:
L'informatique est devenue aujourd'hui un outil très utile aux collectivités locales pour répondre efficacement à leurs missions. La première partie du mémoire fait part des expériences initiées en France en matière de bases de données urbaines, outils devenus indispensables pour maîtriser et gérer l'information relative au territoire. Elle présente les concepts de nouveaux logiciels, les systèmes d'information géographique, qui permettent de mettre en place dans les services techniques, de véritables systèmes de gestion et d'aide à la décision en matière d'aménagement. En s'appuyant sur l'exemple du Service Assainissement de la Communauté Urbaine de Lyon, la deuxième partie montre l'intérêt pour un tel service de s'équiper d'un système informatique s'insérant dans un projet de bases de données urbaines et gérant l'ensemble des données nécessaires à l'assainissement pour aider aux différentes tâches techniques. GE. SI. CA. Se veut un outil d'aide à la programmation des investissements (conception, diagnostics hydrauliques et qualitatifs des effluents), des réhabilitations (gestion de l'état de. Santé), des campagnes de curage (gestion de l'envasement) et d'aide à l'exploitation (rejets accidentels). La troisième partie, qui est le cœur de notre travail, à pour objet la présentation de la méthodologie suivie pour analyser et concevoir, le système GE. SI. CA. (GEstion,Simulation et Conception de l'Assainissement). Elle aborde successivement la définition, la modélisation et la structuration des informations au sein de la base de données, en fonction des traitements et du logiciel retenus. Elle fait part également des spécifications attendues pour les outils de gestion de données et présente la procédure de mise à jour
[Data processing is a indispensable tool which enables municipalities to operate efficient. This report firstly describes French experience with urban data bases used or control and administrative purposes. Concepts of new software (the Geographic Information Systems) are described. They provide municipal technical services with a management and decision the example of the Sewer Service of the Lyon Urban Area (CO. UR. LY. ), the second part of, this report shows how a data processing system can be connected with an urban data base. GE. SI. CA. Allows the management of all the data used for the different technical activities. GE. SI. CA. Can help to plan investments (sewerage projects, hydraulic and qualitative analysis), to plan network renovation (management of physical informations), to pro ram network cleaning (management of silting measures) and in sewerage maintenance (accidental waste or discharge. . . ). The major component of our research is described in the third part of this work. It explains our method to analyse and build the GE. SI. CA. System (Management, and Structuration and Sewerage Projects). Information, definition, modelling and Structuration of the data base are successively analysed in accordance with function specifications and sofware design. Specifications of data management tools and the establishment of updating procedures are given. ]
APA, Harvard, Vancouver, ISO, and other styles
30

Tellez, Bruno. "Méthodologie pour une structuration commune des photos aériennes et des plans cadastraux : application a la révision des bases de données urbaines." Lyon, INSA, 1999. http://www.theses.fr/1999ISAL0085.

Full text
Abstract:
Que ce soit dans le domaine géographique, médical, documentaire ou financier, l’information évolue dans le temps et parfois dans l'espace. Il est donc essentiel de pouvoir intégrer de nouvelles données issues de sources multiples et diverses comme par exemple, dans les systèmes d'Information Géographique (SIG) avec l'utilisation des images satellites , de mesures sur le terrain, etc. , dans les systèmes d'information médicales avec l'introduction de radiographies, résultats d'analyses. . . Si cette diversité d'informations est bénéfique pour assurer la pérennité et la richesse des données, elle pose des problèmes d'acquisition, d'intégration et donc de structuration de données multi-sources. Nous proposons une méthodologie qui permet l'intégration de données raster et vecteur par la construction d'une structuration commune appelée carte structurelle. La carte structurelle est constituée par agrégation successive à partir d'une triangulation de Delaunay. L'espace est complètement décrit. La structuration des données est hiérarchique. La conservation de l'arborescence permet notamment la propagation de la topologie et préserve le lien avec les données sources. La méthodologie développée a été appliquée à l'intégration de données cadastrales au format vecteur et à une photo aérienne couleur au format raster afin de permettre leur comparaison en vue de mises à jour régulières
In the geographic field as well as other domains such as medicine, documentation or finances, information evolves in time and sometimes in space. It is thus essential to be able to integrate new data coming from multiple and various sources (for example, satellite images or surveyed measures for geographical systems, radiographs or results of analyses for medical information systems, etc. . . ). If this diversity of information is beneficial to ensure the timelessness and richness of the data; it implies problems for acquisition, integration and thus of structuring of multi-source data. We propose a methodology which allows the integration of raster and vector data by the construction of a common structure called "structural map". This structural map is built by successive aggregations based on a Delaunay triangulation. By this way, representation space could be fully described. The structuring of the data is hierarchical. The tree structure allows in particular this propagation of topology and preserves the links with the data sources. The developed methodology was applied to the integration of cadastral data in vector format, and colour aerial photograph in raster format in order to allow their comparison for regular updating
APA, Harvard, Vancouver, ISO, and other styles
31

Pierret, Jean-Dominique. "Méthodologie et structuration d'un outil de découverte de connaissances basé sur la littérature biomédicale : une application basée sur l'exploitation du MeSH." Toulon, 2006. http://tel.archives-ouvertes.fr/tel-00011704.

Full text
Abstract:
L´information disponible dans les bases de données bibliographiques est une information datée, validée par un processus long qui la rend peu innovante. Dans leur mode d´exploitation, les bases de données bibliographiques sont classiquement interrogées de manière booléenne. Le résultat d´une requête est donc un ensemble d´informations connues qui n´apporte en lui-même aucune nouveauté. Pourtant, en 1985, Don Swanson propose une méthode originale pour extraire de bases de donnés une information innovante. Son raisonnement est basé sur une exploitation systématique de la littérature biomédicale afin de dégager des connexions latentes entre différentes connaissances bien établies. Ses travaux montrent le potentiel insoupçonné des bases bibliographiques dans la révélation et la découverte de connaissances. Cet intérêt ne tient pas tant à la nature de l´information disponible qu´à la méthodologie utilisée. Cette méthodologie générale s´applique de façon privilégiée dans un environnement d´information validée et structurée ce qui est le cas de l´information bibliographique. Nous proposons de tester la robustesse de la théorie de Swanson en présentant les méthodes qu´elle a inspirées et qui conduisent toutes aux mêmes conclusions. Nous exposons ensuite, comment à partir de sources d´information biomédicales publiques, nous avons développé un système de découverte de connaissances basé sur la littérature
The information available in bibliographic databases is dated and validated by a long process and becomes not very innovative. Usually bibliographic databases are consultated in a boolean way. The result of a request represente is a set of known which do not bring any additional novelty. In 1985 Don Swanson proposed an original method to draw out innovative information from bibliographic databases. His reasoning is based on systematic use of the biomedical literature to draw the latent connections between different well established knowledges. He demonstrated unsuspected potential of bibliographic databases in knowledge discovery. The value of his work did not lie in the nature of the available information but consisted in the methodology he used. This general methodology was mainly applied on validated and structured information that is bibliographic information. We propose to test the robustness of Swanson's theory by setting out the methods inspired by this theory. These methods led to the same conclusions as Don Swanson's ones. Then we explain how we developed a knowledge discovery system based on the literature available from public biomedical information sources
APA, Harvard, Vancouver, ISO, and other styles
32

Georgi, Nawras. "Acquisition, structuration et transmission de données de santé issues d'objets connectés pour une solution de télésuivi dans le contexte du maintien à domicile." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S116.

Full text
Abstract:
Grâce au progrès de la médecine et à l’essor des technologies, l’espérance de vie ne cesse de progresser, cette augmentation s’accompagnant d’une apparition de besoins spécifiques pour les seniors. Sachant que huit français sur dix souhaitent continuer à vivre à domicile en cas de perte d’autonomie, équiper les seniors d’une solution de suivi de leur état de santé à distance pourrait le leur permettre et ce dans de bonnes conditions. Dans ce contexte, nous avons identifié trois verrous que nous avons cherché à lever au cours de cette thèse. Le premier concerne l’interopérabilité des capteurs de santé qui se trouve mise à mal par l’adoption massive des protocoles propriétaires par les fabricants. Pour y remédier, nous proposons une passerelle facilitant la communication avec les capteurs de santé, qu’ils soient médicaux ou de bien-être, en faisant abstraction des multitudes de protocoles de communication propriétaires et standards. Le deuxième obstacle concerne l’erreur de mesure due à la manipulation d’un capteur de santé par des personnes non initiées en absence d’un professionnel de santé. Nous illustrons cette problématique à travers l'exemple d'un tensiomètre de poignet pour lequel nous proposons une méthode permettant de guider l’utilisateur dans son bon positionnement en respectant les recommandations des fabricants grâce à l'apport d'une montre connectée. Le dernier challenge a trait à la question de la multimodalité et plus précisément à la contextualisation de la mesure. Il s'agit ici de la fusion de données provenant d’un ensemble d’objets connectés dans un système de télésuivi décliné sous l'angle de la prise de la tension artérielle dans l'objectif de placer l’usager en situation d'effectuer une mesure de tension conforme aux recommandations des sociétés savantes. L'expérimentation qui a été conduite a permis d’évaluer l’acceptabilité du système proposé
Thanks to medical progress and new technologies, life expectancy is growing continuously leading to the emergence of specific needs for elderly. With eighty percent of French willing to keep living at home even with loss of autonomy, offering a remote health monitoring system would allow them to do so in good conditions. In this context, we identified three challenges. The first one concerns health sensors interoperability which is declining because of proprietary protocols largely adopted by manufacturers in their products. To deal with this issue, we propose a middleware that simplifies the communication with the multitude of protocols, proprietary and standard, to improve interoperability with both medical and wellness devices. The second challenge reports to reliability and more particularly to measurement errors due to device handling by the user in absence of clinician. We illustrate this point with a wrist blood pressure monitor and propose a method that guides the user in properly positioning the device thanks to a smartwatch. The last challenge relates to multimodality and more precisely to the measure contextualization. It consists of combining different types of data from a set of sensors in a health monitoring system to ensure that blood pressure is measured in compliance with learned societies recommendations. The experiment we have conducted allows to evaluate the users' acceptability of the proposed solution
APA, Harvard, Vancouver, ISO, and other styles
33

Bernot, Gilles. "Une sémantique algébrique pour une spécification differenciée des exceptions et des erreurs : application à l'implémentation et aux primitives de structuration des spécifications formelles." Paris 11, 1986. http://www.theses.fr/1986PA112262.

Full text
Abstract:
Le but de cette thèse est de présenter un nouveau formalisme de traitement d'exceptions dans le cadre des types abstraits algébriques, et de l'utiliser pour traiter l'implémentation abstraite en présence d'exceptions. La première partie développe une nouvelle sémantique pour l'implémentation abstraite, et permet d'exprimer la correction d'une implémentation en terme de suffisante complétude et consistance hiérarchique. Ainsi les preuves de correction d'une implémentation abstraite peuvent être traitées par des méthodes classiques telles que les techniques de réécriture ou d'induction structurelle. L'idée majeure de cette approche repose sur une distinction fondamentale entre spécifications descriptives et spécifications constructives. Des conditions simples et peu restrictives sont fournies pour que la composition d'implémentations correctes reste correcte. La seconde partie développe un nouveau formalisme de traitement d'exceptions : les exception-algèbres. Ce formalisme autorise toutes les formes de traitement d'exceptions (messages d'erreur, propagation implicite des exceptions et des erreurs, récupérations d'exceptions), tout en préservant l'existence des modèles initiaux et une approche fonctorielle simple. Nous définissons en particulier une sémantique fonctorielle des enrichissements, munie des notions de consistance hiérarchique et de suffisante complétude. Pius généralement, la plupart des primitives de structuration des spécifications algébriques peuvent être étendues sans difficulté aux exception-algèbres car les résultats fondamentaux relatifs aux exception-algèbres sont analogues à celles des types abstraits algébriques "classiques". La troisième partie démontre en particulier que le formalisme d'implémentation abstraite peut être étendu aux exception-algèbres sans difficulté. Plusieurs exemples d’exception-spécifications et d'implémentations abstraites sont donnés en annexe.
APA, Harvard, Vancouver, ISO, and other styles
34

Jousse, Anne-Laure. "Modèle de structuration des relations lexicales fondé sur le formalisme des fonctions lexicales." Thèse, Paris 7, 2010. http://hdl.handle.net/1866/4347.

Full text
Abstract:
Cette thèse porte sur l’élaboration d’un modèle de structuration des relations lexicales, fondé sur les fonctions lexicales de la Théorie Sens-Texte [Mel’cuk, 1997]. Les relations lexicales considérées sont les dérivations sémantiques et les collocations telles qu’elles sont définies dans le cadre de la Lexicologie Explicative et Combinatoire [Mel’cuk et al., 1995]. En partant du constat que ces relations lexicales ne sont pas décrites ni présentées de façon satisfaisante dans les bases de données lexicales, nous posons la nécessité d’en créer un modèle de structuration. Nous justifions l’intérêt de créer un système de fonctions lexicales puis détaillons les quatre perspectives du système que nous avons mises au point : une perspective sémantique, une perspective axée sur la combinatoire des éléments d’une relation lexicale, une perspective centrée sur leurs parties du discours, ainsi qu’une perspective mettant en avant l’élément sur lequel se focalise la relation. Le système intègre l’ensemble des fonctions lexicales, y compris les fonctions lexicales non standard, dont nous proposons une normalisation de l’encodage. Le système a été implémenté dans la base de données lexicale du DiCo. Nous présentons trois applications dans lesquelles il peut être exploité. Premièrement, il est possible d’en dériver des interfaces de consultation pour les bases de données lexicales de type DiCo. Le système peut également être directement consulté en tant qu’assistant à l’encodage des relations lexicales. Enfin, il sert de référence pour effectuer un certain nombre de calculs sur les informations lexicographiques, qui pourront, par la suite, être implémentés pour automatiser la rédaction de certains champs de fiches lexicographiques.
This thesis proposes a model for structuring lexical relations, based on the concept of lexical functions (LFs) proposed in Meaning-Text Theory [Mel’cuk, 1997]. The lexical relations taken into account include semantic derivations and collocations as defined within this theoretical framework, known as Explanatory and Combinatorial Lexicology [Mel’cuk et al., 1995]. Considering the assumption that lexical relations are neither encoded nor made available in lexical databases in an entirely satisfactory manner, we assume the necessity of designing a new model for structuring them. First of all, we justify the relevance of devising a system of lexical functions rather than a simple classification. Next, we present the four perspectives developped in the system: a semantic perspective, a combinatorial one, another one targetting the parts of speech of the elements involved in a lexical relation, and, finally, a last one emphasizing which element of the relation is focused on. This system covers all LFs, even non-standard ones, for which we have proposed a normalization of the encoding. Our system has already been implemented into the DiCo relational database. We propose three further applications that can be developed from it. First, it can be used to build browsing interfaces for lexical databases such as the DiCo. It can also be directly consulted as a tool to assist lexicographers in encoding lexical relations by means of lexical functions. Finally, it constitutes a reference to compute lexicographic information which will, in future work, be implemented in order to automatically fill in some fields within the entries in lexical databases.
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
APA, Harvard, Vancouver, ISO, and other styles
35

Qu, Bingqing. "Inférence de la grammaire structurelle d’une émission TV récurrente à partir du contenu." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S139/document.

Full text
Abstract:
Dans cette thèse, on aborde le problème de structuration des programmes télévisés de manière non supervisée à partir du point de vue de l'inférence grammaticale, focalisant sur la découverte de la structure des programmes récurrents à partir une collection homogène. On vise à découvrir les éléments structuraux qui sont pertinents à la structure du programme, et à l’inférence grammaticale de la structure des programmes. Des expérimentations montrent que l'inférence grammaticale permet de utiliser minimum des connaissances de domaine a priori pour atteindre la découverte de la structure des programmes
TV program structuring raises as a major theme in last decade for the task of high quality indexing. In this thesis, we address the problem of unsupervised TV program structuring from the point of view of grammatical inference, i.e., discovering a common structural model shared by a collection of episodes of a recurrent program. Using grammatical inference makes it possible to rely on only minimal domain knowledge. In particular, we assume no prior knowledge on the structural elements that might be present in a recurrent program and very limited knowledge on the program type, e.g., to name structural elements, apart from the recurrence. With this assumption, we propose an unsupervised framework operating in two stages. The first stage aims at determining the structural elements that are relevant to the structure of a program. We address this issue making use of the property of element repetitiveness in recurrent programs, leveraging temporal density analysis to filter out irrelevant events and determine valid elements. Having discovered structural elements, the second stage is to infer a grammar of the program. We explore two inference techniques based either on multiple sequence alignment or on uniform resampling. A model of the structure is derived from the grammars and used to predict the structure of new episodes. Evaluations are performed on a selection of four different types of recurrent programs. Focusing on structural element determination, we analyze the effect on the number of determined structural elements, fixing the threshold applied on the density function as well as the size of collection of episodes. For structural grammar inference, we discuss the quality of the grammars obtained and show that they accurately reflect the structure of the program. We also demonstrate that the models obtained by grammatical inference can accurately predict the structure of unseen episodes, conducting a quantitative and comparative evaluation of the two methods by segmenting the new episodes into their structural components. Finally, considering the limitations of our work, we discuss a number of open issues in structure discovery and propose three new research directions to address in future work
APA, Harvard, Vancouver, ISO, and other styles
36

Nouvel, Damien. "Reconnaissance des entités nommées par exploration de règles d'annotation - Interpréter les marqueurs d'annotation comme instructions de structuration locale." Phd thesis, Université François Rabelais - Tours, 2012. http://tel.archives-ouvertes.fr/tel-00788630.

Full text
Abstract:
Ces dernières décennies, le développement considérable des technologies de l'information et de la communication a modifié en profondeur la manière dont nous avons accès aux connaissances. Face à l'afflux de données et à leur diversité, il est nécessaire de mettre au point des technologies performantes et robustes pour y rechercher des informations. Les entités nommées (personnes, lieux, organisations, dates, expressions numériques, marques, fonctions, etc.) sont sollicitées afin de catégoriser, indexer ou, plus généralement, manipuler des contenus. Notre travail porte sur leur reconnaissance et leur annotation au sein de transcriptions d'émissions radiodiffusées ou télévisuelles, dans le cadre des campagnes d'évaluation Ester2 et Etape. En première partie, nous abordons la problématique de la reconnaissance automatique des entités nommées. Nous y décrivons les analyses généralement conduites pour traiter le langage naturel, discutons diverses considérations à propos des entités nommées (rétrospective des notions couvertes, typologies, évaluation et annotation) et faisons un état de l'art des approches automatiques pour les reconnaître. A travers la caractérisation de leur nature linguistique et l'interprétation de l'annotation comme structuration locale, nous proposons une approche par instructions, fondée sur les marqueurs (balises) d'annotation, dont l'originalité consiste à considérer ces éléments isolément (début ou fin d'une annotation). En seconde partie, nous faisons état des travaux en fouille de données dont nous nous inspirons et présentons un cadre formel pour explorer les données. Les énoncés sont représentés comme séquences d'items enrichies (morpho-syntaxe, lexiques), tout en préservant les ambigüités à ce stade. Nous proposons une formulation alternative par segments, qui permet de limiter la combinatoire lors de l'exploration. Les motifs corrélés à un ou plusieurs marqueurs d'annotation sont extraits comme règles d'annotation. Celles-ci peuvent alors être utilisées par des modèles afin d'annoter des textes. La dernière partie décrit le cadre expérimental, quelques spécificités de l'implémentation du système (mXS) et les résultats obtenus. Nous montrons l'intérêt d'extraire largement les règles d'annotation, même celles qui présentent une moindre confiance. Nous expérimentons les motifs de segments, qui donnent de bonnes performances lorsqu'il s'agit de structurer les données en profondeur. Plus généralement, nous fournissons des résultats chiffrés relatifs aux performances du système à divers point de vue et dans diverses configurations. Ils montrent que l'approche que nous proposons est compétitive et qu'elle ouvre des perspectives dans le cadre de l'observation des langues naturelles et de l'annotation automatique à l'aide de techniques de fouille de données.
APA, Harvard, Vancouver, ISO, and other styles
37

Lai, Hien Phuong. "Vers un système interactif de structuration des index pour une recherche par le contenu dans des grandes bases d'images." Phd thesis, Université de La Rochelle, 2013. http://tel.archives-ouvertes.fr/tel-00934842.

Full text
Abstract:
Cette thèse s'inscrit dans la problématique de l'indexation et la recherche d'images par le contenu dans des bases d'images volumineuses. Les systèmes traditionnels de recherche d'images par le contenu se composent généralement de trois étapes: l'indexation, la structuration et la recherche. Dans le cadre de cette thèse, nous nous intéressons plus particulièrement à l'étape de structuration qui vise à organiser, dans une structure de données, les signatures visuelles des images extraites dans la phase d'indexation afin de faciliter, d'accélérer et d'améliorer les résultats de la recherche ultérieure. A la place des méthodes traditionnelles de structuration, nous étudions les méthodes de regroupement des données (clustering) qui ont pour but d'organiser les signatures en groupes d'objets homogènes (clusters), sans aucune contrainte sur la taille des clusters, en se basant sur la similarité entre eux. Afin de combler le fossé sémantique entre les concepts de haut niveau sémantique exprimés par l'utilisateur et les signatures de bas niveau sémantique extraites automatiquement dans la phase d'indexation, nous proposons d'impliquer l'utilisateur dans la phase de clustering pour qu'il puisse interagir avec le système afin d'améliorer les résultats du clustering, et donc améliorer les résultats de la recherche ultérieure. En vue d'impliquer l'utilisateur dans la phase de clustering, nous proposons un nouveau modèle de clustering semi-supervisé interactif en utilisant les contraintes par paires (must-link et cannot-link) entre les groupes d'images. Tout d'abord, les images sont regroupées par le clustering non supervisé BIRCH (Zhang et al., 1996). Ensuite, l'utilisateur est impliqué dans la boucle d'interaction afin d'aider le clustering. Pour chaque itération interactive, l'utilisateur visualise les résultats de clustering et fournit des retours au système via notre interface interactive. Par des simples cliques, l'utilisateur peut spécifier les images positives ainsi que les images négatives pour chaque cluster. Il peut aussi glisser les images entre les clusters pour demander de changer l'affectation aux clusters des images. Les contraintes par paires sont ensuite déduites en se basant sur les retours de l'utilisateur ainsi que les informations de voisinage. En tenant compte de ces contraintes, le système réorganise les clusters en utilisant la méthode de clustering semi-supervisé proposée dans cette thèse. La boucle d'interaction peut être répétée jusqu'à ce que le résultat du clustering satisfasse l'utilisateur. Différentes stratégies pour déduire les contraintes par paires entre les images sont proposées. Ces stratégies sont analysées théoriquement et expérimentalement. Afin d'éviter que les résultats expérimentaux dépendent subjectivement de l'utilisateur humain, un agent logiciel simulant le comportement de l'utilisateur humain pour donner des retours est utilisé pour nos expérimentations. En comparant notre méthode avec la méthode de clustering semi-supervisé la plus populaire HMRF-kmeans (Basu et al., 2004), notre méthode donne de meilleurs résultats.
APA, Harvard, Vancouver, ISO, and other styles
38

Osmont, Béatrice. "Itineraires cognitifs et structuration du lexique. Etudes d'interrogations de banque de donnees." Paris 8, 1992. http://www.theses.fr/1992PA080666.

Full text
Abstract:
A partir de l'observation d'interrogations sur une banque de donnees en sciences sociales est analysee la progression de parcours interrogatifs effectues par des utilisateurs novices. Les contraintes procedurales et le rapport utilisateur-machine propre a ces productions linguistiques sont traites initialement. Une troisieme dimension ajoutee au modele de representation habituellement bi-dimensionnel rend compte des configurations successives du lexique mental en introduisant un plan processuel ou les relations entre termes sont posees a priori plurielles et non exclusives les unes des autres. Une categorisation des termes est appliquee, developpant une representation dynamique des structures de connaissances, l'organisation de certaines relations entre les termes en schemas d'action, et la construction d'espace caracterisant certaines etapes de l'itineraire. Le projet pre-verbal de l'interrogation est defini par une unite specifique, la "pre-representation", ensemble de liens entre termes designant une configuration particuliere du lexique individuel en activite. A partir de celles-ci, sont mises en evidence des operations tions de constriction, d'expansion, de reformulation, illustrees par une representation figurative et recapitulative de quesques itineraires remarquables d'interrogation
The progress of beginners' searching was analyzed on a data-base in social sciences. The procedure limitations and the human-machine interactions specific to these written productions were examined in the first chapter. To explain the successive configurations of the user's mental lexicon during seeking, a third dimension was added to the usually two-dimensional model of linguistic representation. By introducing this third dimension, a new progressive plane was defined, in which the relationships between lexical terms set as plural, without being mutually exclusive. To each term of the itinerary, was attricuted one or several marks allowing to represent in a dynamic way the knowledge structures, to develop some relationships between the terms to be organized into schemes of action, to build space caracterizing some steps along the itinerary. In order to describe the planification before writting of the mental lexicon, an ad-hoc unit was defined : the "pre-repre sentation", a structured group of links gathering terms together and pointing out a particular configuration of the individual lexicon in process. A pre-representation was caracterized by constriction, expansion, or reformulation operations, and illustrated by a summarizing, figurative representation from selected typical. .
APA, Harvard, Vancouver, ISO, and other styles
39

Benadi, Sofiane Abdelkader Prévot Patrick Ramel Jean-Yves. "Structuration des données et des services pour le télé-enseignement." Villeurbanne : Doc'INSA, 2005. http://docinsa.insa-lyon.fr/these/pont.php?id=benadi.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Santana, Orieta. "Analyse et structuration des données dans les logiciels de CAO en électromagnétisme." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37613089w.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Labrousse, Jean-François. "Structuration des donnees d'un projet de batiment dans le cadre d'une construction par composants beton." Marne-la-vallée, ENPC, 1988. http://www.theses.fr/1988ENPCA010.

Full text
Abstract:
Description d'une structure de base de donnees, a partir d'une analyse de 4 domaines: conception architecturale, coordination dimensionnelle, planification des travaux, calcul de descente de charges; structure d'un catalogue-type de composants compatibles. Processeur d'information autolisp (common-lisp sur le logiciel de dao autocad)
APA, Harvard, Vancouver, ISO, and other styles
42

Thion, Romuald Flory André Coulondre Stéphane. "Structuration relationnelle des politiques de contrôle d'accès représentation, raisonnement et vérification logiques /." Villeurbanne : Doc'INSA, 2009. http://docinsa.insa-lyon.fr/these/pont.php?id=thion.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Corus, Mathieu. "Amélioration de méthodes de modification structurale par utilisation de techniques d'expansion et de réduction de modèle." Phd thesis, Ecole Centrale Paris, 2003. http://tel.archives-ouvertes.fr/tel-00011298.

Full text
Abstract:
Les méthodes de modification structurale sont l'ensemble des techniques qui permettent d'estimer l'influence d'une modification quelconque sur le comportement dynamique d'une structure. Dans le cadre général, le modèle de comportement de la structure cible, comme celui de la modification, peut être aussi bien numérique qu'expérimental. Dans le cadre de ce travail, seul le cas particulier du couplage d'un modèle expérimental de la structure et d'un modèle numérique de la modification sera traité.
Les concepts fondamentaux utilisés dans cette thèse sont ensuite présentés. Les relations de la dynamique des structures pour les problèmes discrets sont rappelées, ainsi que les principes de la synthèse modale, de la sous-structuration dynamique et de la réduction de modèle, tout comme la notion de modes d'interface. Les formulations classiques des méthodes de modification structurale sont ensuite détaillées pour en illustrer les limitations et les restrictions.
Une formulation originale permettant de prendre en compte les incompatibilités entre les mesures et les DDL de l'interface structure/modification et de régulariser la construction d'un modèle de comportement couplé est alors proposée. Cette première contribution de la thèse repose sur l'utilisation des techniques d'expansion de données et de réduction de modèle. Des indicateurs sont également construits pour estimer la cohérence de la prédiction réalisée. Les évolutions sont appliquées au cas d'un démonstrateur numériques et les résultats sont comparés avec les prédictions réalisées par les méthodes classiques. La méthodologie associée à cette nouvelle formulation est alors largement exposée.
L'influence des différents facteurs intervenant dans la construction du modèle couplé et la qualité de la prédiction est ensuite analysée en détail. Cette analyse permet de dresser une liste non exhaustive des précautions à prendre lors de la mise en œuvre de la méthode proposée, depuis la réalisation pratique de l'analyse modale expérimentale jusqu'à l'interprétation des premiers résultats.
Enfin, plusieurs applications sont présentées. Une première structure académique démontre la faisabilité de la méthode. Une deuxième étude, réalisée sur un cas industriel, illustre les gains de temps potentiels en comparant la prédiction avec les résultats d'une étude basée sur un modèle EF recalé de la structure. La troisième étude illustre l'application de la méthode dans un cas type. L'analyse modale de la structure cible permet de comprendre le problème, une modification est conçue, réalisée et mise en place. La prédiction est ensuite comparée aux résultats de l'analyse modale de la structure modifiée. Enfin, la dernière application montre les limites de la méthodologie. L'étude multi-objectifs sur une large bande de fréquences d'une structure industrielle permet de faire une ouverture vers la suite des travaux et montre la nature des difficultés à surmonter.
APA, Harvard, Vancouver, ISO, and other styles
44

Gueye, Bassirou. "Services auto-adaptatifs pour les grilles pair-à-pair." Thesis, Reims, 2016. http://www.theses.fr/2016REIMS017/document.

Full text
Abstract:
La gestion de ressources distribuées à l'échelle planétaire dans plusieurs organisations virtuelles implique de nombreux défis. Dans cette thèse, nous proposons un modèle pour la gestion dynamique de services dans un environnement de grille pair-à-pair à large échelle.Ce modèle, nommé P2P4GS, présente l'originalité de ne pas lier l'infrastructure pair-à-pair à la plate-forme d'exécution de services.De plus, il est générique, c'est-à-dire applicable sur toute architecture pair-à-pair. Pour garantir cette propriété, vu que les systèmes distribués à large échelle ont tendance à évoluer en termes de ressources, d'entités et d'utilisateurs, nous avons proposé de structurer le système de grille pair-à-pair en communautés virtuelles (clusters).L'approche de structuration est complètement distribuée et se base uniquement sur le voisinage des noeuds pour l'élection des responsables de clusters appelés PSI (Proxy Système d'Information). D'autre part, afin de bien orchestrer les communications au sein des différentes communautés virtuelles et aussi permettre une recherche efficace et exhaustive de service, lors de la phase de structuration, un arbre couvrant constitué uniquement des PSI est maintenu. Les requêtes de recherche vont ainsi être acheminées le long de cet arbre.Outre la découverte de services, nous avons proposé des mécanismes de déploiement, de publication et d'invocation de services. Enfin, nous avons implémenté et analysé les performances de P2P4GS. Afin d'illustrer sa généricité, nous l'avons implémenté sur Gia, Pastry et Kademlia des protocoles pair-à-pair opérant de manières totalement différentes.Les tests de performances ont montré que le P2P4GS fournit une bonne résistance aux pannes et garantit un passage à l'échelle en termes de dimensionnement du réseau et également de coût de communications
Resource management management worldwide distributed in several virtual organizations is a key issue.In this thesis, we propose a model for dynamic services management in large-scale peer-to-peer Grid environments.This model named P2P4GS, presents originality not to link peer-to-peer infrastructure to the execution services platform.In addition, the middleware is generic i.e. it able to be applied on any peer-to-peer architecture.Meanwhile, the increasing size of resources and users in large-scale distributed systems has lead to a scalability problem.To ensure scalability, we propose to organize the peer-to-peer Grid nodes in virtual communities so called clusters.The structuring approach is completely distributed, and only requires local knowledge about nodes neighborhood for election of cluster managers called ISP (Information System Proxy).On the other hand, in order orchestrate communications in the various virtual communities and also enable an efficient service discovery,during structuring process, a spanning tree only constituted of ISP is maintained. Therefore, search queries will be routed along the spanning tree.Besides the service discovery, we proposed service deployment, publication and invocation mechanisms.Finally, we implemented and analyzed the performance of P2P4GS.To illustrate that P2P4GS is generic, we implemented protocols that operating in fully different way. These protocols are Gia, Pastry and Kademlia.Performance tests show that, on the one hand, our approach provides good fault tolerance and ensures the scalability in terms of the clusters distribution and communication cost
APA, Harvard, Vancouver, ISO, and other styles
45

Sèdes, Florence. "Contribution au developpement des systemes bureautiques integres : gestion de donnees, repertoires, formulaires, documents." Toulouse 3, 1987. http://www.theses.fr/1987TOU30134.

Full text
Abstract:
Presentation d'une approche visant a integrer les bases textuelles et les bases de donnees en fournissant a l'utilisateur une interface multimedia du type formulaire. Presentation analytique de la fonction formulaire. Etude de l'environnement bureautique. Presentation de l'approche base textuelle. Les insuffisances de cette approche sont analysees ainsi que les contraintes dues au caractere non structure des informations. Il est mis en evidence alors la necessite et les avantages d'une structuration a posteriori. Le mixage d'informations de natures differentes est aussi aborde. Certains aspects sont illustres par des applications concretes
APA, Harvard, Vancouver, ISO, and other styles
46

Gomez, Barreto Paola. "Analyse et évaluation de structures orientées document." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM076/document.

Full text
Abstract:
De nos jours, des millions de sources de données différentes produisent une énorme quantité de données non structurées et semi-structurées qui changent constamment. Les systèmes d'information doivent gérer ces données tout en assurant la scalabilité et la performance. En conséquence, ils ont dû s'adapter pour supporter des bases de données hétérogènes, incluant des bases de données No-SQL. Ces bases de données proposent une structure de données sans schéma avec une grande flexibilité, mais sans séparation claire des couches logiques et physiques. Les données peuvent être dupliquées, fragmentées et/ou incomplètes, et ils peuvent aussi changer à mesure des besoins de métier.La flexibilité et l’absence de schéma dans les systèmes NoSQL orientés documents, telle que MongoDB, permettent d’explorer des nouvelles alternatives de structuration sans faire face aux contraintes. Le choix de la structuration reste important et critique parce qu’il y a plusieurs impacts à considérer et il faut choisir parmi des nombreuses d’options de structuration. Nous proposons donc de revenir sur une phase de conception dans laquelle des aspects de qualité et les impacts de la structure sont pris en compte afin de prendre une décision d’une manière plus avertie.Dans ce cadre, nous proposons SCORUS, un système pour l’analyse et l’évaluation des structures orientés document qui vise à faciliter l’étude des possibilités de semi-structurations orientées document, telles que MongoDB, et à fournir des métriques objectives pour mieux faire ressortir les avantages et les inconvénients de chaque solution par rapport aux besoins des utilisateurs. Pour cela, une séquence de trois phases peut composer un processus de conception. Chaque phase peut être aussi effectuée indépendamment à des fins d’analyse et de réglage. La stratégie générale de SCORUS est composée par :1. Génération d’un ensemble d’alternatives de structuration : dans cette phase nous proposons de partir d’une modélisation UML des données et de produire automatiquement un large ensemble de variantes de structuration possibles pour ces données.2. Evaluation d’alternatives en utilisant un ensemble de métriques structurelles : cette évaluation prend un ensemble de variantes de structuration et calcule les métriques au regard des données modélisées.3. Analyse des alternatives évaluées : utilisation des métriques afin d’analyser l’intérêt des alternatives considérées et de choisir la ou les plus appropriées
Nowadays, millions of different data sources produce a huge quantity of unstructured and semi-structured data that change constantly. Information systems must manage these data but providing at the same time scalability and performance. As a result, they have had to adapt it to support heterogeneous databases, included NoSQL databases. These databases propose a schema-free with great flexibility but with a no clear separation of the logical and physical layers. Data can be duplicated, split and/or incomplete, and it can also change as the business needs.The flexibility and absence of schema in document-oriented NoSQL systems, such as MongoDB, allows new structuring alternatives to be explored without facing constraints. The choice of the structuring remains important and critical because there are several impacts to consider and it is necessary to choose among many of options of structuring. We therefore propose to return to a design phase in which aspects of quality and the impacts of the structure are considered in order to make a decision in a more informed manner.In this context, we propose SCORUS, a system for the analysis and evaluation of document-oriented structures that aims to facilitate the study of document-oriented semi-structuring possibilities, such as MongoDB, and to provide objective metrics for better highlight the advantages and disadvantages of each solution in relation to the needs of the users. For this, a sequence of three phases can compose a design process. Each phase can also be performed independently for analysis and adjustment purposes. The general strategy of SCORUS is composed by:1. Generation of a set of structuration alternatives: in this phase we propose to start from UML modeling of the data and to automatically produce a large set of possible structuring variants for this data.2. Evaluation of Alternatives Using a Set of Structural Metrics: This evaluation takes a set of structuring variants and calculates the metrics against the modeled data.3. Analysis of the evaluated alternatives: use of the metrics to analyze the interest of the considered alternatives and to choose the most appropriate one(s)
APA, Harvard, Vancouver, ISO, and other styles
47

Didier, Marie Duchemin Pierre-Yves. "Indexation, structuration et encodage des fonds iconographiques le fonds Léon Lefebvre de la Bibliothèque municipale de Lille /." [S.l.] : [s.n.], 2004. http://www.enssib.fr/bibliotheque/documents/dcb/didier.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Benbernou, Salima. "Outils de base pour une approche de programmation fonctionnelle des tâches opératoires : application aux tâches d'assemblage." Valenciennes, 1991. https://ged.uphf.fr/nuxeo/site/esupversions/27732085-ba53-4b37-94ed-e9e67ed3fb2c.

Full text
Abstract:
Dans le domaine des tâches opératoires, une approche procédurale est efficace pour décrire le programme d'exécution d'une tâche par une liste d'instructions, qui sera transmise à la machine pour l'exécuter dans un ordre bien defini. Cependant, ce style de programmation devient inoperant dès lors qu'il s'agit de programmer des tâches imprédictibles : tâches dont le processus d'exécution n'obéit pas à un schéma algorithmique prédéfini. Un exemple typique est celui des tâches d'assemblage. Pour répondre, à une telle problématique, il faut recourir à une approche, permettant la description de la tâche d'une manière fonctionnelle et structurée, suivant plusieurs niveaux d'abstraction. Aussi, l'objectif du travail consiste à : a) dégager un ensemble d'outils pour formaliser la description de la tâche opération ; b) en s'appuyant sur les outils élaborés, une méthode de description fonctionnelle est proposée. Cette méthode consiste à décrire chaque tâche à l'aide d'une expression canonique, chercher ensuite à raffiner récursivement cette expression en terme d'un ensemble de fonctions plus simples, pour en dériver une expression terminale, composée uniquement de fonctions primitives et pouvant être interprétée directement par la machine. Cette approche implique, des transformations successives des expressions fonctionnelles. Ces transformations sont obtenues par décomposition de fonctions et structuration des objets décrivant l'espace opératoire, auxquels s'appliquent les fonctions
APA, Harvard, Vancouver, ISO, and other styles
49

Jagueneau, Liliane. "Structuration de l'espace linguistique entre Loire et Gironde analyse dialectométrique des données phonétiques de l'Atlas linguistique et ethnographique de l'Ouest /." Lille 3 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37606155c.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Gouy, Manolo Emmanuel. "Origine et fonction de l'utilisation de la dégénérescence du code génétique chez Escherichia coli structuration en banque de données et analyse statistique des séquences nucléotidiques /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37605748h.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography