Auswahl der wissenschaftlichen Literatur zum Thema „Modélisation des données (informatique) – Informatique“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Modélisation des données (informatique) – Informatique" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Modélisation des données (informatique) – Informatique"

1

Bellemain, Franck. „ÉLEMENTS D'INGENIERIE DE LOGICIELS EDUCATIFS, LE CAS DES MICROMONDES POUR LES MATHEMATIQUES : DIMENSION INFORMATIQUE“. Revista Paranaense de Educação Matemática 12, Nr. 28 (17.08.2023): 01–19. http://dx.doi.org/10.33871/22385800.2023.12.28.01-19.

Der volle Inhalt der Quelle
Annotation:
Ce texte reprend, en la poursuivant, la présentation d’une étude de recherche et développement déjà partiellement publiée. Les principes de conception s’appuient sur l’ingénierie didactique informatique dans laquelle nous nous intéressons plus particulièrement à la partie initiale des analyses préalables dans leurs dimensions épistémologique, cognitive, didactique et informatique. Ces analyses préalables fournissent une étude approfondie du savoir et de son enseignement et apprentissage qui rend opérationnelle la transposition didactique informatique. Dans ce texte, nous abordons plus spécifiquement la dimension informatique des analyses préalable pour ébaucher une modélisation d’un micromonde générique offrant un support à l’exploration et résolution de problèmes nécessitant l’articulation entre divers registres de représentation, et finalement ébaucher des structures de données. L’objectif de ce travail n’est pas seulement d’avancer sur les spécifications et leur modélisation, mais aussi, dans une ingénierie reverse, de favoriser le transfert technologique de micromonde déjà développés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Secretan, Y., M. Leclerc, S. Duchesne und M. Heniche. „Une méthodologie de modélisation numérique de terrain pour la simulation hydrodynamique bidimensionnelle“. Revue des sciences de l'eau 14, Nr. 2 (12.04.2005): 187–212. http://dx.doi.org/10.7202/705417ar.

Der volle Inhalt der Quelle
Annotation:
L'article pose la problématique de la construction du Modèle Numérique de Terrain (MNT) dans le contexte d'études hydrauliques à deux dimensions, ici reliées aux inondations. La difficulté est liée à l'hétérogénéité des ensembles de données qui diffèrent en précision, en couverture spatiale, en répartition et en densité, ainsi qu'en géoréférentiation, notamment. Dans le cadre d'un exercice de modélisation hydrodynamique, toute la région à l'étude doit être documentée et l'information portée sur un support homogène. L'article propose une stratégie efficace supportée par un outil informatique, le MODELEUR, qui permet de fusionner rapidement les divers ensembles disponibles pour chaque variable qu'elle soit scalaire comme la topographie ou vectorielle comme le vent, d'en préserver l'intégrité et d'y donner accès efficacement à toutes les étapes du processus d'analyse et de modélisation. Ainsi, quelle que soit l'utilisation environnementale du modèle numérique de terrain (planification d'aménagement, conservation d'habitats, inondations, sédimentologie), la méthode permet de travailler avec la projection des données sur un support homogène de type maillage d'éléments finis et de conserver intégralement l'original comme référence. Cette méthode est basée sur une partition du domaine d'analyse par type d'information : topographie, substrat, rugosité de surface, etc.. Une partition est composée de sous-domaines et chacun associe un jeu de données à une portion du domaine d'analyse par un procédé déclaratoire. Ce modèle conceptuel forme à notre sens le MNT proprement dit. Le processus de transfert des données des partitions à un maillage d'analyse est considéré comme un résultat du MNT et non le MNT lui-même. Il est réalisé à l'aide d'une technique d'interpolation comme la méthode des éléments finis. Suite aux crues du Saguenay en 1996, la méthode a pu être testée et validée pour en démontrer l'efficacité. Cet exemple nous sert d'illustration.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Phan1, Denis. „Pourquoi un cadre ontologique pour la modélisation multi-agents en sciences humaines et sociales?“ Nouvelles perspectives en sciences sociales 5, Nr. 2 (06.07.2010): 101–33. http://dx.doi.org/10.7202/044079ar.

Der volle Inhalt der Quelle
Annotation:
RésuméEn philosophie, l’ontologie est « la science de ce qui est, des types et structures des objets, propriétés, évènements, processus et relations »; En informatique et management des connaissances, une « ontologie » est la spécification de la conceptualisation d’un domaine de connaissance. Pour la simulation multi-agents, le domaine concerne les modèles et non les « données ». Pour répondre à la question « Pourquoi un cadre ontologique pour la modélisation multi-agents en sciences humaines et sociales? », cet article aborde d’abord trois dimensions: (1) ingénierie des modèles (2) aspects thématiques (disciplinaires) et épistémologiques (3) comparaison et évaluation de modèle (test ontologique). À la différence de nombreuses ontologies, cet article ne propose pas une unique représentation d’un domaine de connaissance, mais le maintien d’une possible pluralité, basée sur le concept de « cadre de connaissance », conçu pour permettre d’intégrer une pluralité de « point de vue » dans un cadre général qui nous permet de comparer et/ou combiner différents points de vue qui coexistent en sciences sociales. La dernière partie présente ainsi quelques exemples de points de vue ontologiques qui peuvent être dérivés à partir du modèle de ségrégation résidentielle introduit par Schelling.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

CORPET, F., und C. CHEVALET. „Analyse informatique des données moléculaires“. INRAE Productions Animales 13, HS (22.12.2000): 191–95. http://dx.doi.org/10.20870/productions-animales.2000.13.hs.3837.

Der volle Inhalt der Quelle
Annotation:
Les données biologiques, en particulier les séquences d’ADN, s’accumulent extrêmement rapidement. Pour exploiter toutes ces données, une nouvelle science est née, la bioinformatique. Accéder de manière rapide et fiable aux données disponibles dans les banques internationales et analyser les données expérimentales produites à grande échelle nécessitent des outils informatiques puissants et en perpétuel développement. Assembler les séquences brutes, trouver les unités fonctionnelles des séquences génomiques, comparer les séquences entre elles, prédire les structures et les fonctions des macromolécules, comprendre les interactions entre les gènes et leurs produits en termes de réseaux métaboliques mais aussi d’évolution des espèces : toutes ces questions nécessitent l’utilisation de la bioinformatique et son développement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Bourgain, JL, JM Puizillout und JM Ropars. „Informatique centralisée des données d'anesthésie“. Annales Françaises d'Anesthésie et de Réanimation 16, Nr. 7 (Januar 1997): fi23—fi24. http://dx.doi.org/10.1016/s0750-7658(97)89860-7.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Petitgars, Ph, und P. Dieterling. „Informatique et bases de données“. Acta Endoscopica 29, S2 (Juni 1999): 409–13. http://dx.doi.org/10.1007/bf03019328.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Lemasson, Jean-Pierre. „Pour une informatique des libertés“. Cahiers de recherche sociologique, Nr. 13 (19.04.2011): 139–52. http://dx.doi.org/10.7202/1002080ar.

Der volle Inhalt der Quelle
Annotation:
L’auteur examine l’impact de l’implantation des technologies de l’information sur la vie quotidienne des individus, à partir de deux questions particulières. Dans un premier temps, il examine les conditions, les ramifications et les effets liés à l’usage généralisé de banques de données de plus en plus nombreuses et performantes. Dans un deuxième temps, il présente les mécanismes actuels de contrôle de l’usage de ces banques de données. En conclusion, l’auteur propose des solutions basées sur la flexibilité même de la technique informatique et qui permettrait d’assurer une protection accrue des droits et des libertés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Ploux, Sabine. „Modélisation et Traitement Informatique de la Synonymie“. Lingvisticæ Investigationes. International Journal of Linguistics and Language Resources 21, Nr. 1 (01.01.1997): 1–27. http://dx.doi.org/10.1075/li.21.1.02plo.

Der volle Inhalt der Quelle
Annotation:
This paper deals with automatic structuring of semantic values in a dictionary of synonyms. The data we used were first extracted from seven French published dictionnaries of synonyms and then merged to obtain the files we worked on. We explain here why a discrete mathematic representation of synonymic relation is not sufficient to produce a semantic structure (that represents the different meanings of a term but also their overlapping). Then we propose a continuous representation (using data analysis) that ables the machine to produce for each term its semantic values. The system also labels these values with prototypic synonyms and detects synonyms that share different semantic "axes" with the headword. It should be noted that these semantic spaces are obtained automatically for each headword from a homogeneous list of synonyms.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

DUCHASTEL, Jules. „Discours et informatique : des objets sociologiques?“ Sociologie et sociétés 25, Nr. 2 (30.09.2002): 157–70. http://dx.doi.org/10.7202/001206ar.

Der volle Inhalt der Quelle
Annotation:
Résumé Le présent article s'intéresse à l'articulation de deux tendances actuelles en sociologie : d'une part, l'importance croissante du discours dans l'explication du social et, d'autre part, l'utilisation importante de méthodes informatisées pour l'étude de données discursives. L'hypothèse développée ici pose que ces deux phénomènes n'ont pus suffisamment provoqué de réflexions épistémologiques et méthodologiques sur les conséquences qu'ils ont eues. La question de la construction du discours comme objet empirique pouvant être pris en charge par la méthode sociologique est considérée dans la perspective large de tout processus d'objectivation. L'examen de divers types d'attitudes vis-à-vis de l'informatique donne lieu, par la suite, à la proposition d'un modèle d'utilisation des méthodes informatisées pour l'analyse des données discursives.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Verdier, Michèle. „Atelier des Départements Informatique et Statistique et Traitement Informatique des Données - 7 juin 1996“. Recherche et pratiques pédagogiques en langues de spécialité - Cahiers de l'APLIUT 16, Nr. 2 (1996): 93. http://dx.doi.org/10.3406/apliu.1996.1046.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Modélisation des données (informatique) – Informatique"

1

Bisgambiglia, Paul-Antoine. „Traitement numérique et informatique de la modélisation spectrale“. Corte, 1989. http://www.theses.fr/1989CORT3002.

Der volle Inhalt der Quelle
Annotation:
L'ensemble du travail présent dans ce mémoire se coordonne autour des deux points forts suivants: mise au point d'un logiciel informatique spécifique appliqué à la résolution de problèmes décrits par des formes variationnelles faisant intervenir des opérateurs linéaires du second ordre. Cet outil est un logiciel d'éléments finis original (permettant de résoudre des problèmes numériques ardus, sur des petits calculateurs de type pc, et malgré tout très souple d'utilisation) car reposant sur des théorèmes et résultats nouveaux concernant les formes variationnelles, les bases propres, associées aux différents opérateurs permettant de décrire une gamme très large de problèmes. Traitement complet de problèmes de modélisation complexes, par application de la théorie et des méthodes issus de l'analyse spectrale, depuis leurs fondements les plus théoriques, jusqu'à leur résolution.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Belghiti, Moulay Tayeb. „Modélisation et techniques d'optimisation en bio-informatique et fouille de données“. Thesis, Rouen, INSA, 2008. http://www.theses.fr/2008ISAM0002.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est particulièrement destinée à traiter deux types de problèmes : clustering et l'alignement multiple de séquence. Notre objectif est de résoudre de manière satisfaisante ces problèmes globaux et de tester l'approche de la Programmation DC et DCA sur des jeux de données réelles. La thèse comporte trois parties : la première partie est consacrée aux nouvelles approches de l'optimisation non convexe. Nous y présentons une étude en profondeur de l'algorithme qui est utilisé dans cette thèse, à savoir la programmation DC et l'algorithme DC (DCA). Dans la deuxième partie, nous allons modéliser le problème clustering en trois sous-problèmes non convexes. Les deux premiers sous-problèmes se distinguent par rapport au choix de la norme utilisée, (clustering via les normes 1 et 2). Le troisième sous-problème utilise la méthode du noyau, (clustering via la méthode du noyau). La troisième partie sera consacrée à la bio-informatique. On va se focaliser sur la modélisation et la résolution de deux sous-problèmes : l'alignement multiple de séquence et l'alignement de séquence d'ARN par structure. Tous les chapitres excepté le premier se terminent par des tests numériques
This Ph.D. thesis is particularly intended to treat two types of problems : clustering and the multiple alignment of sequence. Our objective is to solve efficiently these global problems and to test DC Programming approach and DCA on real datasets. The thesis is divided into three parts : the first part is devoted to the new approaches of nonconvex optimization-global optimization. We present it a study in depth of the algorithm which is used in this thesis, namely the programming DC and the algorithm DC ( DCA). In the second part, we will model the problem clustering in three nonconvex subproblems. The first two subproblems are distinguished compared to the choice from the norm used, (clustering via norm 1 and 2). The third subproblem uses the method of the kernel, (clustering via the method of the kernel). The third part will be devoted to bioinformatics, one goes this focused on the modeling and the resolution of two subproblems : the multiple alignment of sequence and the alignment of sequence of RNA. All the chapters except the first end in numerical tests
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Rhin, Christophe. „Modélisation et gestion de données géographiques multi-sources“. Versailles-St Quentin en Yvelines, 1997. http://www.theses.fr/1997VERS0010.

Der volle Inhalt der Quelle
Annotation:
Le nombre de données géographiques disponibles augmente très rapidement à cause de la multiplication des sources de production et de distribution. Les logiciels dédiés à la gestion des données géographiques doivent donc manipuler de gros volumes de données, dont les structures et les représentations sont différentes. Ces logiciels doivent aussi garantir les mêmes fonctionnalités que les systèmes de gestion de bases de données : sûreté de fonctionnement et accès concurrents. Après avoir montré pourquoi les solutions existantes ne peuvent assurer l'ensemble de ces fonctionnalités, nous proposons d'abord un modèle conceptuel de données adapté aux données géographiques multi-sources. Ensuite nous proposons une architecture logicielle qui s'appuie sur un système de gestion de base de données orienté objet et qui conserve l'évolutivité et l'adaptabilité du modèle conceptuel. Cette architecture permet à la fois de garantir les fonctionnalités de base de données et de fournir des méthodes d'accès performantes. L'efficacité de cette architecture est obtenue grâce à l'intégration d'un index spatial au cœur du sgbdoo, au même niveau que les index standards. Nous étudions en détail le comportement d'un index spatial intègré, pour des requêtes de pointe et pour des requêtes de fenêtrage avec des fenêtres de taille variable. De plus, à travers la comparaison avec les comportements du même index spatial non intègré et d'un index standard du sgbdoo, nous mesurons précisément les gains de performance. Enfin nous décrivons les différentes stratégies possibles pour un interpréteur de requêtes comportant des critères thématiques et des critères spatiaux, afin d'utiliser au mieux les index spatiaux
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Primet, Pascale. „Une approche de modélisation des logiciels de robots et une méthodologie de configuration“. Lyon, INSA, 1988. http://www.theses.fr/1988ISAL0006.

Der volle Inhalt der Quelle
Annotation:
La robotique est un domaine qui regroupe de nombreuses disciplines. Un synthèse des résultats acquis en vue d'une conception à caractère global des systèmes de robots est aujourd'hui, indispensable. Notre propos est d'étudier la partie informatique de ces systèmes. Une analyse des systèmes de programmation de robots nous permet de situer le problème du développement des logiciels. Nous montrons que les spécificités des problèmes robotiques créent des besoins particuliers. Ceci nous conduit à proposer une modélisation des logiciels de robots, logiciels évolutifs, devant correspondre au mieux aux exigences futures de la robotique. Nous définissons en particulier les caractéristiques du cœur du système de programmation qui constitue "le système d'exploitation". Nous préconisons ensuite une méthodologie de conception et de composition des modules constituant le sous-ensemble robotique du système informatique adéquat. Cette méthodologie est basée sur trois concepts fondamentaux: une agence d'action-perception ouverte. Des gérants d'appareils robotiques répartis et un utilitaire de configuration interactive.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Berthelon, Franck. „Modélisation et détection des émotions à partir de données expressives et contextuelles“. Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00917416.

Der volle Inhalt der Quelle
Annotation:
Nous proposons un modèle informatique pour la détection des émotions basé sur le comportement humain. Pour ce travail, nous utilisons la théorie des deux facteurs de Schachter et Singer pour reproduire dans notre architecture le comportement naturel en utilisant à la fois des données expressives et contextuelles. Nous concentrons nos efforts sur l'interprétation d'expressions en introduisant les Cartes Émotionnelles Personnalisées (CEPs) et sur la contextualisation des émotions via une ontologie du contexte émotionnel(EmOCA). Les CEPs sont motivées par le modèle complexe de Scherer et représentent les émotions déterminées par de multiple capteurs. Les CEPs sont calibrées individuellement, puis un algorithme de régression les utilises pour définir le ressenti émotionnel à partir des mesures des expressions corporelles. L'objectif de cette architecture est de séparer l'interprétation de la capture des expressions, afin de faciliter le choix des capteurs. De plus, les CEPs peuvent aussi être utilisées pour la synthétisation des expressions émotionnelles. EmOCA utilise le contexte pour simuler la modulation cognitive et pondérer l'émotion prédite. Nous utilisons pour cela un outil de raisonnement interopérable, une ontologie, nous permettant de décrire et de raisonner sur les philies et phobies pour pondérer l'émotion calculée à partir des expressions. Nous présentons également un prototype utilisant les expressions faciales pour évaluer la reconnaissance des motions en temps réel à partir de séquences vidéos. De plus, nous avons pu remarquer que le système décrit une sorte d'hystérésis lors du changement émotionnel comme suggéré par Scherer pour son modèle psychologique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Villame, Thérèse. „Modélisation des activités de recherche d'information dans les bases de données et conception d'une aide informatique“. Paris 13, 1994. http://www.theses.fr/1994PA131009.

Der volle Inhalt der Quelle
Annotation:
Alors que les systemes informatiques de recherche d'information sont de plus en plus nombreux et sophistiques, leur acces reste difficile pour des utilisateurs non professionnels. Menes dans un contexte industriel, les travaux presentes dans cette these ont pour objectif de contribuer a la conception de systemes plus conviviaux et apportant une aide reelle aux utilisateurs. Dans cette perspective, nous considerons que cette aide ne doit pas se limiter a l'amelioratioin d'outils de recherche existant ponctuellement, mais etre veritablement integree a l'ensemble du processus de recherche. De ce point de vue, le centre de l'analyse est l'activite de l'utilisateur, qu'il est indispensable d'etre en mesure de decrire, mais egalement d'expliquer. Nous soutenons alors que l'activite doit etre abordee en situation de travail reelle, pour rendre compte du contexte dans lequel elle se deroule et privilegier le point de vue de l'utilisateur, pour cerner la signification qu'il accorde a ses actions. Nous abordons l'activite de recherche d'information a partir du cadre methodologiqzue et theorique du cours d'action, qui s'attache a prendre et rendre compte de ces dimensions. Nous proposons alors un modele de la construction de cette activite a deux niveaux. Le niveau de sa construction globale nous permet de montrer queles recherches sont organisees par les utilisateurs de facon coherente autour de grandes preoccupations pratiques et de degager les caracteristiques essentielles de l'activite. Le niveau de la construction locale nous permet de degager des elements d'explication, en particulier en ce qui concerne les savoirs et connaissances mis en oeuvre au cours de l'activite. Ces deux niceaux d'analyse sont complementaires et nous donnent les moyens de proposer un ensemble organise de principes directeurs pour la conception d'un systeme informatique de
Even though information retrieval computer systems are getting more and more numerous and sophisticated, their access remains difficult for non specialists. The aim of this thesis, developed in an industrial context, is to contribute to the design of more user-friendly computer systems providing actual support. We consider that such a support must not be limited to the improvement of existing tools, but must be integrated into the whole process of information retrieval. From this point of view, the focus of analysis is the user's work practice that must be described as well as explained. We therefore believe that work practice shall be captured within the real work environment, to reflect the context in which it is performed. To understand the actual meaning given by the user to his actions, the analysis has to be centered on user's point of view. We addressed information retrieval activity with the methodological and theoretical "course of action" framework, that aims at taking into account and reflecting these work practice dimensions. Then, we proposed a two level model of construction of this activity. The global construction level shows that information retrieval process is organized by users in a coherent way around practical concerns, and outlines the essential characteristics of activity. The local construction level outlines the explanatory elements, especially the "know-low" and knowledge exercised during activity. Both analysis levels are complementary and provide adequate means to offer a set of organized guidelines for the design of a computer system devoted to database information retrieval
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Rudloff, David. „Modélisation conceptuelle et optimisation des requêtes dans une interface en langue naturelle pour des bases de données“. Université Louis Pasteur (Strasbourg) (1971-2008), 2000. http://www.theses.fr/2000STR13244.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Aouadhi, Mohamed Amine. „Introduction de raisonnement probabiliste dans la méthode B événementiel“. Thesis, Nantes, 2017. http://www.theses.fr/2017NANT4118.

Der volle Inhalt der Quelle
Annotation:
Les méthodes de modélisation et de vérification formelles à base de preuves, par exemple le B événementiel, ne permettent pas, à ce jour, de bien prendre en compte l’ensemble des aspects quantitatifs des systèmes réels. En particulier, l’ajout d’aspects probabilistes dans les systèmes B événementiel est une problématique qui n’a pas été bien étudiée dans l’état de l’art. La difficulté réside principalement dans l’expression des probabilités ainsi que la vérification des aspects probabilistes dans ce formalisme. Dans cette thèse, une extension probabiliste au B événementiel est proposée pour permettre la description ainsi que la véri- fication des aspects probabilistes des systèmes. Nous désignons cette extension par le B événementiel probabiliste. Dans cette extension, nous proposons de remplacer toutes les sources de non-déterminisme en B événementiel par des probabilités, ce qui permettra ainsi la description des comportements purement probabilistes. Le processus de développement en B événementiel étant basé sur le raffinement, nous proposons plusieurs approches de développement basées sur le raffinement qui permettront l’intégration progressive des probabilités. En particulier, nous étudions la convergence presque certaine d’un ensemble d’événements dans cette extension. La méthode B événementiel est équipée de la plateforme Rodin que nous étendons pour permettre la prise en compte des éléments de l’extension. Les différents aspects de ce travail sont illustrés par plusieurs études de cas : un protocole de communication pair à pair, le système de train d’atterrissage d’un avion et un système de freinage d’urgence
From the best of our knowledge, proof based modeling and verification methods, for example Event-B, are not capable of handling the complete spectrum of quantitative aspects from real-life systems. In particular, modeling probabilistic aspects of systems within Event-B is a problem which has not been well studied in the state of the art. The main difficulties lie in the expression of probabilities and the verification of probabilistic aspects within Event-B. This thesis presents a probabilistic extension of Event-B to support modeling and verification of probabilistic aspects of systems. We denote this extension by probabilistic Event-B. We propose to replace all the non-deterministic choices by probabilistic choices, which allows the description of fully probabilistic systems. The development process in Event-B is based on refinement, we therefore propose some development approaches based on refinement which permit the progres- sive integration of probabilities in Event-B models. In particular, we study the almost-certain convergence of a set of events within this extension. The Event-B method is equipped with the Rodin platform which we extend to take into consideration the new added elements of our extension.The different aspects of this work are illustrated by several case studies: a peer-to-peer communication protocol, a landing gear sys- tem and an emergency brake system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Piolle, Guillaume. „Agents utilisateurs pour la protection des données personnelles : modélisation logique et outils informatiques“. Phd thesis, Grenoble 1, 2009. https://theses.hal.science/tel-00401295.

Der volle Inhalt der Quelle
Annotation:
Les usages dans le domaine des systèmes multi-agents ont évolué de manière à intégrer davantage les utilisateurs humains dans les applications. La manipulation d'informations privées par des agents autonomes appelle alors à une protection adaptée des données personnelles. Les présents travaux examinent d'abord le contexte légal de la protection de la vie privée, ainsi que les divers moyens informatiques destinés à la protection des données personnelles. Il en ressort un besoin de solutions fondées sur les méthodes d'IA, autorisant à la fois un raisonnement sur les réglementations et l'adaptation du comportement d'un agent à ces réglementations. Dans cette perspective, nous proposons le modèle d'agent PAw (Privacy-Aware) et la logique DLP (Deontic Logic for Privacy), conçue pour traiter des réglementations provenant d'autorités multiples. Le composant de raisonnement normatif de l'agent analyse son contexte hétérogène et fournit une politique cohérente pour le traitement des données personnelles. L'agent PAw contrôle alors automatiquement sa propre utilisation des données en regard de cette politique. Afin d'appliquer cette politique de manière distante, nous étudions les différentes architectures d'applications distribuées orientées vers la protection de la vie privée, notamment celles fondées sur les principes du Trusted Computing. Nous en proposons une complémentaire, illustrant la possibilité d'utiliser différemment cette technologie. L'implémentation de l'agent PAw permet la démonstration de ses principes sur trois scénarios, montrant ainsi l'adaptabilité de l'agent à son contexte normatif et l'influence des réglementations sur le comportement de l'application
Usage in the domain of multi-agent systems has evolved so as to integrate human users more closely in the applications. Manipulation of private information by autonomous agents has then called for an adapted protection of personal data. This work first examines the legal context of privacy protection and the various computing methods aiming at personal data protection. Surveys show a significant need for AI-based solutions, allowing both reasoning on the regulations themselves and automatically adapting an agent's behaviour to these regulations. The Privacy-Aware (PAw) agent model and the Deontic Logic for Privacy, designed to deal with regulations coming from multiple authorities, are proposed here in this perspective. The agent's normative reasoning component analyses its heterogeneous context and provides a consistent policy for dealing with personal information. PAw agent then automatically controls its own usage of the data with regard to the resulting policy. In order to enforce policies in a remote manner, we study the different distributed application architectures oriented towards privacy protection, several of them based on the principles of Trusted Computing. We propose a complementary one, illustrating a different possible usage of this technology. Implementation of the PAw agent allows demonstration of its principles over three scenarios, thus showing the adaptability of the agent to its normative context and the influence of the regulations over the behaviour of the application
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Piolle, Guillaume. „Agents utilisateurs pour la protection des données personnelles : modélisation logique et outils informatiques“. Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00401295.

Der volle Inhalt der Quelle
Annotation:
Les usages dans le domaine des systèmes multi-agents ont évolué de manière à intégrer davantage les utilisateurs humains dans les applications. La manipulation d'informations privées par des agents autonomes appelle alors à une protection adaptée des données personnelles. Les présents travaux examinent d'abord le contexte légal de la protection de la vie privée, ainsi que
les divers moyens informatiques destinés à la protection des données personnelles. Il en ressort un besoin de solutions fondées sur les méthodes d'IA, autorisant à la fois un raisonnement sur les réglementations et l'adaptation du comportement d'un agent à ces réglementations. Dans cette perspective, nous proposons le modèle d'agent PAw (Privacy-Aware) et la logique DLP (Deontic Logic for Privacy), conçue pour traiter des réglementations provenant d'autorités multiples. Le composant de raisonnement normatif de l'agent analyse son contexte hétérogène et fournit une politique cohérente pour le traitement des données personnelles. L'agent PAw contrôle alors automatiquement sa propre utilisation des données en regard de cette politique. Afin d'appliquer cette politique de manière distante, nous étudions les différentes architectures d'applications distribuées orientées vers la protection de la vie privée, notamment celles fondées sur les principes du Trusted Computing. Nous en proposons une complémentaire, illustrant la possibilité d'utiliser différemment cette technologie. L'implémentation de l'agent PAw permet la démonstration de ses principes sur trois scénarios, montrant ainsi l'adaptabilité de l'agent à son contexte normatif et l'influence des réglementations sur le comportement de l'application.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Modélisation des données (informatique) – Informatique"

1

McCuen, Tamera L. Building information modeling for airports. Washington, D.C: Transportation Research Board, 2016.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Davies, Nigel (Nigel J.), author, Hrsg. BIM in principle and in practice. London: ICE Publishing, 2015.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Rakotoalimanana, Herizo David. Structure morphosyntaxique et modélisation informatique. Lille: A.N.R.T, Université de Lille III, 2000.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Djioua, Brahim. Modélisation informatique d'une base de connaissances lexicales (DISSC). Lille: A.N.R.T, Université de Lille III, 2000.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Boussard, Jean-Claude. Programmation avancée: Algorithmique et structures de données. Paris: Eyrolles, 1987.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Pichat, Étienne. Ingénierie des données: Systèmes d'information, modèles et bases de données. Paris: Masson, 1990.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Gardarin, Georges. Bases de données: Les systèmes et leurs langages. 3. Aufl. Paris: Eyrolles, 1985.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Gardarin, Georges. Bases de données: Les systèmes et leurs langages. 5. Aufl. Paris: Eyrolles, 1988.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Aho, Alfred V. Structures de données et algorithmes. Paris: InterÉditions, 1987.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Wirth, Niklaus. Algorithmes et structures de données. 2. Aufl. Paris: Eyrolles, 1989.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Modélisation des données (informatique) – Informatique"

1

Beaucé, Pauline, Jeffrey M. Leichman, Olivier Aubert und Françoise Rubellin. „14. Entretien avec Olivier Aubert et Françoise Rubellin. « Comme de la pâte à modeler »“. In St Andrews Studies in French History and Culture, 177–86. Cambridge, UK: Open Book Publishers, 2024. http://dx.doi.org/10.11647/obp.0400.14.

Der volle Inhalt der Quelle
Annotation:
Cet entretien a pour objectif de contextualiser des questions qui parcourent en filigrane plusieurs des contributions présentées dans le volume Nouvelles études sur les lieux de spectacle de la première modernité, consacré au renouvellement des études sur lieux de spectacle du passé. En conversation avec les éditeurs du volume, Olivier Aubert, chercheur en informatique, et Françoise Rubellin, professeure de littérature française du XVIIIe siècle, interroge la place que tiennent les humanités numériques dans les travaux en littérature et en histoire du théâtre (bases de données, modélisations, réalité virtuelle, réflexions théoriques…) et abordent certains enjeux qui concernent plus largement la communauté de la recherche en sciences humaines. The aim of this discussion is to provide a context for questions that run through several of the contributions presented in the volume Nouvelles études sur les lieux de spectacle de la prmière modernité, devoted to the renewal of studies of past performance spaces. In conversation with the editors, Olivier Aubert, a researcher in computer science, and Françoise Rubellin, a professor of eighteenth-century French literature, reflect on the role played by the digital humanities in work on literature and the history of theatre (databases, 3D modelling, virtual reality, theoretical considerations, etc.) and discuss issues of broad concern to the contemporary humanities research community.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Goetz, Christophe, Aurélien Zang und Nicolas Jay. „Apports d’une méthode de fouille de données pour la détection des cancers du sein incidents dans les données du programme de médicalisation des systèmes d’information“. In Informatique et Santé, 189–99. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_17.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Jonquet, Clément, Nigam Shah und Mark A. Musen. „Un service Web pour l’annotation sémantique de données biomédicales avec des ontologies“. In Informatique et Santé, 151–62. Paris: Springer Paris, 2009. http://dx.doi.org/10.1007/978-2-287-99305-3_14.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Staccini, P., C. Daniel und P. Gillois. „Les données de santé et les dossiers médicaux partagés“. In Informatique médicale, e-Santé, 331–55. Paris: Springer Paris, 2013. http://dx.doi.org/10.1007/978-2-8178-0338-8_13.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Bourdé, Annabel, Marc Cuggia, Théo Ouazine, Bruno Turlin, Oussama Zékri, Catherine Bohec und Régis Duvauferrier. „Vers la définition automatique des éléments de données des fiches RCP en cancérologie à partir d’une ontologie“. In Informatique et Santé, 121–30. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_11.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Bayat, Sahar, Marc Cuggia, Delphine Rossille und Luc Frimar. „Prédire l’accès à la liste d’attente de transplantation rénale: comparaison de deux méthodes de fouille de données“. In Informatique et Santé, 239–50. Paris: Springer Paris, 2009. http://dx.doi.org/10.1007/978-2-287-99305-3_22.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Dibad, Ahmed-Diouf Dirieh, Lina F. Soualmia, Tayeb Merabti, Julien Grosjean, Saoussen Sakji, Philippe Massari und Stéfan J. Darmoni. „Un modèle de données adapté à la recherche d’information dans le dossier patient informatisé: Étude, conception et évaluation“. In Informatique et Santé, 251–62. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_22.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Quantin, C., F. A. Allaert, B. Auverlot und V. Rialle. „Sécurité, aspects juridiques et éthiques des données de santé informatisées“. In Informatique médicale, e-Santé, 265–305. Paris: Springer Paris, 2013. http://dx.doi.org/10.1007/978-2-8178-0338-8_11.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Metzger, Marie-Hélène, Quentin Gicquel, Ivan Kergourlay, Camille Cluze, Bruno Grandbastien, Yasmina Berrouane, Marie-Pierre Tavolacci, Frédérique Segond, Suzanne Pereira und Stéfan J. Darmoni. „Codage standardisé de données médicales textuelles à l’aide d’un serveur multi-terminologique de santé: Exemple d’application en épidémiologie hospitalière“. In Informatique et Santé, 109–19. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_10.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Campillo-Gimenez, Boris, Marc Cuggia, Anita Burgun und Pierre Le Beux. „La qualité des données médicales dans les dossiers patient de deux services d’accueil des urgences avant et après informatisation“. In Informatique et Santé, 331–42. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_29.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Modélisation des données (informatique) – Informatique"

1

MAGNOL, Laetitia, Magali SAGE, Karine VUILLIER, Anne DRUILHE und Séverine NADAUD. „L’utilisation des animaux en sciences : pourquoi et comment ?“ In Les journées de l'interdisciplinarité 2022. Limoges: Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.213.

Der volle Inhalt der Quelle
Annotation:
Pour progresser, la recherche en biologie animale s’appuie sur des données obtenues à partir de prélèvements faits sur des êtres vivants et sur différents modèles complémentaires. Ces modèles miment tout ou partie de l’être vivant étudié et reposent sur la modèlisation informatique (approche in silico), sur l’analyse de molécules en « tubes » et la culture de cellules ou de tissus (in vitro) et sur le recours aux animaux (in vivo). Les modèles in silico et in vitro sont très utilisés mais ne permettent pas, à l’heure actuelle, de reproduire la complexité d’un organisme vivant. L’utilisation des animaux en sciences reste d’actualité, et est menée dans un cadre juridique et éthique qui protège les animaux et exige le respect de leur bien-être. Dans les pages qui suivent, sont présentés le cadre européen actuellement en vigueur et les justifications de l’utilisation des animaux à des fins scientifiques au niveau international et au sein de l’établissement utilisateur d’animaux qu’est l’Université de Limoges.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

ORLIANGES, Jean-Christophe, Younes El Moustakime, Aurelian Crunteanu STANESCU, Ricardo Carrizales Juarez und Oihan Allegret. „Retour vers le perceptron - fabrication d’un neurone synthétique à base de composants électroniques analogiques simples“. In Les journées de l'interdisciplinarité 2023. Limoges: Université de Limoges, 2024. http://dx.doi.org/10.25965/lji.761.

Der volle Inhalt der Quelle
Annotation:
Les avancées récentes dans le domaine de l'intelligence artificielle (IA), en particulier dans la reconnaissance d'images et le traitement du langage naturel, ouvrent de nouvelles perspectives qui vont bien au-delà de la recherche académique. L'IA, portée par ces succès populaires, repose sur des algorithmes basés sur des "réseaux de neurones" et elle se nourrit des vastes quantités d'informations accessibles sur Internet, notamment via des ressources telles que l'encyclopédie en ligne Wikipédia, la numérisation de livres et de revues, ainsi que des bibliothèques de photographies. Si l'on en croit les propres dires du programme informatique ChatGPT, son réseau de neurones compte plus de 175 millions de paramètres. Quant à notre cerveau, qui était le modèle initial de cette approche connexionniste, il compte environ 86 milliards de neurones formant un vaste réseau interconnecté... Dans ce travail, nous proposons une approche plus modeste de l'IA en nous contentant de décrire les résultats que l'on peut obtenir avec un seul neurone synthétique isolé, le modèle historique du perceptron (proposé par Frank Rosenblatt dans les années 1950). C'est un "Retour vers le futur" de l'IA qui est entrepris pour fabriquer et tester un neurone artificiel à partir de composants électroniques simples. Celui-ci doit permettre de différencier un chien d'un chat à partir de données anatomiques collectées sur ces animaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Catros, S. „A quoi servent les Bio-Imprimantes 3D ?“ In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601012.

Der volle Inhalt der Quelle
Annotation:
Les imprimantes 3D existent depuis plusieurs décennies et le principe général de la fabrication additive est de déposer des couches successives de matériau afin dobtenir un volume, à partir d’un modèle défini à l’avance grâce à une interface informatique. Depuis quelques années, ces imprimantes sont utilisées dans le domaine médical : ainsi, les chirurgiens peuvent obtenir une réplique en résine d’une situation clinique afin de planifier leur geste chirurgical pour réaliser des interventions moins invasives. Par ailleurs, on peut aujourdhui imprimer certains biomatériaux synthétiques sur mesure afin dobtenir des greffons personnalisés basés sur limagerie tridimensionnelle d’un patient. Ces applications utilisent sur des imprimantes fonctionnant principalement sur le principe de la stéréolithographie (photopolymérisation sélective de résines photosensibles) ou bien du dépôt à chaud de fil fondu : ces technologies ne permettent pas dutiliser des composés biologiques tels que des cellules ou des biomolécules. Plus récemment, des imprimantes 3D dédiées à l’impression déléments biologiques (Bio-Impression) ont été développées. On distingue la Bioimpression assistée par laser, la bioimpression par jet dencre et lextrusion dhydrogels. Ces trois méthodes présentent des points communs (utilisation d’une encre biologique, modélisation du motif à imprimer et pilotage de limprimante par une interface informatique, impression couche par couche). Cependant, en fonction de la technologie utilisée, la résolution et le volume des motifs imprimés peuvent varier de façon importante. Les machines permettant d’imprimer à haute résolution ne sont habituellement pas adaptées lorsquon cherche à obtenir des volumes importants ; de la même façon, lorsqu’une technologie permet d’imprimer des volumes importants, il est souvent difficile dobtenir de hautes résolutions dimpressions. De ce fait, on doit parfois combiner plusieurs technologies pour produire certains assemblages complexes. Ainsi, il est primordial de définir finement ses objectifs avant de choisir une technologie de bioimpression. Les applications des imprimantes 3D de tissus biologiques (Bio-imprimantes) sont toutes dans le champ de lingénierie tissulaire et aujourdhui presque exclusivement dans le domaine de la recherche. Les méthodes permettant d’imprimer à haute résolution trouvent des applications principalement en biologie cellulaire lorsquon cherche par exemple àé valuer les capacités de communication de plusieurs types cellulaires : en effet, il est possible de créer des motifs réguliers en imprimant des gouttes de bioencre contenant chacune quelques cellules avec la technologie laser. Par ailleurs, d’autres technologies basées sur lextrusion permettent de manipuler des amas cellulaires (sphéroïdes) et de les organiser entre eux, ce qui peut trouver des applications dans le domaine de la cancérologie. En combinant les technologies, on peut aujourdhui mettre en place des modèles d’étude pharmacologiques qui pourraient à terme se substituer à certaines expérimentations animales et ouvrir la voie à certaines thérapies ciblées. Enfin, la fabrication dorganes par bioimpression (« Organ Printing ») reste aujourdhui du domaine de la science fiction, même si quelques équipes travaillent sur cet aspect. Les imprimantes 3D biologiques apportent donc de nouveaux outils pour le chercheur dans de nombreuses applications en biologie et en médecine régénératrice. Le choix de la méthode la plus adaptée à L’objectif de L’étude est primordial afin dutiliser au mieux ces technologies.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Baranes, M., und T. Fortin. „Planification et chirurgie guidée - Avis d’experts : Apports des nouvelles technologies en implantologie : de la planification à la réalisation de la prothèse provisoire immédiate“. In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601011.

Der volle Inhalt der Quelle
Annotation:
Les dernières technologies informatiques ainsi que le développement des imprimantes 3D ouvrent des perspectives intéressantes en terme de diagnostic et de thérapeutique en implantologie (1). Le plan de traitement prothétique doit guider le choix du nombre et du positionnement des implants. Les logiciels de planification implantaire permettent de superposer les fichiers DICOM (Digital Imaging and Communications in Medicine) de limagerie tridimensionnelle issue du CBCT et les données numériques de surface issues d’empreintes optiques ou de la numérisation de modèles conventionnels (2). Les modélisations occlusales peuvent être elles aussi réalisées virtuellement en statique et dynamique via l’utilisation darticulateurs virtuels (3,4). Un guide chirurgical est alors imprimé permettant de positionner les implants selon la planification virtuelle. Dans certains cas, la restauration provisoire peut être prévue à l’avance et mise en place à lissue de lintervention (5,6). Bien quil soit établit que la chirurgie guidée soit plus précise que la chirurgie à main levée (7), son utilisation en pratique quotidienne a été ralentie en grande partie à cause du coût de fabrication élevé. Le développement récent dimprimantes 3D de bureau de haute précision (8,9) et la multiplicité des logiciels de planification implantaire ont permis le développement de la chirurgie guidée. Cependant, à chaque étape du flux numérique, des imprécisions peuvent se cumuler pouvant aboutir à des erreurs de positionnement ayant des conséquences potentiellement graves : proximité avec les racines adjacentes, perforation des racines, lésion nerveuse. La précision des guides chirurgicaux sté- réolithographiques dépend de nombreux paramètres : lempreinte, l’impression du guide, le matériau utilisé, la nature du support, lexpérience du praticien. Les empreintes optiques réalisées avec des scanners intra-oraux de plus en plus puissants présentent de nombreux avantages par rapport aux techniques conventionnelles en terme de rapidité, de précision et de reproductibilité. (10-14). Les guides peuvent être à appui osseux, muqueux, dentaire ou mixte. Une revue systématique de la littérature de Gallardo et coll. en 2017 (15) compare la précision des guides chirurgicaux en fonction du type de support. Cette revue conclut que les guides à appui osseux présentent le plus de déviation au niveau de langle, du point dentrée et de la localisation de lapex de l’implant par rapport aux guides à appuis dentaires. Les guides à appuis muqueux montrent moins de déviation par rapport aux guides à appuis osseux. Les auteurs nont pas trouvé de différence statistiquement significative entre les guides à appuis dentaires et muqueux. Selon L’étude de Cassetta publiée en 2017 (16), lexpérience du praticien influence la précision du positionnement des implants en chirurgie guidée. Un praticien novice en implantologie présente plus de déviation sur le positionnement des implants avec lutili- sation d’un guide chirurgical stéréolithographique quun praticien expérimentée. La chirurgie implantaire guidée reste un outil et nécessite une expérience chirurgicale. Le flux numérique en implantologie peut aujourdhui se réaliser de la prise d’empreintes d’étude à la fabrication de la restauration prothétique implantaire en passant par la conception et l’impression d’un guide chirurgi- cal. Ce flux est une aide précieuse en terme de communication avec le patient mais aussi avec le prothésiste, il permet daugmenter la reproductibilité des résultats et daboutir à une restauration prothétique esthétique et fonctionnelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie