Thèses sur le sujet « Langage de modélisation conceptuelle »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Langage de modélisation conceptuelle.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Langage de modélisation conceptuelle ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Sardet, Éric. « Intégration des approches modélisation conceptuelle et structuration documentaire pour la saisie, la représentation, l'échange et l'exploitation d'informations ; application aux catalogues de composants industriels ». Poitiers, 1999. http://www.theses.fr/1999POIT2311.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Normand, Veronique. « Le modèle SIROCO : de la spécification conceptuelle des interfaces utilisateur à leur réalisation ». Université Joseph Fourier (Grenoble), 1992. http://tel.archives-ouvertes.fr/tel-00340912.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Normand, Véronique. « Le modèle SIROCO : de la spécification conceptuelle des interfaces utilisateur à leur réalisation ». Grenoble 1, 1992. https://theses.hal.science/tel-00340912.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Rudloff, David. « Modélisation conceptuelle et optimisation des requêtes dans une interface en langue naturelle pour des bases de données ». Université Louis Pasteur (Strasbourg) (1971-2008), 2000. http://www.theses.fr/2000STR13244.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Jacquelinet, Christian. « Modélisation du langage naturel et représentation des connaissances par graphes conceptuels : applications au domaine de l'information médicale ». Rennes 1, 2002. http://www.theses.fr/2002REN1B060.

Texte intégral
Résumé :
Cette thèse aborde la compréhension automatique du langage médical comme un problème de modélisation. Elle se place dans le champ de l'intelligence artificielle et des sciences cognitives appliquées à la médecine. Elle se focalise sur l'étape initiale du processus de compréhension : la transformation d'un énoncé en une structure supposée en supporter la signification. Un modèle sémiotique est proposé pour cette transformation qui opère à partir de l'énoncé une extraction de connaissances. Elle débute par une phase d'analyse lexicale qui aboutit à la transduction des signes lexicaux de l'énoncé en atomes de connaissance appelés des " signes cognitifs ". Ceux-ci sont ensuite assemblés au cours d'une phase de synthèse cognitive selon des règles de contraintes pour former une structure à type de graphe. Un unique formalisme, dérivé des graphes conceptuels, est utilisé pour la représentation des connaissances lexicales, syntaxiques, sémantiques ou référentielles et pour la représentation des règles de contraintes qui sont enregistrées au sein d'un réseau sémiotique. Ce modèle est implanté en un prototype opérationnel dénommé RIBOSOME. Deux champs d'application sont expérimentés : l'analyse de libellés de maladies issus de thesaurus différents en vue de l'organisation d'une ontologie pour le domaine de la transplantation et des défaillances terminales d'organe, et la prise en compte du contexte et de la polysémie pour le traitement automatique du langage médical.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Minout, Mohammed. « Modélisation des aspects temporels dans les bases de données spatiales ». Doctoral thesis, Universite Libre de Bruxelles, 2007. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210672.

Texte intégral
Résumé :
L'introduction du temps dans les bases de données classiques et spatiales apparaît de plus en plus, aujourd'hui, comme une nécessité pour une gestion optimale de l'historicité. En effet, les applications de bases de données spatio-temporelles sont présentes dans un grand nombre d'applications. Le besoin, par exemple, est de sauvegarder l'historique des géométries des parcelles dans le système d'information d'un plan cadastral, la prévention d'incendie dans le système de gestion forestière, le système de navigation des véhicules, etc. Cet historique des phénomènes permet de mieux comprendre ce qui s'est produit dans le passé, de manière à éventuellement anticiper certaines évolutions futures.

Etant donné ces nouveaux besoins, cette thèse se focalise sur la modélisation et l'implantation des aspects temporels dans bases de données. En effet, la conception d'une application de base de données se fait par un enchaînement de trois phases (conceptuelle, logique et physique). Au niveau conceptuel, plusieurs modèles conceptuels ont été proposés intégrant les caractéristiques temporelles et spatiales.

Malheureusement, au niveau logique, les modèles de données des SGBD actuels n'offrent pas les concepts nécessaires pour implanter le modèle conceptuel spatio-temporel. Nous proposons donc de nouvelles règles de traductions d'un schéma conceptuel, basé sur le modèle MADS (Modélisation des Applications à des données spatio-temporelles), en un schéma logique MADSLog pour les modèles cibles à savoir :relationnel et relationnel-objet. Chaque règle transforme un concept structurel, temporel et spatial du modèle MADS en un ou plusieurs concepts supportés par la cible. Par exemple, la propriété spatiale définissant la géométrie d'un type d'objet est traduite par la création d'un nouvel attribut de type spatial dans ce type d'objet. Un outil CASE(Computer-Aided Software Engineering) appelé Schema Translateur est développé dans cette thèse implémentant toutes les règles de traductions.

La traduction de schémas conceptuels en schémas logiques peut impliquer une perte sémantique en raison de la différence de la puissance d'expression entre le modèle conceptuel et le modèle de données des SGBD existants. D'où la nécessité de générer un ensemble de contraintes d'intégrité afin de préserver la sémantique définie dans le schéma conceptuel. Ces contraintes sont exprimées à ce niveau par des formules logiques.

Avec l'apparition de GML (Geographic Markup Language ) qui est conçu pour la modélisation, le transport et le stockage d'informations géographiques. Nous transformons également le schéma conceptuel MADS en GML. De nouveaux schémas GML temporel et spatial sont définis qui peuvent être employés par n'importe application de base de données spatio-temporelle.

Au niveau physique, nous proposons une méthode d'adaptation du schéma logique en schéma physique pour le modèle relationnel-objet.

Elle permet de définir les tables, les types abstraits, les types d'objets, les domaines, etc. Notre proposition permet aussi la génération des contraintes d'intégrité au niveau physique. En effet, chaque contrainte d'intégrité (structurelle, temporelle ou spatiale) qui est définie en calcul logique est exprimée soit directement par des contraintes déclaratives ou soit par des déclencheurs du SGBD choisi. Les déclencheurs spatiaux sont fondés sur les fonctionnalités prédéfinies dans Oracle, alors que les déclencheurs temporels sont basés sur les opérateurs et méthodes appliquées sur les types temporels.

Enfin, la traduction de requêtes est une deuxième clef de cette recherche. Le but de la traduction de requêtes, exprimées en algèbre, étant de reconstituer l'information au sens MADS à partir de la base de données stockées dans le SGDB cible. Elle permet de traduire les expressions algébriques MADS, qui sont définies sur le schéma conceptuel et non sur le schéma physique, en requêtes opérationnelles qui peuvent être exécutées sur une base de données spatiale et temporelle sous un SGBD ou un SIG.


Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished

Styles APA, Harvard, Vancouver, ISO, etc.
7

Glaser, Norbert. « Contribution à l'acquisition et à la modélisation de connaissances dans un cadre multi-agents : l’approche CoMoMAS ». Nancy 1, 1996. http://www.theses.fr/1996NAN10300.

Texte intégral
Résumé :
Cette thèse propose une approche pour la modélisation des systèmes multi-agents à un niveau conceptuel indépendant de l'implantation. Notre approche étend l'approche CommonKADS au développement de systèmes multi-agents. Nous proposons un ensemble de modèles conceptuels pour la description de systèmes composés d'agents de diverses compétences. Nous introduisons également des méthodes pour l'acquisition incrémentale des connaissances et aussi une structuration de bibliothèques de modèles adaptées à la réutilisation. Un environnement d'ingénierie de la connaissance a été réalisé pour démontrer la faisabilité de cette approche conceptuelle. Il intègre l'outil KADSTOOL et produit des descriptions en langage semi-formel CML-M, une version étendue du langage CML introduit par CommonKADS. Nous avons également réalisé un environnement de simulation pour valider les architectures multi-agents développées sur la base des spécifications CML. Cet environnement est une extension du Michigan Intelligent Cooperation Experiment (MICE). Nous avons appliqué notre approche au problème de la robotique mobile par la méthode du reverse engineering. Nous avons analysé deux architectures multi-agents conçues pour le contrôle d'un robot mobile Nomad-200 ; l'une a été développée dans le cadre de cette thèse, l'autre au laboratoire KSL de Stanford.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Hubert, Gilles. « Les versions dans les bases de données orientées objet : modélisation et manipulation ». Phd thesis, Université Paul Sabatier - Toulouse III, 1997. http://tel.archives-ouvertes.fr/tel-00378240.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le domaine des bases de données orientées objet ; elle propose des solutions pour décrire et manipuler des bases de données intégrant des versions. Le concept de version est nécessaire dans de nombreux domaines d'application comme la gestion de documentations techniques, la conception assistée par ordinateur et le génie logiciel. Les versions permettent notamment de conserver et manipuler l'évolution des entités du monde réel gérées dans de tels domaines. Différentes gestions de versions sont possibles. Certains travaux gèrent des versions de base ou d'une partie de base pour décrire l'évolution globale d'une base de données ; notre étude s'intéresse, quant à elle, à la représentation de l'évolution de chaque entité décrite dans la base, de manière indépendante. Nous proposons, d'une part, un modèle conceptuel intégrant la gestion de versions d'objets et de classes. Les relations de composition et d'association, dont la sémantique est affinée à l'aide de cardinalités, intègrent les versions pour des entités complexes. De telles relations, incluant les versions, induisent des contraintes d'intégrité structurelle complexes, dont nous faisons l'étude. D'autre part, nous proposons un langage pour manipuler ce type de bases de données. Ce langage permet notamment une interrogation de type Select From Where qui prend en compte les spécificités liées aux versions ; les différents niveaux d'abstraction liés aux versions c'est-à-dire les forêts de dérivation, les arbres et les versions, peuvent être exploités lors d'une interrogation. Une réalisation du modèle et du langage est effectuée au sein d'un prototype. Ce prototype est une interface destinée à des utilisateurs occasionnels, en permettant de manipuler graphiquement une base de données intégrant des versions.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Viain, Marie. « La taxinomie des traités de grammaire arabe médiévaux (IVe/Xe/VIIIe/XIV siècle), entre représentation de l'articulation conceptuelle de la théorie et visée pratique. : enjeux théoriques, polémiques et pédagogiques des modélisations formelles et sémantiques du marquage casuel ». Thesis, Paris 3, 2014. http://www.theses.fr/2014PA030083.

Texte intégral
Résumé :
Etude comparative de l’organisation des traités de grammaire arabe médiévaux, cette thèse met en relief les enjeux théoriques, polémiques et pédagogiques de la taxinomie. Les incertitudes quant à la constitution historique de la tradition grammaticale arabe ayant conduit les chercheurs à se focaliser sur la période fondatrice, notamment sur le Kitāb de Sībawayhi, nous avons voulu apprécier à sa juste valeur cet autre aspect moins étudié quoique capital dans le processus de disciplinarisation de la grammaire arabe : le rôle de la taxinomie. En effet, alors que les premiers traités de grammaire n’adoptent pas de plan fondé sur une logique grammaticale claire, se met en place à partir du IV ͤ/X ͤ siècle, sous l’influence méthodologique des logiciens, une classification de la matière linguistique en vue de représenter l’articulation conceptuelle de la théorie. Ce courant taxinomique, dominant entre les IV ͤ/X ͤ-VI ͤ/XII ͤ siècles, témoigne d’une perception plus synthétique de la théorie grammaticale, autant qu’il contribue à en établir la cohérence. Notre point de départ est le Uṣūl d’Ibn al-Sarrāğ (m.315/928), instituteur d’une présentation organisée des données visant à refléter la théorie, notamment les modélisations du marquage casuel, question centrale en grammaire arabe. Ses divisions de la syntaxe par catégories de mots, puis du chapitre du nom par cas et de celui du verbe par modes représentent le modèle formel de la rection, et la hiérarchie des fonctions au sein des rubriques casuelles tend à manifester une modélisation sémantique de chaque cas autour d’une valeur fondamentale. Les successeurs d’Ibn al-Sarrāğ, tel Abū ʿAlī l-Fārisī (m.376/987), améliorent cette organisation dans le sens d’une plus grande univocité de la modélisation sémantique, fondée sur le rôle prédicatif ou non prédicatif des éléments marqués par les cas, ou encore sur leur fonction au sein de la phrase verbale, et dans le sens d’une meilleure cohérence de cette modélisation avec le modèle rectionnel, où le verbe est régissant de base. Le Mufaṣṣal de Zamaḫšarī (m.538/1144) constitue l’apogée de la coïncidence entre organisation des rubriques et articulation conceptuelle de la théorie, et au sein de celle-ci, entre modèles formel et sémantique du marquage casuel. A partir du VII ͤ/XIIIe siècle se développent de brefs opuscules grammaticaux, telles la Alfiyya d’Ibn Mālik (m.610/1274) ou la Ağurrūmiyya d’Ibn Ağurrūm (m.722/1323), dont les présentations s’inspirent de classifications antérieures divergeant du courant alors dominant : succession pratique visant à faciliter l’apprentissage grammatical, comme dans le Ğumal de Zağğāğī (m.347/959), ou représentation plus axée sur le modèle formel de la rection, comme dans la Muqaddima d’Ibn Bābšāḏ (m.469/1077). Ce courant taxinomique nouvellement dominant favorise une transmission pédagogiquement efficace du savoir grammatical
This thesis about the organization of medieval Arabic grammatical treatises highlights the theoretical, polemical and pedagogical issues of the taxonomy. The uncertainties about the historical constitution of the Arabic grammatical tradition led researchers to focus on the founding period, especially on the Kitāb of Sībawayhi. We wanted to highlight this other, less studied, but capital aspect in the process of disciplinarisation of Arabic grammar: the role of taxonomy. Indeed, while the first grammatical treatises do not adopt a clear plan based on grammatical logic, a classification of linguistic data which represents the conceptual articulation of the theory is developed from the IV ͤ/X ͤ century, under the logicians’ methodological influence. This taxonomic current, which is dominant between the IV ͤ/X ͤ-VI ͤ/XII ͤ centuries, reflects a more synthetic perception of grammatical theory, as it helps to establish its consistency. Our starting point is the Uṣūl of Ibn al-Sarrāğ (m.315/928), the first grammarian who set an organized presentation of data to reflect the theory, especially the modeling of case marking, a central question in Arabic grammar. Dividing the syntax by parts of speech, then the chapter of the noun by case marks and the chapter of the verb by modal marks he represents the formal model of “government”, according to which case marks and modal marks result from the action of some elements in the statement on others, and the hierarchy of functions within the cases’ chapters tends to show a semantic modeling of each case from a basic signification. The successors of Ibn al-Sarrag, among them Abū ʿAlī l-Fārisī (m.376/987), improve this organization in the direction of greater uniqueness of semantic modeling, founded on the predicative or non predicative role of the case marked elements, or on their function within the verbal sentence, and in the direction of better consistency of this modeling with government’s model, where the verb is the basic operator. The Mufaṣṣal of Zamaḫšarī (m.538/1144) presents a maximal coincidence between organization of data and conceptual articulation of the theory, and within the latter, between the formal and semantic models of case marking. From the VII ͤ/XIII ͤ century short grammatical treatises are developed, such as the Alfiyya of Ibn Mālik (m.610/1274) or the Ağurrūmiyya of Ibn Ağurrūm (m.722/1323), whose presentations are based on previous classifications diverging from the first dominant current : practical succession to facilitate grammatical learning, as in the Ğumal of Zağğāğī (m.347/959), or classification more focused on the formal model of government, as in the Muqaddima of Ibn Bābšāḏ (m.469/1077). This taxinomic current lastly dominant promotes a pedagogically effective transmission of grammatical knowledge
Styles APA, Harvard, Vancouver, ISO, etc.
10

Bousquet-Vernhettes, Caroline. « Compréhension robuste de la parole spontanée dans le dialogue oral homme-machine : décodage conceptuel stochastique ». Toulouse 3, 2002. http://www.theses.fr/2002TOU30118.

Texte intégral
Résumé :
La problématique de la thèse concerne l'élaboration d'un modèle de compréhension littérale robuste de la parole spontanée dans un contexte d'application finalisée. Le mémoire expose d'abord la problématique de la compréhension robuste. Nous présentons ensuite notre modélisation fondée sur une approche stochastique et conceptuelle. Nous présentons les principes retenus pour l'élaboration de deux modèles de langage de granularité différente. Puis, nous proposons des extensions de notre modèle afin de faire face à la présence de mots mal reconnus et d'optimiser la compréhension en considérant le contexte du dialogue. .
The thesis problematic concerns the elaboration of a robust literal understanding model of spontaneous speech in the context of task-oriented application. The report first set out robust understanding of spontaneous speech problematic. Then, we present our modelling based on a stochastic and conceptual approach. We describe the principles retained for the conception of two language models with different granularities. We then propose extensions to our model in order to face the presence of unknown or misrecognized words from recognition string, and to optimise the understanding process, while taking into account the knowledge of the dialog context. .
Styles APA, Harvard, Vancouver, ISO, etc.
11

Amirault-Thebault, Marinette. « Le boycott : analyse conceptuelle et modélisation ». Phd thesis, Université de la Réunion, 1999. http://tel.archives-ouvertes.fr/tel-00646150.

Texte intégral
Résumé :
La recherche attire l'attention sur le thème du boycott et met en évidence son intérêt. Le boycott constitue un mode de communication original entre le consommateur et l'entreprise. Il s'agit, pour une fois, d'une communication ascendante du consommateur vers l'entreprise. Celle-ci est la preuve que certains besoins de consommateurs n'ont pas été compris. Le travail étant essentiellement conceptuel, il a consisté à rechercher les dimensions du boycott et les principaux éléments d'un modèle de comportement de boycott. Il conduit à proposer une définition du boycott et à élaborer un modèle prédictif des effets du boycott à court, moyen et long terme sur l'organisation visée. L'analyse des structures de covariance permet de tester un modèle liant les motivations des boycotteurs aux effets des boycotts par l'intermédiaire des formes de boycott choisies. L'approche duale retenue tente d'appréhender les dimensions cognitives et affectives du boycott à chaque étape du modèle. Les relations observées permettent de faire des propositions managériales visant un boycott ou à s'en dégager à moindres frais.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Nguyen, Thu Thi Dieu. « Une approche basée sur la logique de description pour l'intégration de données relationnelles dans le web sémantique ». Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00507482.

Texte intégral
Résumé :
Le web sémantique est un nouveau paradigme web qui fournit un cadre commun pour des données devant être partagées et réutilisées à travers des applications, en franchissant les frontières entre les entreprises et les communautés. Le problème majeur que l'on rencontre à présent, est la manière de relier les informations provenant de différentes sources, celles-ci utilisant souvent une syntaxe et une sémantique différentes. Puisqu'aujourd'hui, la plupart des informations sont gardées dans des bases de données relationnelles, l'intégration de source de données relationnelle dans le web sémantique est donc très attendue.
L'objectif de cette thèse est de fournir des méthodes et des techniques pour résoudre ce problème d'intégration des bases de données. Nous proposons une approche combinant des représentations de schémas à base d'ontologie et des logiques de descriptions. Les schémas de base de données sont conçus en utilisant la méthodologie ORM. La stabilité et la flexibilité de ORM facilite la maintenance et l'évolution des systèmes d'intégration. Un nouveau langage d'ontologie web et ses fondements logiques sont proposées afin de capturer la sémantique des sources de données relationnelles, tout en assurant le raisonnement décidable et automatique sur les informations provenant des sources. Une traduction automatisée des modèles ORM en ontologies est introduite pour permettre d'extraire la sémantique des données rapidement et sans faillibilité. Ce mécanisme prévoit la coexistence d'autre sources d'informations, tel que l'hypertexte, intégrées à l'environnement web sémantique.
Cette thèse constitue une avancée dans un certain nombre de domaine, notamment dans l'intégration de données, l'ingénierie des ontologies, les logiques de descriptions, et la modélisation conceptuelle. Ce travail pourra fournir les fondations pour d'autres investigations pour intégrer les données provenant de sources relationnelles vers le web sémantique.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Yang, Jitao. « Un modèle de données pour bibliothèques numériques ». Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112085.

Texte intégral
Résumé :
Les bibliothèques numériques sont des systèmes d'information complexes stockant des ressources numériques (par exemple, texte, images, sons, audio), ainsi que des informations sur les ressources numériques ou non-numériques; ces informations sont appelées des métadonnées. Nous proposons un modèle de données pour les bibliothèques numériques permettant l'identification des ressources, l’utilisation de métadonnées et la réutilisation des ressources stockées, ainsi qu’un langage de requêtes pour l’interrogation de ressources. Le modèle que nous proposons est inspiré par l'architecture du Web, qui forme une base solide et universellement acceptée pour les notions et les services attendus d'une bibliothèque numérique. Nous formalisons notre modèle comme une théorie du premier ordre, afin d’exprimer les concepts de bases de la bibliothèque numérique, sans aucune contrainte technique. Les axiomes de la théorie donnent la sémantique formelle des notions du modèle, et en même temps fournissent une définition de la connaissance qui est implicite dans une bibliothèque numérique. La théorie est traduite en un programme Datalog qui, étant donnée une bibliothèque numérique, permet de la compléter efficacement avec les connaissances implicites. Le but de notre travail est de contribuer à la technologie de gestion des informations des bibliothèques numériques. De cette façon, nous pouvons montrer la faisabilité théorique de notre modèle, en montrant qu'il peut être efficacement appliqué. En outre, nous démontrons la faisabilité pratique du modèle en fournissant une traduction complète du modèle en RDF et du langage de requêtes en SPARQL.Nous fournissons un calcul sain et complet pour raisonner sur les graphes RDF résultant de la traduction. Selon ce calcul, nous prouvons la correction de ces deux traductions, montrant que les fonctions de traduction préservent la sémantique de la bibliothèque numérique et de son langage de requêtes
Digital Libraries are complex information systems, storing digital resources (e.g., text, images, sound, audio), as well as knowledge about digital or non-digital resources; this knowledge is referred to as metadata. We propose a data model for digital libraries supporting resource identification, use of metadata and re-use of stored resources, as well as a query language supporting discovery of resources. The model that we propose is inspired by the architecture of the Web, which forms a solid, universally accepted basis for the notions and services expected from a digital library. We formalize our model as a first-order theory, in order to be able to express the basic concepts of digital libraries without being constrained by any technical considerations. The axioms of the theory give the formal semantics of the notions of the model, and at the same time, provide a definition of the knowledge that is implicit in a digital library. The theory is then translated into a Datalog program that, given a digital library, allows to efficiently complete the digital library with the knowledge implicit in it. The goal of our research is to contribute to the information management technology of digital libraries. In this way, we are able to demonstrate the theoretical feasibility of our digital library model, by showing that it can be efficiently implemented. Moreover, we demonstrate our model’s practical feasibility by providing a full translation of the model into RDF and of the query language into SPARQL. We provide a sound and complete calculus for reasoning on the RDF graphs resulting from translation. Based on this calculus, we prove the correctness of both translations, showing that the translation functions preserve the semantics of the digital library and of the query language
Styles APA, Harvard, Vancouver, ISO, etc.
14

BURGUN, PARENTHOINE ANITA. « Representation conceptuelle du langage medical appliquee aux momenclatures internationales ». Rennes 1, 1994. http://www.theses.fr/1994REN1B010.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
15

Ben, Jebara Malek. « Modélisation conceptuelle pour les applications géomatiques temps réel ». Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0044/these.pdf.

Texte intégral
Résumé :
Le domaine des applications géomatiques est en plein essor et le nombre de logiciels spécialisés dans la manipulation des données spatio-temporelles a connu une croissance considérable cette dernière décennie. Cette évolution a été accompagnée, dans la littérature, par la proposition de plusieurs méthodes de conception dédiées aux applications géomatiques. Les applications temps réel connaissent également une grande évolution et font référence à la localisation spatiale. L’avènement des télécommunications a suscité l’intérêt de prendre en compte la distribution et la répartition de l’information pour les applications géomatiques. La discipline de télégéomatique est née d’une fusion de la géomatique et des télécommunications en se caractérisant par l’usage des systèmes modernes de positionnement de type GPS (Global Positionning System). Actuellement, l’émergence des systèmes d’information pervasifs ouvre plusieurs axes de recherche. Ainsi les applications géomatiques temps réel soulèvent plusieurs problématiques : l’architecture logicielle de telles applications doit supporter des modèles mathématiques et des algorithmes qui ont des capacités de calculs importantes, la prise en compte de la granularité du temps réel et la conception et la modélisation de telles applications doit permettre de formaliser les spécifications et d’apporter des outils logiciels cohérents par rapport aux besoins des utilisateurs et des contraintes liées à la réactivité et éventuellement la mobilité des composants du système. Les différents formalismes qui existent dans la littérature et qui sont supportés par des méthodes de conception des applications géomatiques et des applications temps réel sont insuffisants et ne répondent pas au besoin du concepteur. Un travail de recherche dans la prise en compte au niveau conceptuel des contraintes liées à la dimension temps réelle de la nouvelle génération des applications géomatiques temps réel est certainement prometteuse. Les recherches que nous avons menées nous ont permis de proposer des concepts de base s’appuyant sur des extensions d’UML (Unified Modeling Language) afin de prendre en compte au niveau conceptuel les problématiques de communications et de localisation des données et des applications. Nous proposons un profil UML pour la conception des applications géomatiques temps réel. C’est le profil GRT (Geographic Real Time) dédié à la conception des applications géomatiques temps réel. Ce travail débouche sur un prototype doté d’un atelier de génie logiciel supportant le formalisme proposé. Une validation à travers des exemples concrets nous permettra d’enrichir ce prototype
Nowadays, the field of the geoprocessing applications is more and more important and the number of software-tools specialized in the handling of the space-time data witnessed a considerable growth during this last decade. Several methods dedicated to the design of geoprocessing applications have been proposed in the literature. Real time applications are also experiencing great changes and refering to the spatial location. The advent of telecommunications has drawn the attention of taking into account the distribution and allocation information for geoprocessing applications. Telegeoprocessing discipline was born from the alliance of telecommunications and geomatics, characterized by the use of modern positioning systems like GPS (Global Positioning System). Currently, the emergence of pervasive information systems opens several research areas. Thus real time geoprocessing applications raise several problems. In fact, their architecture must support mathematical models and algorithms with important capacities of calculations; besides there is the difficulty to take in account of the real time granularity. They also present major problems at the design stage because of the absence of a specific standardized formalism. The different formalisms that exist in the literature which are supported by design methods of geomatic applications and real time applications are inefficient to answer the problems of design of the real time geoprocessing applications. The research we conducted allowed us to offer basic concepts based on UML (Unified Modeling Language) extensions to take into account the conceptual issues of communication, location data and applications. Thus we propose a UML profile that addresses real time constraints in the field of real time geoprocessing applications. The GRT (Geographic Real Time) profile targets the design of real-time geoprocessing applications. This work has led to a prototype with a CASE (Computer Aided Software Engineering) tool supporting the proposed formalism. A validation through concrete examples enabled us to enrich this prototype
Styles APA, Harvard, Vancouver, ISO, etc.
16

Sai, Peck Lee. « Formalisation et aide outillée à la modélisation conceptuelle ». Paris 1, 1994. http://www.theses.fr/1994PA010087.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
17

Thevenet, Laure-Hélène. « Proposition d'une modélisation conceptuelle d'alignement stratégique : La méthode INSTAL ». Phd thesis, Université Panthéon-Sorbonne - Paris I, 2009. http://tel.archives-ouvertes.fr/tel-00466827.

Texte intégral
Résumé :
L'alignement stratégique des Systèmes d'Information (SI) existe lorsque les buts de l'entreprise sont en harmonie, en correspondance, avec les processus métier et les systèmes qui les supportent. Comme le montrent différents rapports, la problématique de l'alignement du SI avec la stratégie représente une des principales préoccupations des Directions des SI depuis une dizaine d'années. C'est une préoccupation importante au sujet de laquelle les entreprises s'attendent à plus de maturité de la pratique. En effet, même s'il est possible de construire des SI performants et de définir la stratégie de l'entreprise, il est indispensable que ces deux ensembles soient alignés afin d'optimiser la performance de l'entreprise. Si l'intérêt de l'alignement est largement reconnu, sa mise en œuvre reste trop souvent limitée. La méthode proposée, INSTAL (INtentional STrategic ALignment), s'intéresse à une nouvelle situation d'ingénierie des SI, qui ne correspond ni au cycle de vie traditionnel en ingénierie des exigences (avec une propagation des exigences sur la solution), ni à une mise en correspondance d'exigences, mais à une situation différente dans laquelle on s'adresse à un ensemble d'éléments liés que l'on cherche à faire évoluer ensemble (coévolution). L'évolution est déclenchée par le changement de modèle du business (stratégie) ou l'analyse des SI et des processus métier (niveau opérationnel). La méthode proposée pour cette nouvelle situation d'ingénierie des SI propose une modélisation de l'ensemble des éléments liés et guide la démarche de modélisation, d'analyse, et d'évolution de l'alignement stratégique. Contrairement aux autres approches, qui représentent l'alignement stratégique en termes de dépendances entre des buts ou des éléments individuels, ce sont les intentions d'alignement partagées par les deux niveaux à aligner (stratégique et opérationnel) qui représentent ici l'alignement stratégique. Ceci est une caractéristique tout à fait distinctive de la méthode INSTAL, dont l'originalité réside dans cette modélisation explicite de l'alignement. La modélisation de la méthode INSTAL permet (1) de modéliser l'alignement en termes d'intentions partagées par les éléments à aligner dans un modèle pivot, (2) de définir des liens d'alignement complexes entre les intentions d'alignement et les éléments existants de l'entreprise en précisant le rôle joué par chaque élément dans le lien, et enfin (3) de définir des métriques et mesures qui complètent les liens d'alignement. INSTAL propose une démarche méthodologique qui guide l'évolution de l'alignement stratégique en prenant en compte de nouvelles exigences d'alignement et en analysant l'alignement actuel (As-Is) (i.e. les modèles pivot, les liens d'alignement et les métriques / mesures). L'analyse du As-Is permet de découvrir des exigences d'évolution du niveau opérationnel (du SI et des processus métier) nécessaires à la mise en place d'une situation To- Be "mieux" alignée. Cette recherche a été validée à travers plusieurs cas d'études dont celui d'une entité de la Banque De Détail France du groupe BNP Paribas, qui a financé cette thèse.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Kittavong, Sisouvanh. « Exploration de nouvelles structures de modélisation hydrologique globale conceptuelle ». Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/66670.

Texte intégral
Résumé :
Plusieurs modèles hydrologiques ont été développés au cours des dernières décennies. Un modèle hydrologique devrait être capable de représenter tous les bassins versants. Les performances des modèles dépendent des caractéristiques du bassin versant étudié; aucun modèle ne convient à toutes les tâches de modélisation. Cette thèse de doctorat a pour but de proposer une méthode de sélection de modèles parmi un grand nombre de candidats. Elle prend en compte : l'identification d'une banque de modèles performants pour des conditions climatiques différentes et la sélection de modèles appropriés selon les conditions climatiques du bassin versant (aride, tempéré ou continentale) et les objectifs de modélisation (débits élevés, moyens ou faibles). La recherche est basée sur 1446 modèles construits en utilisant l‘approche multistructure empirique (Ensemble Multistructure Framework, EMF) et 100 bassins versants états-uniens aux conditions climatiques diversifiées. L'objectif de cette étude est de valoriser les approches flexibles afin d'identifier des modèles performants pour une diversité de climats. La sélection des modèles est ainsi basée sur les performances individuelles de 1446 modèles en les comparant avec un modèle de référence (GR4J). Sur la base de cette étude, une banque de 80 modèles diversifiés, issus des 1446 modèles initiaux, a été proposée pour d‘autres applications. Pour évaluer l'impact du climat et de la métrique sur la performance du modèle, les 80 modèles présélectionnés ont été évalués sur les trois types de climat et sur les trois objectifs de modélisation. Cette étude propose au final quatre nouveaux modèles hydrologiques conceptuels, adaptés à des conditions climatiques et hydrologiques spécifiques. La modélisation hydrologique demeure imparfaite en raison d'un grand nombre d'incertitudes liées notamment à la description de la transformation pluie-débit par les structures du modèle hydrologique. L'approche multimodèle est une solution alternative, parce que la combinaison de modèles existants peut mener à de meilleurs résultats par rapport aux modèles individuels. La diversité des structures des modèles constitue souvent un des premiers principes du fonctionnement d‘un multimodèle de manière à compenser les erreurs et à améliorer les performances. Les 80 modèles présélectionnés et l'algorithme Backward Greedy Selection (BGS) sont ainsi utilisés afin de sélectionner l‘ensemble des modèles à combiner. Les tests ont été effectués sur six critères (MCRPS, KGEsqrt, Mlogs, NRD, PIT et RDmse). Les résultats montrent que l'optimisation par MCRPS est la plus intéressante.
Many hydrologic models were developed in the last few decades. They should be capable of simulating all of the catchments but, in practice, their performance is dependent on the geology and climate, so no model structure is suitable for all modeling tasks. This doctoral thesis aims at proposing a model selection method, from a grand pool of candidates, which accounts for the identification of a pool of successful models in diversified climates conditions and the selection of appropriate models for the catchment climatic conditions (arid, humid, and continental) and modeling objectives (high, medium and low flows). It is based on 1446 models constructed using the Ensemble Multistructure Framework (EMF) and 100 climatically diversified American catchments. The focus of this study is to value flexible modeling approaches to identify successful models for a variety of climates. The model selection is first based on the individual performance of the 1446 models, comparing them to a reference model (GR4J). A pool of 80 diversified models is then identified for further investigation. To evaluate the impact of climate and metric on model performance, the 80 preselected models are evaluated on the three types of climates and three modeling objectives. At the end, four new lumped conceptual hydrologic models are tailored for specific climate and flow conditions. Hydrological modeling remains imperfect due to a large number of uncertainties, particularly related to the description of rainfall-flow transformation by hydrological model structures. The multimodel approach is an alternative solution, because the combination of existing models gives better results than individual ones. The diversity of model structures touches one of the first principles of the operation of a multimodel is the compensation of the errors to improve the performances. The 80 preselected models and the Backward Greedy Selection (BGS) algorithm are then used to select the models set to combine. Tests are performed on six optimizations (MCRPS, KGEsqrt, Mlogs, NRD, PIT and RDmse). Results show that, the optimization by the MCRPS is most interesting when compare to other criterions.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Harrathi, Rami. « Recherche d'information conceptuelle dans les documents semi-structurés ». Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0073/these.pdf.

Texte intégral
Résumé :
Avec l'avènement de XML, comme un format reconnu de représentation et d'échange de documents semi-structurés, de nombreuses approches ont été proposées pour la Recherche d'Information dans les documents semi-Structurés (RIS). Ces approches de RIS présentent des limites à différents niveaux : au niveau de l'appariement élément/requête et au niveau du langage de requêtes. En effet, l'appariement élément/requête vise à attribuer des scores de pertinences aux éléments des documents. La majorité des approches actuelles sont fondées sur des systèmes d'indexation basés sur des mots clés où l'élément d'un document et la requête sont représenté par une liste de mots clés pondérés. Cependant, l'indexation par des mots clés est imprécise et ne prend pas en considération les relations sémantiques entre ces mots. D'autre part, la majorité des langages de requêtes proposés pour l'Interrogation des documents semi-structurés sont des langages textuels. Une limite des langages textuels réside dans le fait qu'Il s'agit de langages inadaptés aux utilisateurs non informaticiens. Ces langages nécessitent de la part de l'utilisateur un apprentissage de leur syntaxe formelle. L'utilisation des langages visuels s'avère être une bonne solution pour remédier aux limites des langages textuels. Dans ce cadre, nos contributions portent principalement sur la proposition d'une approche de RI conceptuelle dans les documents semi-structurés et d'un modèle d'interrogation visuelle. Nos contributions ont été évaluées grâce à la campagne d'évaluation IN EX et à travers le développement d'un prototype
With the advent of XML as the de facto standard for semi-structured document representation and exchange over the Web, several approaches of structured information retrieval (SIR) for semi-structured document have been proposed. These approaches have limitations of RIS at different levels: the matching element/query and query language. The matching element/query consist of assigning a relevance scores of elements in the documents. Most approaches for evaluating the relevance are based on keywords-based indexing systems where the element of a document and the query are represented by a list of weighted keyword. The keywords-based indexing is generally imprecise. This imprecision is due to the problem of semantic ambiguity of words in natural language. To address these limitations, several studies were interested in taking into account the semantic indexing terms. This type of indexing is called semantic or conceptual indexing. These works take into account the notion of concept in place of the notion of word. The query languages allow the user to query semi-structured documents by content and structure. Most query languages which proposed for querying semi-structured documents were textual query languages. The limitation of textual languages lies in the fact that it is unsuitable for users who are novices in computer science. These languages are characterized by a complex formalism. They require training in the formal syntax of the language. The use of visual languages overcomes these limitations. In this context, our contributions focus on the proposal of a conceptual IR approach in semi-structured documents and a model of visual querying. Our contributions are evaluated through the IN EX Evaluation Initiative and the development of a prototype
Styles APA, Harvard, Vancouver, ISO, etc.
20

RAMMAL, MAHMOUD. « Une interface conceptuelle pour le traitement du langage naturel. Application au langage medical dans le systeme adm ». Compiègne, 1993. http://www.theses.fr/1993COMP594S.

Texte intégral
Résumé :
Le systeme adm (aide a la decision medicale) constitue une grande base de connaissances medicales. L'interrogation se faisait en un langage semi-naturel utilisant des mots cles. Afin de conserver le maximum d'informations semantiques, nous proposons de representer le sens des phrases d'interrogation de l'utilisateur en utilisant le formalisme des graphes conceptuels propose par sowa. Cette representation necessite la creation d'un lexique semantique contenant la representation du sens de chaque mot et ses relations avec les autres concepts, ainsi qu'un treillis de concepts. L'interface propose a necessite de plus, le developpement d'une technique d'enrichissement de la base utilisee a chaque decouverte d'un nouveau terme medical. Elle s'inspire des travaux en linguistique computationnelle qui s'adaptent bien au formalisme des graphes conceptuels. Une mise en correspondance des graphes conceptuels obtenus permettra de rechercher les descriptions de la base de connaissances qui correspondent le mieux aux requetes de l'utilisateur
Styles APA, Harvard, Vancouver, ISO, etc.
21

Mazaleyrat, Hélène. « Vers une approche linguistico-cognitive de la polysémie : Représentation de la signification et construction du sens ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00545777.

Texte intégral
Résumé :
Tout d'abord perçue comme un phénomène marginal, presque un accident en langue, on considère aujourd'hui que la polysémie fait partie intégrante des systèmes linguistiques. De nombreuses théories se sont intéressées au phénomène des unités à sens multiples et reliés. La première partie de notre travail en dresse un panorama non exhaustif mais révélateur, montrant comment et pourquoi la polysémie s'est peu à peu imposée comme un phénomène incontournable qui doit nécessairement être au cœur de tout modèle de la signification. Aussi, à partir de la distinction établie par G. Kleiber (1999), nous considérons deux grands courants selon le rapport établi entre signification, référence et polysémie. Le premier décrit la polysémie en termes de sens premier référentiel dont sont dérivés des sens secondaires (courant objectiviste). Le second l'analyse en termes de potentiel sémantique aréférentiel à partir duquel est obtenu l'ensemble des sens du polysème par spécialisation ou enrichissement contextuel(le) (courant constructiviste). Notre réflexion porte ensuite sur la représentation de la signification des polysèmes - principalement des noms - en grammaire cognitive (R.W. Langacker). Nous postulons que toute expression est associée, dans l'appareil cognitif des locuteurs-auditeurs, à une structure conceptuelle d'informations représentant sa signification. Nous proposons une modélisation en réseau structuré autour de valeurs sémantiques plus ou moins schématiques et de sens élaborés. Ainsi, c'est la valeur la plus schématique qui permet de faire le lien en langue entre ses élaborations que sont les sens observables en discours. Sur la base des travaux de D. Tuggy (1993), nous déclinons les représentations de la signification des mots à sens multiples le long d'un continuum homonymie-polysémie-multifacialité-indétermination, selon les degrés d'enracinement, de saillance, et les possibilités d'accessibilité et d'activation des différents composants (valeur schématique et élaborations sémantiques). Et, nous mettons ainsi en avant certaines des régularités organisatrices propres aux représentations sémanticoconceptuelles des polysèmes nominaux, ainsi qu'une typologie des sens polysémiques. Nous abordons enfin la construction du sens en grammaire cognitive, notamment l'influence du contexte dans l'interprétation d'expressions complexes comportant un polysème. Ainsi, nous considérons qu'il s'agit d'un processus non modulaire, compositionnel et dynamique. L'analyse de syntagmes nominaux du type Adj-N et N-Adj révèle en outre certaines régularités dans l'activation des sens polysémiques des unités linguistiques mises en jeu, liées au cotexte (place et fonction de l'adjectif par rapport au substantif recteur) et au contexte extralinguistique
Styles APA, Harvard, Vancouver, ISO, etc.
22

Rebolho, Cédric. « Modélisation conceptuelle de l'aléa inondation à l'échelle du bassin versant ». Thesis, Paris, AgroParisTech, 2018. http://www.theses.fr/2018AGPT0011/document.

Texte intégral
Résumé :
La modélisation des inondations -- c'est-à-dire la production de cartes synthétiques à partir de méthodes numériques -- est un enjeu primordial dans notre société. L'urbanisation des lits majeurs a en effet multiplié les enjeux, et il est aujourd'hui indispensable, pour la sécurité des populations, d'être capable de prévoir les zones inondées consécutives à un évènement de crue. Si la prévision des débits permet déjà de lancer l'alerte en cas de crue débordante, la détermination précise des zones inondées qui en résultent est encore en développement, diverses approches ayant été proposées afin de fournir des données pertinentes aux gestionnaires de crise.Ce travail de thèse a cherché à développer des outils numériques -- des modèles -- complémentaires aux modèles hydrauliques classiques, limités par le manque de données géométriques précises des lits des rivières. L'objectif de ce travail est de développer une approche applicable sur l'ensemble du territoire avec des données facilement accessibles afin de fournir une vision à grande, moyenne et petite échelle tout en étant adaptable à un contexte de prévision opérationnelle, en se nourrissant par exemple des débits prévus par un modèle hydrologique. Deux méthodes ont ainsi été étudiées : tout d'abord un algorithme conceptuel de répartition des volumes débordés le long du réseau hydrographique, puis une méthodologie plus physique, liant des équations d'hydraulique simplifiée à un modèle conceptuel (HAND) dans le but de créer des relations débit-hauteur débordée à l'échelle du tronçon. Si le premier méthode a finalement montré ses limites, la seconde, baptisée MHYST, a montré un fort potentiel en modélisant correctement jusqu'à 80% de l'évènement débordant de mai-juin 2016 sur le Loing.Ces travaux ont permis de montrer qu'il était possible de simuler des inondations à partir d'une quantité de données restreintes, et par dessus tout, avec des données facilement accessibles, grâce à des méthodologies simplifiées qui partent d'une représentation équivalente des lits de rivières. Si les modèle développés ont permis de répondre aux principaux objectifs de la thèse, certaines questions restent en suspens, notamment en ce qui concerne l'estimation du débit de plein bord, la centralisation de cartes d'inondations observées de qualité ou encore le traitement des situations les plus complexes telles que les crues og éclair fg{} et les zones fortement urbanisées
Flood modelling has become an essential issue in today's society, due to the expansion of urban areas into the floodplains. It is now necessary, for the safety of people, to be able to forecast the position of inundated zones produced by a flood event. Flood forecasting already exists but it only deals with discharge estimations in order to alert public authorities in case of an overflowing event. The delimitation of inundated areas is still a work in progress, and it need several approaches to provide relevant information to crisis managers.This PhD aims to develop and test a methodology applicable anywhere in France with easily available data, able to provide a large-scale and meso-scale assessment of inundated territories while still being usable in a forecasting context. Two models have been developed : first, a conceptual water spreading algorithm that estimates the overflowing water volume and spreads it along the river network and then a more physical method which computes reach-scale relationships between the discharge and the height above nearest drainage (HAND) from simplified hydraulic equations. If the former has rapidly reached its limits, the latter, called MHYST, has shown a real potential by correctly modelling up to 80% of the inundation extent resulting from the May-June event on the Loing catchment.This work showed that it was possible to generate inundation maps from limited data and, above all, easily available data, thanks to simple conceptual methodologies based on a simplified representation of the river beds. The models developed in this PhD satisfied the objectives of this project, even if some interrogations remain, in particular about the estimation of bankfull discharge, which is still a problematic issue, the production of spatially accurate observations of inundated areas which are used to calibrate and validate inundation models, or the handling of complex situations such as flash floods and heavily urbanised areas
Styles APA, Harvard, Vancouver, ISO, etc.
23

Rebolho, Cédric. « Modélisation conceptuelle de l'aléa inondation à l'échelle du bassin versant ». Electronic Thesis or Diss., Paris, AgroParisTech, 2018. http://www.theses.fr/2018AGPT0011.

Texte intégral
Résumé :
La modélisation des inondations -- c'est-à-dire la production de cartes synthétiques à partir de méthodes numériques -- est un enjeu primordial dans notre société. L'urbanisation des lits majeurs a en effet multiplié les enjeux, et il est aujourd'hui indispensable, pour la sécurité des populations, d'être capable de prévoir les zones inondées consécutives à un évènement de crue. Si la prévision des débits permet déjà de lancer l'alerte en cas de crue débordante, la détermination précise des zones inondées qui en résultent est encore en développement, diverses approches ayant été proposées afin de fournir des données pertinentes aux gestionnaires de crise.Ce travail de thèse a cherché à développer des outils numériques -- des modèles -- complémentaires aux modèles hydrauliques classiques, limités par le manque de données géométriques précises des lits des rivières. L'objectif de ce travail est de développer une approche applicable sur l'ensemble du territoire avec des données facilement accessibles afin de fournir une vision à grande, moyenne et petite échelle tout en étant adaptable à un contexte de prévision opérationnelle, en se nourrissant par exemple des débits prévus par un modèle hydrologique. Deux méthodes ont ainsi été étudiées : tout d'abord un algorithme conceptuel de répartition des volumes débordés le long du réseau hydrographique, puis une méthodologie plus physique, liant des équations d'hydraulique simplifiée à un modèle conceptuel (HAND) dans le but de créer des relations débit-hauteur débordée à l'échelle du tronçon. Si le premier méthode a finalement montré ses limites, la seconde, baptisée MHYST, a montré un fort potentiel en modélisant correctement jusqu'à 80% de l'évènement débordant de mai-juin 2016 sur le Loing.Ces travaux ont permis de montrer qu'il était possible de simuler des inondations à partir d'une quantité de données restreintes, et par dessus tout, avec des données facilement accessibles, grâce à des méthodologies simplifiées qui partent d'une représentation équivalente des lits de rivières. Si les modèle développés ont permis de répondre aux principaux objectifs de la thèse, certaines questions restent en suspens, notamment en ce qui concerne l'estimation du débit de plein bord, la centralisation de cartes d'inondations observées de qualité ou encore le traitement des situations les plus complexes telles que les crues og éclair fg{} et les zones fortement urbanisées
Flood modelling has become an essential issue in today's society, due to the expansion of urban areas into the floodplains. It is now necessary, for the safety of people, to be able to forecast the position of inundated zones produced by a flood event. Flood forecasting already exists but it only deals with discharge estimations in order to alert public authorities in case of an overflowing event. The delimitation of inundated areas is still a work in progress, and it need several approaches to provide relevant information to crisis managers.This PhD aims to develop and test a methodology applicable anywhere in France with easily available data, able to provide a large-scale and meso-scale assessment of inundated territories while still being usable in a forecasting context. Two models have been developed : first, a conceptual water spreading algorithm that estimates the overflowing water volume and spreads it along the river network and then a more physical method which computes reach-scale relationships between the discharge and the height above nearest drainage (HAND) from simplified hydraulic equations. If the former has rapidly reached its limits, the latter, called MHYST, has shown a real potential by correctly modelling up to 80% of the inundation extent resulting from the May-June event on the Loing catchment.This work showed that it was possible to generate inundation maps from limited data and, above all, easily available data, thanks to simple conceptual methodologies based on a simplified representation of the river beds. The models developed in this PhD satisfied the objectives of this project, even if some interrogations remain, in particular about the estimation of bankfull discharge, which is still a problematic issue, the production of spatially accurate observations of inundated areas which are used to calibrate and validate inundation models, or the handling of complex situations such as flash floods and heavily urbanised areas
Styles APA, Harvard, Vancouver, ISO, etc.
24

Wang, Haobo. « Exploration du potentiel de la réalité virtuelle pour l'architecture système basée sur les modèles ». Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALI038.

Texte intégral
Résumé :
Les ingénieurs et architectes de systèmes basés sur des modèles, en particulier ceux qui passent de l'ingénierie logicielle à l'ingénierie des systèmes, affirment que les notations de modélisation de type SysML, des diagrammes symboliques bidimensionnels composés de boîtes et de lignes, sont indépendantes du domaine et donc très pratiques pour soutenir la définition interfonctionnelle de l'architecture d'un système. Toutefois, la syntaxe abstraite des diagrammes des notations d'architecture de systèmes basés sur des modèles (MBSA) rend leur adoption difficile, en particulier pour les non-experts en notation, et l'utilisation de graphiques iconiques est un moyen d'améliorer la situation. Peu d'études ont tenté de remplacer les diagrammes 2D par des visuels 3D immersifs, sans preuve objective. Nous supposons que cela est dû aux efforts de développement limités et au besoin de critères de qualité supplémentaires pour comparer les diagrammes 2D aux visuels 3D. Cette thèse soutient que les visuels 3D interactifs centrés sur l'homme devraient remplacer les diagrammes MBSA, le cas échéant, pour faciliter la communication et la participation à des activités de co-conception multidisciplinaires, de la définition de la mission à celle de l'architecture. Une combinaison de méthodes de validation empiriques montre que l'interface MBSA immersive 3D proposée augmente la satisfaction de l'utilisateur, fournit de meilleures notations visuelles et réduit la charge cognitive pour les activités MBSA mono- et multi-utilisateurs impliquant des experts et des non-experts. Les résultats prometteurs de cette recherche exploratoire ouvrent la voie à des études plus spécifiques pour accumuler des preuves scientifiques
Model-based systems engineers and architects, particularly those moving from software to systems engineering, claim that SysML-like modelling notations, symbolic two-dimensional diagrams made of boxes and lines, are domain-independent and, thus, very convenient to support the cross-functional definition of a system architecture. However, the abstract diagramming syntax of Model-Based Systems Architecting (MBSA) notations makes their adoption difficult, especially by notational nonexperts, and using iconic graphics is one way of improvement. Few studies attempted to replace 2D diagrams with immersive 3D visuals without objective evidence. We assume it is due to limited development efforts and a need for more quality criteria for comparing 2D diagrams with 3D visuals. This thesis will argue that human-centric interactive 3D visuals should replace MBSA diagrams where appropriate to facilitate communication and participation in multidisciplinary co-design activities from mission to architecture definition. A combination of empirical validation methods shows that the proposed 3D immersive MBSA interface increases user satisfaction, provides better visual notations, and reduces cognitive load for single- and multi-user MBSA activities involving experts and non-experts. Such promising results of this exploratory research pave the way for more specific studies to cumulate scientific evidence
Styles APA, Harvard, Vancouver, ISO, etc.
25

HREICHE, ANTOINE. « Modélisation conceptuelle de la transformation pluie-débit dans le contexte méditerranéen ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2003. http://tel.archives-ouvertes.fr/tel-00004188.

Texte intégral
Résumé :
Le modèle conceptuel pluie-débit journalier MEDOR a été développé pour le milieu méditerranéen. L'analyse de sensibilité des processus hydrologiques aux caractéristiques du milieu et du climat lui confère une conception spécifique. Ce modèle à quatre paramètres a été élaboré à partir des données de six bassins méditerranéens, français et libanais. Son calage au moyen du critère de Nash pose des problèmes d'equifinalité. Le balayage exhaustif de l'espace critère montre l'existence de relations entre paramètres de production d'une part et ceux de transfert d'autre part. Un critère à échéance variable détermine la relation d'equifinalité de production, à partir des seuls cumuls annuels de pluie et de débit et de la structure stochastique journalière de la pluie.
Couplé à un modèle stochastique adimensionnel de pluie, MEDOR génère une surface représentative des coefficients d'écoulement des bassins dans l'espace des paramètres. Cinq zones ont été définies sur le pourtour méditerranéen avec leurs surfaces de référence. MEDOR possède des propriétés d'agglomération spatiale et temporelle. Les paramètres du modèle pour un bassin formé de l'union de plusieurs sous bassins sont déterminés par des lois d'agglomération utilisant les paramètres de chacun d'eux. Un des paramètres de la fonction de production est lié à la profondeur utile du sol, ce qui permet de transformer le modèle global en un modèle semi-distribué. L'extension à un nombre plus important de bassins permettrai de préciser la signification des paramètres, et donc d'envisager une application à des bassins non jaugés.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Diagne, Serigne. « Modélisation sémantique conceptuelle pour l'ingénierie de performances comportementales de produits complexes ». Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD021/document.

Texte intégral
Résumé :
La complexification des produits manufacturés notamment mécatroniques requiert la mise en place d’outils et méthodes pour la gestion de leur processus de conception. Ce processus va du cahier des charges à l’obtention de prototypes satisfaisant les exigences structurelles, fonctionnelles et comportementales. Pour développer des produits performants, sûrs de fonctionnement et à moindre coût tout en respectant les délais ce processus doit être maitrisé. Les travaux menés durant cette thèse ont pour objectif de proposer une démarche générique de conception et de modélisation de produits mécatroniques tout en permettant l’évaluation de leurs performances comportementales. La démarche proposée couvre tout le processus allant de la spécification des besoins à l’identification et l’élaboration de prototypes numériques des produits répondant à ces exigences. Elle est basée essentiellement sur trois étapes successives que sont la conception sémantique conceptuelle (CSC), la modélisation sémantique conceptuelle (MSC) et l’ingénierie de performances comportementales (IPC). Ces contributions théoriques sont ensuite implémentées dans un logiciel nommé Product-BPAS et développé dans cette thèse
The increasing complexity of manufactured product such mechatronics products requires tools and methods to manage their design process. This process covers the steps going from the requirements specification to the definition of the digital mockup that fulfils the structural, functional and behavioral requirements. To develop high quality products with good performance and low cost while respecting delay this process must be optimized and mastered. The research conducted during this thesis is directed to propose a generic approach for mechatronics products design and behavioural performance assessment. This approach covers the process going from the specification of the requirements to the identification and the design of the digital mockups of the products that meet those requirements. This approach is essentially based on three successive steps that are conceptual semantic design (CSD), conceptual semantic modeling (CSM) and behavioral performance engineering (BPE). These theoretical contributions have been implemented in the Product- BPAS software for test and illustrate purposes
Styles APA, Harvard, Vancouver, ISO, etc.
27

Hreiche, Antoine. « Modélisation conceptuelle de la transformation pluie-débit dans le contexte méditerranéen ». Montpellier 2, 2003. http://www.theses.fr/2003MON20081.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
28

Feyssat, Pierre. « Modélisation conceptuelle du fonctionnement d'une plage microtidale à barres en festons ». Electronic Thesis or Diss., Perpignan, 2023. https://theses-public.univ-perp.fr/2023PERP0021.pdf.

Texte intégral
Résumé :
Les barres sédimentaires d'avant-côte contrôlent la dynamique des plages. Comprendre le couplage plageémergée /immergée est primordial à l'heure où des secteurs urbains entiers de la région Occitanie sont soumis au phénomène d'érosion. Laquestion de la topographie des plages apparaît donc comme une connaissance cruciale à l'heure d'anticiper les changements à venir induits par lahausse globale du niveau moyen de la mer.L'objectif de ce travail de thèse est d'alimenter les connaissances sur la compréhension des systèmesde plage aérienne/plage sous-marine et leurs interconnexions, en se penchant sur le cas particulier des littoraux méditerranéens. Ce travail dethèse s'appuie sur l'étude d'une plage présentant un système de doubles barres d'avant-côte festonnées : la plage de Leucate. Des systèmessimilaires de barres festonnées sont présents dans toute la partie sud du Golfe du Lion (Entre Leucate et Argelès-sur-Mer), soit environ 40 km delittoral. Une première partie du travail a été dédiée à la morphodynamique de la plage aérienne notamment à sa dynamique événementielle etsaisonnière en relation avec les forçages atypiques de la région sur les sites de Leucate et La Franqui (vent de terre dominant, longues périodesde beau temps, tempêtes brèves et intenses). Une partie spécifique sur le site de Leucate a ensuite été consacrée à quantifier le transport éolieninduit par le vent de terre (Tramontane), si caractéristique de la zone. La seconde partie du travail a concerné la plage sous-marine de Leucate etson système de doubles barres en festons à différentes échelles de temps (20 ans, saisons, événementielles). Ce travail a permis d'identifier lesparamètres de contrôle et la réponse morphologique de ce système méditerranéen. Ce qui a par ailleurs conduit à l'étude de la mise en place et ladynamique d'un troisième système de barres proximales intercalées localement entre la barre interne et proche du trait de côte, les Low BeachBars, jusqu'alors peu étudiées. Une troisième partie est consacrée aux interactions entre la plage aérienne et la plage sous-marine au travers dedeux exemples. Les couplages trait de côte / barres sur le site de Leucate, et l'exemple plus complexe du grau de La Franqui dans lequel cescouplages contrôlent la position de l'estuaire et sa dynamique.Ce travail a abouti à la description d'un modèle d'évolution de plage aérienne àl'échelle événementielle et saisonnière, qui peut être appliqué aux plages du sud du Golfe du Lion. Le travail concernant la plage sous-marine àpermis de mettre en évidence une diversité de typologie assez importante pour la barre interne, et une dynamique du système de double barrecaractérisé par une stabilité des barres plus importantes que dans d'autres environnements. En ce qui concerne les couplages entre ces deuxcompartiments, nous avons mis en avant l'impact des couplages entre les barres d'avant-côte et le trait de côte dont la morphologie évolue enfonction des couplages
The sedimentary bars of the nearshore control the dynamics of the beaches. Understanding the couplingbetween aerial and submerged beaches is essential at a time when entire urban sectors of the Occitanie region are subject to erosion. Thequestion of beach topography thus appears to be a crucial knowledge to anticipate future changes induced by the global rise in mean sea level.The objective of this thesis is to contribute to the comprehension of the aerial beach/submerged beach systems and their interconnections, bylooking at the particular case of the Mediterranean coasts. This thesis is based on the study of a beach with a double crescentic nearshore barsystem: the beach of Leucate. Similar crescentic bar systems are present in the southern part of the Gulf of Lion (between Leucate and Argelès-sur-Mer), i.e. about 40 km of coastline. A first part of the work was dedicated to the morphodynamics of the aerial beach, in particular to itsevent and seasonal dynamics in relation to the atypical forcing of the region on the sites of Leucate and La Franqui (prevailing onshore wind,long periods of fair weather, short and intense storms). A specific part on the Leucate site was then devoted to quantify the wind transportinduced by the onshore wind (Tramontane), so characteristic of the area. The second part of the work concerned the underwater beach ofLeucate and its system of double festoon bars at different time scales (20 years, seasons, events). This work allowed us to identify the controlparameters and the morphological response of this Mediterranean system. This has also led to the study of the establishment and dynamics of athird system of proximal bars intercalated locally between the internal bar and near the coastline, the Low Beach Bars, which have been littlestudied until now. A third part is devoted to the interactions between the aerial beach and the underwater beach through two examples. Thecouplings between the coastline and the bars on the site of Leucate, and the more complex example of the grau of La Franqui in which thesecouplings control the position of the estuary and its dynamics.This work has led to the description of a model of aerial beach evolution on anevent-driven and seasonal scale, which can be applied to the beaches of the southern Gulf of Lion. The work on the underwater beach hasallowed to highlight a diversity of bar typologies (especially for the internal bar), and a dynamic of the double bar system characterized by astability of bars more important than in other environments. Regarding the couplings between these two compartments, we have highlighted theimpact of the couplings between the nearshore bars and the coastline whose morphology evolves according to the couplings
Styles APA, Harvard, Vancouver, ISO, etc.
29

Gafrej, Raoudha. « Modélisation conceptuelle du transfert des matières en suspension : effets d'échelles spatio-temporelles ». Paris 6, 1993. http://www.theses.fr/1993PA066372.

Texte intégral
Résumé :
L'erosion des terres et le transfert des matieres en suspension (m. E. S. ) jusqu'au cours d'eau sont extremement complexes et commandes par des facteurs physiques et humains divers. L'evaluation des risques et toute mesure de prevention passent par une modelisation quantitative. Notre recherche a donc ete de construire un modele de transfert pour evaluer les apports de m. E. S. Dans le bassin de la marne, jusqu'aux secteurs aval (bassin de 12800 km#2) ou ils posent une menace pour le traitement de l'eau potable. Le manque de donnees des mecanismes elementaires nous a conduit a nous interesser aux petits bassins. Le materiau de recherche constitue par les chroniques de donnees anciennes du bassin de melarchez (7 km#2) s'est avere assez riche pour amorcer la modelisation du transfert de m. E. S. Etant donne l'insuffisance des informations sur les caracteristiques du milieu au debut de cette recherche, nous nous sommes limite a ne considerer que l'effet des facteurs hydrologiques mesures en continu. Le modele conceptuel ainsi etabli, a permis une bonne reproduction des flux de m. E. S. L'introduction de la notion de stock a contribue a reduire l'effet du phenomene d'hysteresis que plusieurs approches negligent. De meme l'effet de la pluie est bien mis en evidence a l'aide de ce modele empirique. L'application du modele a differentes echelles spatio-temporelles du bassin de la marne et au bassin de naizin en bretagne a permis une tentative d'explication de l'evolution spatiale des parametres
Styles APA, Harvard, Vancouver, ISO, etc.
30

Stockinger, Peter. « De la structure conceptuelle. Essai d'une description semio-linguistique des situations statives et dynamiques dans le langage ». Paris 3, 1991. http://www.theses.fr/1987PA030132.

Texte intégral
Résumé :
"stereotype de comportement",alors il semble clair qu'un model ou classe de modeles pouvant representer ce genre de contenu depasse necessairement le cadre de la linguistique, et, a fortiori, celui de la semantique linguistique. En m'appuyant sur l'ouvra "semantics and cognition" de r. Qjackendoff,il me semble qu'il y a qu'il y a deux positions differentes en ce qui concerne la semantique en langage naturel. La premiere suppose qu'il y a qu'il y a independamment de la structure conceptuelle dont la nature est non-linguistique, une composante semantique qui est est a la base des structures morpho-syntaxiques d'une langue. La deuxieme position admet,par contre,que la composante semantique n'y a pas une semantique linguistique proprement dite). C'est la n'y a pas une semantique. Linguistique proprement dite )c'est la en adoptant la position que c'est la structure conceptuelle qui represente le sens d'un lexeme,d'une phrase ou encore d'unh permettant la representation des situations dynamiques. . .
If we will admit that a word of natural language expresses a model or a class of models which represents this kind of content has to go beyond linguistics band , a fortori, linguistic semantics. Semantics. If we consider the work "semantics and cognition" of r. Jackendoff, i think that we can distinguish two positions semantical frameworrk in natur1al langage. The first posirion supposes that there is, independently of the conceptual structure, structure, a semantical framework which constitutes a basical structure for all syntactical structures of natural language. The second position admits, contrarily, that the semantical framework is a special kind belonging to conceptual or cognitive structure. It is this this second position that is generally assumed in formal semantic models that allows'the representation of dynamic
Styles APA, Harvard, Vancouver, ISO, etc.
31

BORNERAND, STEPHANE. « Collaboration de la programmation dynamique et de l'analyse conceptuelle. Application a la comprehension du langage parle ». Paris 11, 1992. http://www.theses.fr/1992PA112269.

Texte intégral
Résumé :
Cette these propose une integration des processus de reconnaissance de la parole et d'analyse du langage naturel. En reconnaissance, l'extension de l'algorithme temps-synchrone concerne l'injection de poids semantiques pour reduire dynamiquement la recherche. Deux methodes de calcul des poids semantiques sont presentees. Un modele statistique du langage definit les frequences de cooccurrence de mots. Le calcul du poids se fait par la moyenne des frequences ou par le produit des probabilites conditionnelles de cooccurrence de mots. Un modele conceptuel definit une grammaire conceptuelle pour modeliser la syntaxe et la semantique par des regles de structures de phrase augmentees de graphes conceptuels. L'analyse conceptuelle calcule les poids en fonction du recouvrement des graphes conceptuels au cours des jointures dirigees par la syntaxe. L'integration avec le modele statistique a donne lieu a une evaluation sur une application de controle de trafic aerien. L'integration avec l'analyse conceptuelle donne une cadre algorithmique de comprehension du langage parle
Styles APA, Harvard, Vancouver, ISO, etc.
32

Blitman, Delphine. « Innéité et sciences cognitives : la faculté de langage : analyse conceptuelle du programme de Chomsky en linguistique ». Paris, EHESS, 2010. http://www.theses.fr/2010EHES0159.

Texte intégral
Résumé :
Ce travail de thèse concerne la thèse de Chomsky selon laquelle la faculté de langage (aussi appelée grammaire universelle) est innée. Il s’agit de déterminer le sens que l’on peut donner à l'innéisme linguistique, en le confrontant notamment à la biologie. La solution proposée à la question de l'innéité s’appuie sur une analyse de l'innéisme linguistique dans toutes ses dimensions. Le premier chapitre présente le programme de recherche de Chomsky en linguistique. Le second chapitre clarifie les problèmes épistémologiques soulevés par ce programme «biolinguistique » et notamment par la notion de réalité psychologique de la grammaire. Le troisième chapitre, qui porte sur le problème de l'acquisition du langage, examine sur un plan conceptuel et empirique l'argument par la pauvreté du stimulus. Le quatrième chapitre s'intéresse aux fondements philosophiques de l'innéisme linguistique et explique les raisons du rejet par Chomsky de deux thèses largement acceptées au sein de la philosophie contemporaine, l'empirisme et l'externalisme. Les deux derniers chapitres examinent si la thèse de l'innéité ainsi clarifiée est compatible avec les connaissances actuelles en biologie. Le cinquième chapitre confronte la thèse de l'innéité de la faculté de langage à la biologie évolutionniste et clarifie la position anti-adaptationniste de Chomsky sur l'évolution de la faculté de langage. Le sixième chapitre fournit une analyse des débats théoriques autour de la notion d'innéité et montre comment on peut donner un sens à l’innéisme linguistique qui soit compatible avec l'interactionnisme qui prévaut aujourd'hui en biologie
This thesis is about Chomsky's work who argues that the language faculty (also known as the « universal grammar ») is innate. It aims at detennining the meaning of such a claim by confronting it with biology. The proposed solution to the innateness problem rests on a clarification of linguistic nativism in all its dimensions. The first chapter presents Chomsky's research program in linguistics. The second chapter con fronts the epistemological questions raised by this "biolinguistic" program. In particular, it analyses the problem of the so-called psychological reality of the grammar. The third chapter turns to the acquisition of language. It provides a conceptual and empirical analysis of the argument from the poverty of the stimulus. The fourth chapter clarifies the philosophical foundations of Chomsky's nativism. It explains why Chomsky rejects two theses which are largely accepted in the contemporary philosophy empiricism and externalism. The last two chapters examine if the innateness hypothesis is compatible with biology. The fifth chapter confronts Chomsky's nativist claim with evolutionary biology and clarifies Chomsky's anti-adaptationist position regarding the evolution of the language faculty. The sixth chapter provides an analysis of the theoretical debates on the notion of innateness and shows how linguistic nativism can be given a meaning which is compatible with the interactionism, prevailing now in biology
Styles APA, Harvard, Vancouver, ISO, etc.
33

Guihal, David. « Modélisation en langage VHDL-AMS des systèmes pluridisciplinaires ». Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00157570.

Texte intégral
Résumé :
Ce travail de thèse porte sur la problématique d'élaboration de modèles de systèmes hétérogènes. Il a associé le laboratoire de recherche LAAS-CNRS et la société MENTOR GRAPHICS. Il prend place au sein d'un processus de conception qui se fonde sur les recommandations de l'EIA-632 et sur une ingénierie guidée par les modèles. L'objectif de notre travail est de montrer en quoi le langage VHDL-AMS est adapté à la problématique de modélisation et de simulation de la solution physique au sens des recommandations de l'EIA-632. Dans un premier temps, ce manuscrit présente un état de l'art sur les besoins en modélisation pour la conception système, et dresse un bilan sur les différents langages de modélisation susceptibles d'y répondre. Afin de proposer la norme VHDL-AMS (IEEE 1076.1-1999) comme solution, notre travail s'est attaché à présenter et proposer une méthode à mettre en oeuvre pour converger vers cette norme. Notre démarche s'appuie sur l'ingénierie guidée par les modèles avec une place prépondérante jouée par les transformations de modèle. Nous avons développé ce concept de transformation en vue d'une convergence vers le VHDL-AMS : nous développons la notion de meta modèle avec, entre autre, la création d'un meta modèle du langage VHDL-AMS. Celui-ci va permettre une vérification de la conformité des modèles créés, mais aussi l'écriture de règles de transformations au niveau meta modèle. L'intérêt des industriels possédant un existant de modèles écrits dans un langage de description de matériel propriétaire autre (par exemple le langage MAST) en vue d'une migration vers la norme VHDL-AMS, nous a permis d'éprouver cette méthodologie dans de nombreux cas concrets. Nous avons aussi comparé cette approche à une méthodologie que nous avions précédemment définie, nécessitant une expertise dans les deux langages source et cible. Cela nous a permis de conclure positivement sur la faisabilité d'une telle transformation avec une semi-automatisation et une expertise encore n écessaire à certaines étapes. A titre de démonstration, nous avons développé de nombreux modèles mixtes confirmant les aptitudes du VHDL-AMS à pouvoir être le support principal du prototypage virtuel, ainsi que la validité de notre méthode de transformation. Nous avons notamment réalisé la modélisation VHDL-AMS d'un système très hétérogène de mise à feu d'une charge pyrotechnique, qui valide notre méthodologie. La validation des modèles en conformité avec les spécifications est une des perspectives identifiées de nos travaux, à approfondir.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Vert, Jean-Philippe. « Méthodes statistiques pour la modélisation du langage naturel ». Paris 6, 2001. http://www.theses.fr/2001PA066247.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
35

Nelakanti, Anil Kumar. « Modélisation du langage à l'aide de pénalités structurées ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01001634.

Texte intégral
Résumé :
Modeling natural language is among fundamental challenges of artificial intelligence and the design of interactive machines, with applications spanning across various domains, such as dialogue systems, text generation and machine translation. We propose a discriminatively trained log-linear model to learn the distribution of words following a given context. Due to data sparsity, it is necessary to appropriately regularize the model using a penalty term. We design a penalty term that properly encodes the structure of the feature space to avoid overfitting and improve generalization while appropriately capturing long range dependencies. Some nice properties of specific structured penalties can be used to reduce the number of parameters required to encode the model. The outcome is an efficient model that suitably captures long dependencies in language without a significant increase in time or space requirements. In a log-linear model, both training and testing become increasingly expensive with growing number of classes. The number of classes in a language model is the size of the vocabulary which is typically very large. A common trick is to cluster classes and apply the model in two-steps; the first step picks the most probable cluster and the second picks the most probable word from the chosen cluster. This idea can be generalized to a hierarchy of larger depth with multiple levels of clustering. However, the performance of the resulting hierarchical classifier depends on the suitability of the clustering to the problem. We study different strategies to build the hierarchy of categories from their observations.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Nelakanti, Anil Kumar. « Modélisation du langage à l'aide de pénalités structurées ». Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066033.

Texte intégral
Résumé :
La modélisation de la langue naturelle est l¿un des défis fondamentaux de l'intelligence artificielle et de la conception de systèmes interactifs, avec applications dans les systèmes de dialogue, la génération de texte et la traduction automatique. Nous proposons un modèle log-linéaire discriminatif donnant la distribution des mots qui suivent un contexte donné. En raison de la parcimonie des données, nous proposons un terme de pénalité qui code correctement la structure de l'espace fonctionnel pour éviter le sur-apprentissage et d'améliorer la généralisation, tout en capturant de manière appropriée les dépendances à long terme. Le résultat est un modèle efficace qui capte suffisamment les dépendances longues sans occasionner une forte augmentation des ressources en espace ou en temps. Dans un modèle log-linéaire, les phases d'apprentissage et de tests deviennent de plus en plus chères avec un nombre croissant de classes. Le nombre de classes dans un modèle de langue est la taille du vocabulaire, qui est généralement très importante. Une astuce courante consiste à appliquer le modèle en deux étapes: la première étape identifie le cluster le plus probable et la seconde prend le mot le plus probable du cluster choisi. Cette idée peut être généralisée à une hiérarchie de plus grande profondeur avec plusieurs niveaux de regroupement. Cependant, la performance du système de classification hiérarchique qui en résulte dépend du domaine d'application et de la construction d'une bonne hiérarchie. Nous étudions différentes stratégies pour construire la hiérarchie des catégories de leurs observations
Modeling natural language is among fundamental challenges of artificial intelligence and the design of interactive machines, with applications spanning across various domains, such as dialogue systems, text generation and machine translation. We propose a discriminatively trained log-linear model to learn the distribution of words following a given context. Due to data sparsity, it is necessary to appropriately regularize the model using a penalty term. We design a penalty term that properly encodes the structure of the feature space to avoid overfitting and improve generalization while appropriately capturing long range dependencies. Some nice properties of specific structured penalties can be used to reduce the number of parameters required to encode the model. The outcome is an efficient model that suitably captures long dependencies in language without a significant increase in time or space requirements. In a log-linear model, both training and testing become increasingly expensive with growing number of classes. The number of classes in a language model is the size of the vocabulary which is typically very large. A common trick is to cluster classes and apply the model in two-steps; the first step picks the most probable cluster and the second picks the most probable word from the chosen cluster. This idea can be generalized to a hierarchy of larger depth with multiple levels of clustering. However, the performance of the resulting hierarchical classifier depends on the suitability of the clustering to the problem. We study different strategies to build the hierarchy of categories from their observations
Styles APA, Harvard, Vancouver, ISO, etc.
37

Hassan, Ali. « Modélisation des bases de données multidimensionnelles : analyse par fonctions d'agrégation multiples ». Thesis, Toulouse 1, 2014. http://www.theses.fr/2014TOU10034/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
38

Postoev, Ivan. « Les mots sans les choses : concepts culturels, référence et interprétation ». Paris, EHESS, 2007. http://www.theses.fr/2007EHES0072.

Texte intégral
Résumé :
L’étude se centre sur les « concepts culturels », qui se caractérisent par l'absence de référents matériels et constituent un outil important de lïnterprétation. L’objectif de l’étude est de montrer que les concepts culturels constituent une classe à part, d’étudier leurs particularités et d’appliquer les résultats de cette étude à un certain nombre de textes littéraires. La première partie est consacrée à l’étude des hypothèses théoriques élaborées dans la philosophie (Kant, Rickert, Cassirer, Searle, Weitz) et dans la linguistique (Benveniste, sémantique cognitive, Wierzbicka). La deuxième partie comporte l'aperçu des propriétés particulières des concepts culturels, notamment le lien avec la situation archétype, l’aspect systématique et idéologique. Leur dimension historique est étudiée dans le contexte des travaux de Foucault et des données de l’histoire des mentalités. Ces acquis théoriques sont appliqués à des textes littéraires français et anglais allant du 17ème au 20ème siècle
The object of this study is ‘cultural concepts’, which are characterizled by the absence of material referents and play an important role in cultural communication and interpretation. The purpose of the study is to show that cultural concepts constrtute a separate class of concepts ; describe their specific properties, and apply the results to a number of literary texts. The first part contains a survey of theoretic hypotheses elaborated in philosophy (Kant, Rickert, Cassirer, Searle, Weitz) and linguistics (Benveniste, cognitive semantics, Wierzbicka). The second part concerns the specific properties of cultural concepts, eg. Implication of an 'exemplary‘ situation and their systematic and ideological aspect. Their historic aspect is discussed in connection with the theories of Foucault and the principles of history of mentalities. The results are applied to a number of French and English literary texts dating back from 17th to 20th centuries
Styles APA, Harvard, Vancouver, ISO, etc.
39

Abdulahhad, Karam. « Modélisation de la Recherche d'Information par la Logique et les Treillis. Application à la Recherche d'Information Conceptuelle ». Phd thesis, Université de Grenoble, 2014. http://tel.archives-ouvertes.fr/tel-00991669.

Texte intégral
Résumé :
Cette thèse se situe dans le contexte des modèles logique de Recherche d'Information (RI). Le travail présenté dans la thèse est principalement motivé par l'inexactitude de l'hypothèse sur l'indépendance de termes. En effet, cette hypothèse communément acceptée en RI stipule que les termes d'indexation sont indépendant les un des autres. Cette hypothèse est fausse en pratique mais permet toit de même aux systèmes de RI de donner de bon résultats. La proposition contenue dans cette thèse met également l'emphase sur la nature déductive du processus de jugement de pertinence. Les logiques formelles sont bien adaptées pour la représentation des connaissances. Elles permettent ainsi de représenter les relations entre les termes. Les logiques formelles sont également des systèmes d'inférence, ainsi la RI à base de logique constitue une piste de travail pour construire des systèmes efficaces de RI. Cependant, en étudiant les modèles actuels de RI basés sur la logique, nous montrons que ces modèles ont généralement des lacunes. Premièrement, les modèles de RI logiques proposent normalement des représentations complexes de document et des requête et difficile à obtenir automatiquement. Deuxièmement, la décision de pertinence d-->q, qui représente la correspondance entre un document d et une requête q, pourrait être difficile à vérifier. Enfin, la mesure de l'incertitude U(d-->q) est soit ad-hoc ou difficile à mettre en oeuvre. Dans cette thèse, nous proposons un nouveau modèle de RI logique afin de surmonter la plupart des limites mentionnées ci-dessus. Nous utilisons la logique propositionnelle (PL). Nous représentons les documents et les requêtes comme des phrases logiques écrites en Forme Normale Disjonctive. Nous argumentons également que la décision de pertinence d-->q pourrait être remplacée par la validité de l'implication matérielle |= d-->q. Pour vérifier si d-->q est valide ou non, nous exploitons la relation potentielle entre PL et la théorie des treillis. Nous proposons d'abord une représentation intermédiaire des phrases logiques, où elles deviennent des noeuds dans un treillis ayant une relation d'ordre partiel équivalent à la validité de l'implication matérielle. En conséquence, nous transformons la vérification de |= d-->q, ce qui est un calcul intensif, en une série de vérifications simples d'inclusion d'ensembles. Afin de mesurer l'incertitude de la décision de pertinence U(d-->q), nous utilisons la fonction du degré d'inclusion Z, qui est capable de quantifier les relations d'ordre partielles définies sur des treillis. Enfin, notre modèle est capable de travailler efficacement sur toutes les phrases logiques sans aucune restriction, et est applicable aux données à grande échelle. Notre modèle apporte également quelques conclusions théoriques comme: la formalisation de l'hypothèse de van Rijsbergen sur l'estimation de l'incertitude logique U(d-->q) en utilisant la probabilité conditionnelle P(q|d), la redéfinition des deux notions Exhaustivity & Specificity, et finalement ce modèle a également la possibilité de reproduire les modèles les plus classiques de RI. De manière pratique, nous construisons trois instances opérationnelles de notre modèle. Une instance pour étudier l'importance de Exhaustivity et Specificity, et deux autres pour montrer l'insuffisance de l'hypothèse sur l'indépendance des termes. Nos résultats expérimentaux montrent un gain de performance lors de l'intégration Exhaustivity et Specificity. Cependant, les résultats de l'utilisation de relations sémantiques entre les termes ne sont pas suffisants pour tirer des conclusions claires. Le travail présenté dans cette thèse doit être poursuivit par plus d'expérimentations, en particulier sur l'utilisation de relations, et par des études théoriques en profondeur, en particulier sur les propriétés de la fonction Z.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Bouzeghoub, Mokrane. « Secsi : un système expert en conception de systèmes d'informations, modélisation conceptuelle de schémas de bases de données ». Paris 6, 1986. http://www.theses.fr/1986PA066046.

Texte intégral
Résumé :
Les principaux objectifs du système sont d'une part la constitution d'une base de connaissances regroupant à la fois des acquis théoriques sur les modèles et une expérience pratique en conception de bases de données, et d'autre part la réalisation d'un système d'outils ouvert, capable aussi bien de données, et d'autre part la réalisation d'un système d'outils ouvert, capable aussi bien d'expliquer et de justifier ses choix et ses résultats que d'intégrer de nouveaux concepts et de nouvelles règles de conception. Outre l'architecture générale et les fonctionnalités du système, cette thèse décrit le modèle de représentation de connaissances base sur les réseaux sémantiques, les règles d'inférence et la méthodologie de conception adoptée.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Colombani, Françoise. « Modélisation de la coordination des soins infirmière en cancérologie : de l’analyse conceptuelle au transfert vers les décideurs ». Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0113.

Texte intégral
Résumé :
Face aux mutations démographiques, à la progression des maladies chroniques dont le cancer, et en réponse à la fragmentation des systèmes de santé actuels, la coordination des soins est devenue une priorité de Santé publique mondiale. Les patients atteints de cancer sont particulièrement à risque de recevoir des soins mal organisés en raison de la complexité de leur prise en charge, impliquant de multiples équipes médicales, infirmières, médico-sociales et sociales sur une durée prolongée. Ce défaut de coordination se fait au détriment de la qualité et de l’efficience des soins. Les progrès en matière de coordination des soins ont été limités par l'absence de définition commune et un manque de précision sur les modalités de sa mise en œuvre. En France, de nouvelles fonctions de coordination infirmière en cancérologie ont été introduites, sans conceptualisation préalable, conduisant à une grande diversité d'actions et d’intitulés de poste. Cette hétérogénéité entrave la reconnaissance, la compréhension de leurs actions et l'évaluation de leur performance. Face à l’absence d’analyse fine du périmètre d’action de ces professionnels et de cadre théorique de la coordination des soins, ce projet de thèse vise, en trois volets, à modéliser l’intervention infirmière de coordination des soins en cancérologie et trouver les leviers pour une prise en compte de ces résultats dans la politique nationale de coordination des soins en France. Le premier volet, conceptuel, a permis de développer un cadre de référence innovant centré sur les activités de coordination au moyen d’une scoping review et d’une méthode de consensus structurée (groupe nominal) ayant inclus des décideurs, des organisateurs et des patients partenaires. Le deuxième volet centré sur les pratiques, a produit un modèle opérationnel de l’intervention infirmière de coordination des soins en cancérologie exerçant en établissement de santé, en confrontant les attendus théoriques (cadre du volet 1) aux pratiques et aux représentations que ces infirmiers, leurs patients, aidants et partenaires professionnels avaient de cette intervention de coordination. L’enquête de terrain a consisté en une étude mixte multicentrique nationale par triangulation d’informations qualitatives (observations, entretiens, focus groups), et quantitatives (échelles validées) des pratiques, contextes, perceptions et attitude au travail des infirmiers de coordination en cancérologie en France. Le troisième volet a été dédié au transfert des résultats vers les décideurs via l’organisation d’un séminaire national de travail impliquant l’ensemble des acteurs du champ (régulateurs, administrateurs d’hôpitaux, associations professionnelles, chercheurs, infirmiers, patients partenaires). Son objectif était de présenter en avant-première les résultats de la modélisation, partager les expériences d’autres équipes de recherche sur le sujet, et décliner le modèle opérationnel en actions concrètes, par la construction par consensus d’une fiche de poste et la définition des éléments minimaux d’accompagnement managérial et prérequis à la prise de fonctions de ces infirmiers. Ce projet de thèse a produit des connaissances nouvelles sur la coordination des soins, en général et plus spécifiquement en cancérologie, sur le plan conceptuel (cadre de référence), interventionnel (modèle opérationnel) et translationnel (fiche de poste). Les travaux présentés dans cette thèse ouvrent ainsi la voie à un déploiement optimal de ces fonctions pour la décision publique en santé à l’évaluation de l’impact de ces interventions
Faced with demographic changes, the rise of chronic diseases including cancer, and in response to the fragmentation of current healthcare systems, care coordination has become a priority in global public health. Cancer patients are particularly at risk of receiving poorly organized care due to the complex nature of the disease and its management, which involves multiple medical, nursing, socio-medical, and social teams operating at different levels of the healthcare system over an extended period. This lack of coordination affects the quality and efficiency of care. Progress in care coordination has been hindered by the lack of a common definition and precision on how it should be implemented. In France, new nursing coordination functions in oncology have been introduced without prior conceptualisation, leading to a wide variety of actions and job titles. This heterogeneity hampers the recognition, understanding of their actions, and the evaluation of their performance. In the absence of a detailed analysis of the scope of action of these professionals and a theoretical framework for care coordination, this thesis project aims, in three parts, to model nursing care coordination intervention in oncology and to identify ways to implement these results into the national health policy of care coordination in France. The first part (conceptual) allowed the development of an innovative reference framework focused on coordination activities through a scoping review and a structured consensus method (nominal group technique) involving decision-makers, organizers, and patient partners. The second part, focusing on practices, produced an operational model of hospital-based cancer coordination nurses’ intervention, by comparing theoretical expectations (framework from part 1) with the practices and perceptions that these nurses, their patients, caregivers, and professional partners had of this coordination intervention. The field survey consisted of a national multicenter mixed-method study through a triangulation of qualitative (observations, interviews, focus groups) and quantitative (validated scales) information on practices, contexts, perceptions, and attitudes towards work among oncology care coordination nurses in France. The third part was dedicated to transferring results to decision-makers through the organisation of a national workshop involving all stakeholders in the field (regulators, hospital administrators, professional associations, researchers, nurses, patient partners). Its objective was to present the modelling results, share experiences from other research teams on the subject, and translate the operational model into concrete actions through consensus-building of a job description, and defining the minimum elements of managerial support and prerequisites for these nurses' functions. This thesis project has generated new knowledge on care coordination, both in general and more specifically in oncology, at a conceptual level (reference framework), interventional level (operational model), and translational level (job description). The work presented in this thesis thus paves the way for optimal deployment of these functions for public health decision-making (implementation of the job description, standardisation of training), and research evaluation of the effects and impact of these interventions
Styles APA, Harvard, Vancouver, ISO, etc.
42

Marouby-Terriou, Geneviève. « Structure phonologique et traitement du langage écrit : expérimentation et modélisation ». Aix-Marseille 1, 1998. http://www.theses.fr/1998AIX10064.

Texte intégral
Résumé :
Cette recherche porte sur l'acquisition du langage ecrit et plus particulierement sur l'identification de non-mots ecrits isoles. Nous nous interrogeons sur la place qu'occupent les connaissances infra-lexicales dans le processus d'identification de la langue ecrite. Au travers de 4 experimentations, prenant en compte les apports de differents cadres theoriques, psycholinguistique, psychologie developpementale et psychologie cognitive, nous montrons l'influence determinante de la forme de la structure syllabique, de la consonne d'attaque de la premiere syllabe et de maniere plus specifique dans ce travail, de l'ecart de sonorite intrasyllabique dans ce processus d'identification. Ces experiences, utilisant la detection de la similitude et de la difference entre une amorce et une cible, sont proposees a des enfants de differents niveaux d'apprentissage, cei, ce2, cm2. Elles confortent l'existence d'un processus developpemental de traitement de l'information ecrite. Les resultats nous conduisent a envisager les implications que peut avoir la connaissance des elements constitutifs de ce processus dans le schema d'acquisition de la lecture ainsi que dans la modelisation du systeme de traitement de l'information ecrite.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Roque, Matthieu. « Contribution à la définition d'un langage générique de modélisation d'entreprise ». Bordeaux 1, 2005. http://www.theses.fr/2005BOR13059.

Texte intégral
Résumé :
Cette thèse traite de la définition d'un langage unifié de modélisation d'entreprise (UEML). Celle‑ci aborde, dans un premier temps, l'existant en modélisation d'entreprise. Nous exposons différentes approches et langages qui au cours des années ont eu pour objectif d'unifier des langages et nous montrons, qu'à l'heure actuelle, ils ne permettent pas de répondre à notre problématique. Par la suite, un exemple simple de traduction entre une activité SADT et une activité GRAI des réseaux GRAI est traité par une approche empirique. Il permet de faire ressortir un ensemble de difficultés inhérentes à la définition d'UEML, et, à partir de celui‑ci, nous exposons notre point de vue ainsi qu'un ensemble de principes auxquels nous adhérons. Ensuite, nous proposons une approche basée sur la méta‑modélisation des langages, en utilisant le langage UML, ainsi que sur la théorie des ensembles. Cette approche permet l'identification des composants élémentaires nécessaires à la définition de notre langage unifié. Enfin, nous présentons un exemple complet d'élaboration d'un UEML, en partant de trois langages de modélisation d'entreprise (GRAI, IEM et EEML) et en procédant par une approche ascendante. Ces travaux ont été réalisés dans le cadre du réseau thématique UEML. Nous exposons, finalement, les différences entre les deux approches et les éléments importants que l'on peut en dégager.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Arronategui, Unai, et Franck Mieulet. « Le langage LOIR : objets, règles et actions pour la modélisation ». Toulouse 3, 1992. http://www.theses.fr/1992TOU30071.

Texte intégral
Résumé :
Notre travail se situe dans le cadre de l'etude des dialogues multimodaux homme-machine finalises par la tache. L'utilisation simultanee de plusieurs modes de communication (parole, ecrit, visuel, gestuel), ainsi que la comprehension et la construction d'un dialogue intelligent, mettent en uvre de multiples connaissances de nature diverse. Nous proposons un langage unique, loir, destine a integrer de maniere homogene toutes ces connaissances. Ce langage, concu en langage c autour d'un interprete lisp, comprend un modele de representation et de programmation objet, des regles de production d'ordre 1 a variables typees, des motifs semantiques proches des graphes conceptuels et un modele d'action. Le modele objet est a la base de la construction des autres elements. Il nous garantit une evolution aisee de l'outil. Un moteur d'inferences reflexes, avec un fonctionnement en chainage mixte, supporte la tache deductive. Une fonctionnalite de filtrage est applicable sur les motifs pour la recherche associative d'informations sur une base d'objets. Le modele d'action que nous proposons autorise la modelisation hierarchique, l'expression des relations logiques et temporelles, l'intentionnalite de l'action, les liaisons contextuelles induites par l'execution des actions, et l'aspect operationnel de l'execution de l'action. La representation qui s'en degage est commune aux fonctionnalites de reconnaissance, de synthese et de guidage de plans. L'accent est mis plus precisement sur la reconnaissance de plans. Une application particuliere, alaric, ayant pour objectif de repondre a un besoin de formation d'agents de la securite sociale a des procedures administratives, a permis de valider loir en milieu professionnel
Styles APA, Harvard, Vancouver, ISO, etc.
45

Menai, Mohamed-Fouz. « Langage et démarche de modélisation pour l'urbanisation des architectures Télécoms ». Troyes, 2006. http://www.theses.fr/2006TROY0008.

Texte intégral
Résumé :
Ce mémoire de thèse s’inscrit dans le contexte de l’architecture de réseaux de télécoms. Il traite la problématique issue du manque de formalisation et de foisonnement de méthodologies, constatée dans les projets d’architecture, au sein des opérateurs télécoms. Les solutions proposées s’inspirent du domaine d’urbanisation des systèmes d’information et du domaine d’ingénierie des modèles du génie logiciel. Les principaux résultats comprennent un langage de modélisation, nommé OURDIR, et une démarche d’urbanisation, spécifiques à l’urbanisation des architectures télécoms. La démarche est organisée autour de méthodes permettant la prise en compte des données manipulées par les fonctions d’une architecture. Des métriques de comparaison des cibles issues d’un processus d’urbanisation, sont également proposées
The following thesis document proposal relates to the telecom networks domain. It tackles the problems caused by a lack of formalism and a diversity of approaches, regarding architectural evolution projects, within Telecom Operators. The suggested contributions are inspired from both enterprise information systems architecture and model driven engineering domains. The main results are a modelling language, called OURDIR, and an associated process, specifically designed to enhance architectural evolution projects, in a telecom environment. The process comes with a modelling method capable of taking into account the data associated to the architecture. The contribution also includes specific metrics, designed for architecture comparison purposes
Styles APA, Harvard, Vancouver, ISO, etc.
46

Otfinowska, Anna. « Modélisation conceptuelle et probabiliste de matières en suspension : application à l'estimation des flux sur onze bassins versants urbains ». Université Louis Pasteur (Strasbourg) (1971-2008), 2007. http://www.theses.fr/2007STR13250.

Texte intégral
Résumé :
Les matières en suspension (MES) peuvent être considérées comme les principaux vecteurs et traceurs de la pollution des rejets urbains par temps de pluie (RUTP) car de nombreux polluants, notamment les métaux lourds, sont absorbés par les particules organiques ou minérales entraînées par les eaux pluviales. De nombreux auteurs proposent d'effectuer l'estimation des RUTP avec des outils combinant la métrologie et la modélisation. En effet, des études portant sur les incertitudes dans les paramètres et dans les réponses des modèles de calcul des flux polluants (MCFP) couramment utilisés dans les logiciels actuels comme CANOE, Hydroworks, SWMM, MouseTrap, FLUPOL, HORUS révèlent un pouvoir prédictif et une efficacité limitée de ces modèles à reproduire des pollutogrammes. De plus, une enquête portant sur l'utilisation des MCFP réalisée en France montre que ces modèles ne sont pas encore fréquemment utilisés par les bureaux d'études. Ainsi, l'insuffisance de données expérimentales nécessaire pour le calage d'un modèle complexe et une connaissance limitée des processus en jeu, semblent actuellement la principale cause de difficulté d'utilisation des MCFP pour l'estimation des RUTP. L'objectif de ce travail est d'élaborer à l'aide de la modélisation et de données limitées un outil permettant une évaluation satisfaisante des RUTP, peu onéreux, facile à appréhender et à appliquer, donnant des résultats au moins comparables à ceux obtenus par des modèles plus complexes dans certains domaines d'application. [. . . ]
At present, wet weather pollution discharged by sewer systems in natural environments is becoming a major environmental concem. This pollution appears during rainfall events and its impact is more important with increased rain intensity. Many studies show that extreme emissions of pollution by sewer systems are the result of heavy storms, with a low frequency of occurrence. However, these extreme emissions have a detrimental, sometimes even disastrous effect on water quality. In wet weather flow pollution, suspended solids are a major vector of pollution absorbed to organic and minerai particles carried by stormwater. The generation and transport of pollution in systems during a storm event is the result of a complex interaction of processes occurring in different space and time scales. A typology of existing models shows that this complexity has often been included into these models, which consider each water cycle and water quality phenomena. However, such complex models increase the difficulty in applying them because of insufficient knowledge concerning the processes involved, the uncertainties of data which is rarely available and the difficulty in calibration. Studies in various locations show that suspended solid characteristics are similar for the same kind of sewer systems and rain conditions; usually it has been observed that the sewer system acts like a filter and reduces the variability and the heterogeneity of the output variables. Rainfall is the most important input for many hydrological and hydraulic design calculations. Long historical rainfall series should be used and a statistical analysis should be performed on the hydraulic results. These subsequent results can be used as input into pollution loads models. The present study requires the verification of the kind of simplifications that may be made with respect to rainfall input to rainfall-runoff models. The level of simplification can be different according to the purpose of the study and its application. [. . . ]
Styles APA, Harvard, Vancouver, ISO, etc.
47

Amamba, Itoumba Frédéric Elie. « Modélisation d’un réseau de réservoirs en vue d’optimiser la gestion des eaux pluviales ». Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10180/document.

Texte intégral
Résumé :
En milieux urbains imperméabilisés, ou dans les régions où les pluies d’orage sont fréquentes et violentes, il convient de stocker temporairement les volumes des précipitations dans des ouvrages de rétention avant de les relâcher à débit contrôlé dans les réseaux d’assainissement ou le milieu naturel, ce qui limite les risques d’inondation et les impacts environnementaux. La dimension de ces ouvrages de rétention peut vite être importante et leur implantation sur un site encombré devenir compliquée et onéreuse. La solution proposée dans ce travail de thèse est de répartir la rétention sur plusieurs ouvrages de rétention reliés entre eux par des canalisations et contrôlés par des ajutages, et de jouer sur leur capacité respective et les conditions de transfert pour optimiser le rejet dans le réseau ou le milieu naturel. Un outil de modélisation de type réservoir a été développé, qui représente avec un bon niveau de précision les hauteurs dans les ouvrages de rétention et les débits transférés en fonction du temps ainsi que de l’intensité et la durée de la pluie. Ce modèle simplifié incrémenté en fonction d’un pas de temps cohérent avec l’intensité de la pluie travaille en volumes et débit sans s’attarder sur les conditions hydrauliques d’écoulement. Il a été validé par plusieurs études de sensibilité sur des séries de 2 ou 3 réservoirs et ouvre la voie à un outil de pré dimensionnement rapide, robuste et fiable
In urban environments, or in the areas where the stormy showers are frequent and violent, it is advisable to temporarily store volumes of precipitations in retaining tanks before slackening them with flow controlled in the sewage networks or the natural environment, which limits the risks of flood and the environmental impacts. The dimension of these basins can quickly be important and their establishment on an encumbered site to become complicated and expensive. The solution suggested in this study is to distribute the retention on several basins connected to each other by pipes and controlled by nozzles, and to exploit their respective capacity and the conditions of transfer to optimize the rejection in the network or the natural environment. A numerical model named tank type was developed, which represents with a good level of precision the heights in the basins and the flows transferred according to time as well as intensity and the duration of the rain. This simplified model incremented according to a step of coherent time with the intensity of the rain works in volumes and flow without being delayed on the hydraulic conditions of flow. It was validated by several studies of sensitivity on meshes of 2 or 3 tanks and opens up the way for a tool for pre simple and reliable dimensioning
Styles APA, Harvard, Vancouver, ISO, etc.
48

Bour, Raphaëlle. « DEMOS : une méthode de conception participative de systèmes d’information soutenant la démocratie des organisations ». Thesis, Toulouse 1, 2019. http://www.theses.fr/2019TOU10058.

Texte intégral
Résumé :
Nos sociétés font face aujourd’hui à un enjeu majeur de démocratie. Les organisations, au cœur de la société, peuvent prendre leur part dans le traitement de cette problématique. Cela passe par une analyse introspective de chaque organisation quant aux possibilités de participation à la prise de décision collective qu’elle propose, mais aussi quant à la place qu’occupent les outils de gouvernementalité dans leur fonctionnement. Afin de soutenir la démocratie des organisations, les systèmes d’information peuvent jouer un rôle majeur à condition que, dès leur conception, la question démocratique soit posée. Pour cela, ils doivent être construits grâce à des méthodes de conception participatives qui interrogent la question des valeurs, des normes, des visions du monde que sous-tendent ces systèmes. Ces systèmes d’information doivent en outre être la représentation d’une pluralité de points de vue, et par conséquent ne pas contraindre chacun à se conformer à un point de vue dominant. Notre contribution : DEMOS, est une méthode de conception participative de systèmes d’information soutenant la démocratie des organisations. Elle repose sur des principes structurants, qui ont constitué le fil conducteur de sa construction. La méthode intègre elle-même des caractéristiques démocratiques au travers de son modèle de produit et de son modèle de processus. Elle permet également de créer des systèmes d’information plus démocratiques qui intègrent une diversité de points de vue mis en cohérence. Cette méthode est formalisée, détaillée, la rendant ainsi reproductible et adaptable à tout projet de construction de système d’information dans une organisation
Le résumé en anglais n'a pas été communiqué par l'auteur
Styles APA, Harvard, Vancouver, ISO, etc.
49

Surcin, Sylvain. « Expression langagière ambigue͏̈ et modélisation cognitive symbolique ». Paris 8, 1999. http://www.theses.fr/1999PA081587.

Texte intégral
Résumé :
Notre but est la mise au point d'un systeme de traitement automatique des ambiguites lexicales engendrees par les formes de polysemie complexes. L'objectif majeur est la robustesse : le systeme doit fournir des interpretations de mots ambigus en contexte ouvert, meme lorsque l'information contextuelle est degradee. A partir des questions <> et <>, nous aboutissons au double choix suivant : nous cherchons a modeliser le traitement des formes complexes de polysemie (les moins etudiees en informatique, ou reputees non calculables) dans le cadre linguistique de la semantique differentielle. Nous nous concentrons plus particulierement sur la polysemie d'usage, qui n'a etequ'effleuree en linguistique et en informatique, pour en proposer une caracterisation systematique. En conclusion, l'indecidabilite de ces ambiguites est necessaire a la coherence semantique des enonces qui les contiennent ; elles ne doivent pas etre resolues. En nous basant sur les systemes informatiques existants, nous proposons un modele de lexique dynamique inspire du modele edgar. Ce modele,peleas, integre l'ambiguite dans ses structures. Pour une occurrence ambigue donnee, il calcule une analyse des contributions d'une base d'usages attestes dans sa signification en contexte. Ce lexique est un hybride entre un systeme symbolique (structures lexicales) et connexioniste (algorithme de calcul). Il est mis en uvre par un jeu de logiciels sous forme de controles activex. Leur realisation applique des techniques de specification formelle, de conception orientee objets avancee et de programmation distribuee. Une phase de test de ces logiciels a permis de valider le modele qui s'avere parfaitement robuste en conservant une pertinence et une efficacite raisonnable. Les resultats montrent qu'il est particulierement adapte a l'interpretation des mots jokers, jeux de mots et doubles sens.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Parrenin, Frédéric. « Datation glaciologique des forages profonds en Antarctique et modélisation conceptuelle des paléoclimats : implications pour la théorie astronomique des paléoclimats ». Phd thesis, Université Joseph Fourier (Grenoble), 2002. http://tel.archives-ouvertes.fr/tel-00701456.

Texte intégral
Résumé :
L'objectif de cette thèse est d'apporter des éléments nouveaux concernant la théorie astronomique des paléoclimats au travers de deux outils : la datation glaciologique des forages polaires grâce à une méthode inverse et les modèles conceptuels de climat. Concernant la datation des forages polaires, nous montrons l'intérêt d'appliquer une méthode inverse au modèle de datation glaciologique pour obtenir une chronologie optimale et en analyser les incertitudes. Pour Vostok, il n'est pas possible d'obtenir une chronologie qui satisfasse toutes les informations chronologiques, probablement à cause d'une méconnaissance des conditions en amont de la ligne d'écoulement. Les chronologies pour Dôme C et Dôme F sont cohérentes avec les contraintes, ce qui signifie que le modèle glaciologique simple utilisé pour ces dômes est adéquate. Le cas de Dôme F nous permet de montrer que l'enregistrement de Devils Hole est probablement biaisé par des conditions locales et suggère que les déphasages entre insolation et température Antarctique sont grossièrement constants dans le temps. Nous confirmons par ailleurs que l'amincissement est plus fort dans le haut du glacier dans le cas d'un dôme que pour le reste de la ligne d'écoulement. Nous suggérons de plus que l'estimation de l'accumulation des périodes glaciaires par la relation de pression de vapeur saturante associée à la relation spatiale isotope−température de surface est surestimée d'environ 30%. Le modèle conceptuel que nous avons développé nous permet de décrire les variations de niveau des mers du Quaternaire en tant que réponse au forçage de l'insolation. En particulier, nous justifions pourquoi les transitions les plus importantes de niveau des mers ont eu lieu lorsque les changements d'insolation étaient les plus faibles. De plus, nous montrons que des variations faibles de déphasage insolation−climat lors des déglaciations sont compatibles avec la théorie astronomique.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie