To see the other types of publications on this topic, follow the link: Relational calculi.

Dissertations / Theses on the topic 'Relational calculi'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Relational calculi.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Zhou, Y. "A graphical calculus : extension, implication and application." Thesis, University of Oxford, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.365370.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Roocks, Patrick [Verfasser], and Bernhard [Akademischer Betreuer] Möller. "Relational and Algebraic Calculi for Database Preferences / Patrick Roocks. Betreuer: Bernhard Möller." Augsburg : Universität Augsburg, 2016. http://d-nb.info/1112465863/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Yang, Liqun. "Logical relation categories and lambda calculi." Thesis, University of Ottawa (Canada), 1996. http://hdl.handle.net/10393/9876.

Full text
Abstract:
An aspect of programming languages is the study of the operational semantics, which, in the case of a lambda calculus, is based on a directed form of equational reasoning called reduction. In computer science terminology, reduction may be regarded as a form of symbolic evaluation. It models a sequential computation process step by step. The crucial properties for a rewriting system are confluence, also called the Church-Rosser property and termination, the (Strong) normalization property, respectively. These are studied in depth in Chapter 2 and 6. The problem whether all $\lambda$-terms satisfy termination corresponds to the halting problem. From a different point of view, studying the problem of both Church-Rosser and strong normalization corresponds to, in a particular field, studying the word problem. The notion of categories is familiar to mathematicians as a branch of algebra. It has been developed quite rapidly in less than 40 years. In particular, recently more and more computer scientists are using categories for their own purposes. It is the connection between categories and $\lambda$-calculi that interests computer scientists. This connection is a thread that goes through the whole thesis. (Abstract shortened by UMI.)
APA, Harvard, Vancouver, ISO, and other styles
4

Inants, Armen. "Qualitative calculi with heterogeneous universes." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAMO10/document.

Full text
Abstract:
Représentation et raisonnement qualitatifs fonctionnent avec des relations non-numériques entre les objets d'un univers. Les formalismes généraux développés dans ce domaine sont basés sur différents types d'algèbres de relations, comme les algèbres de Tarski. Tous ces formalismes, qui sont appelés des calculs qualitatifs, partagent l'hypothèse implicite que l'univers est homogène, c'est-à-dire qu'il se compose d'objets de même nature. Toutefois, les objets de différents types peuvent aussi entretenir des relations. L'état de l'art du raisonnement qualitatif ne permet pas de combiner les calculs qualitatifs pour les différents types d'objets en un seul calcul.De nombreuses applications discriminent entre différents types d'objets. Par exemple, certains modèles spatiaux discriminent entre les régions, les lignes et les points, et différentes relations sont utilisées pour chaque type d'objets. Dans l'alignement d'ontologies, les calculs qualitatifs sont utiles pour exprimer des alignements entre un seul type d'entités, telles que des concepts ou des individus. Cependant, les relations entre les individus et les concepts, qui imposent des contraintes supplémentaires, ne sont pas exploitées.Cette thèse introduit la modularité dans les calculs qualitatifs et fournit une méthodologie pour la modélisation de calculs qualitatifs des univers hétérogènes. Notre contribution principale est un cadre basé sur une classe spéciale de schémas de partition que nous appelons modulaires. Pour un calcul qualitatif engendré par un schéma de partition modulaire, nous définissons une structure qui associe chaque symbole de relation avec un domaine et codomain abstrait à partir d'un treillis booléen de sortes. Un module d'un tel calcul qualitatif est un sous-calcul limité à une sorte donnée, qui est obtenu par une opération appelée relativisation à une sorte. D'un intérêt pratique plus grand est l'opération inverse, qui permet de combiner plusieurs calculs qualitatifs en un seul calcul. Nous définissons une opération appelée combinaison modulo liaison, qui combine deux ou plusieurs calculs qualitatifs sur différents univers, en fonction de quelques relations de liaison entre ces univers. Le cadre est suffisamment général pour soutenir la plupart des calculs spatio-temporels qualitatifs connus
Qualitative representation and reasoning operate with non-numerical relations holding between objects of some universe. The general formalisms developed in this field are based on various kinds of algebras of relations, such as Tarskian relation algebras. All these formalisms, which are called qualitative calculi, share an implicit assumption that the universe is homogeneous, i.e., consists of objects of the same kind. However, objects of different kinds may also entertain relations. The state of the art of qualitative reasoning does not offer a combination operation of qualitative calculi for different kinds of objects into a single calculus.Many applications discriminate between different kinds of objects. For example, some spatial models discriminate between regions, lines and points, and different relations are used for each kind of objects. In ontology matching, qualitative calculi were shown useful for expressing alignments between only one kind of entities, such as concepts or individuals. However, relations between individuals and concepts, which impose additional constraints, are not exploited.This dissertation introduces modularity in qualitative calculi and provides a methodology for modeling qualitative calculi with heterogeneous universes. Our central contribution is a framework based on a special class of partition schemes which we call modular. For a qualitative calculus generated by a modular partition scheme, we define a structure that associates each relation symbol with an abstract domain and codomain from a Boolean lattice of sorts. A module of such a qualitative calculus is a sub-calculus restricted to a given sort, which is obtained through an operation called relativization to a sort. Of a greater practical interest is the opposite operation, which allows for combining several qualitative calculi into a single calculus. We define an operation called combination modulo glue, which combines two or more qualitative calculi over different universes, provided some glue relations between these universes. The framework is general enough to support most known qualitative spatio-temporal calculi
APA, Harvard, Vancouver, ISO, and other styles
5

Diepenveen, Emily. "Relational models of the lambda calculus." Thesis, University of Ottawa (Canada), 2008. http://hdl.handle.net/10393/27679.

Full text
Abstract:
In [7], Ehrhard et al. present a model of the untyped lambda calculus built from an object without enough points in a cartesian closed category MRel. This thesis presents the background needed to construct and understand this model. In particular we describe what it means for models to have enough points and exhibit connections between MRel with various categorical models of lambda calculus in the literature. In particular, we are able to relate the graph model to MRel. We also describe connections with various kinds of Kleisli categories arising from comonads and their associated theory.
APA, Harvard, Vancouver, ISO, and other styles
6

Legrand, Rémi. "Calcul relationnel et programmation en logique." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37607205b.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Legrand, Rémi. "Calcul relationnel et programmation en logique." Paris 6, 1987. http://www.theses.fr/1987PA066481.

Full text
Abstract:
Presentation d'un systeme de programmation en logique base sur le calcul relationnel: description du langage sans variable graal et son extension relationnelle grel; definition des relations; introduction des indeterminees, decomposees en inconnues et gelees dans la programmation fonctionnelle; presentation de prolog et de ses contraintes; construction du langage logique relog a partir de grel, a l'aide d'un orienteur
APA, Harvard, Vancouver, ISO, and other styles
8

Yemane, Kidane. "Relations in Models of Calculi and Logics with Names." Doctoral thesis, Uppsala : Acta Universitatis Upsaliensis : Univ.-bibl. [distributör], 2006. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-6245.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Ruoppolo, Domenico. "Relational graph models and Morris's observability : resource-sensitive semantic investigations on the untyped λ-calculus." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCD069/document.

Full text
Abstract:
La thèse contribue à l’étude du λ-calcul non-typé de Church, un système de réécriture dont la règle principale est la β-réduction (formalisant l’exécution d’un programme). Nous nous concentrons sur la sémantique dénotationnelle, l’étude de modèles du λ-calcul interprétant de la même façon les λ-termes β-convertibles. On examine la sémantique relationnelle, une sémantique sensible aux ressources qui interprète les λ-termes comme des relations avec les entrées regroupées en multi-ensembles. Nous définissons une classe de modèles relationnels, les modèles de graphe relationnels (rgm’s), que nous étudions avec une approche issue de la théorie des types et de la démonstration, par le biais de certains systèmes de types avec intersection non-idémpotente. D’abord, nous découvrons la plus petite et la plus grande λ–théorie (théorie équationnelle étendant la β-conversion) représentées dans la classe. Ensuite, nous utilisons les rgm’s afin de résoudre le problème de l’adéquation complète pour la λ–théorie observationnelle de Morris, à savoir l’équivalence contextuelle de programmes que l’on obtient lorsqu’on prend les β-formes normales comme sorties observables. On résoudre le problème de différentes façons. En caractérisant la β-normalisabilité avec les types, nous découvrons une infinité de rgm’s complètement adéquats, que nous appelons uniformément sans fond. Puis, nous résolvons le problème de façon exhaustive, en prouvant qu’un rgm est complètement adéquat pour l’observabilité de Morris si et seulement si il est extensionnel (il modèle l’ŋ-conversion) et λ-König. Moralement un rgm est λ-König si tout arbre récursif infini a une branche infinie témoignée par un type non-bien-fondé
This thesis is a contribution to the study of Church’s untyped λ-calculus, a term rewritingsystem having the β-reduction (the formal counterpart of the idea of execution of programs) asmain rule. The focus is on denotational semantics, namely the investigation of mathematical models of the λ-calculus giving the same denotation to β-convertible λ-terms. We investigate relational semantics, a resource-sensitive semantics interpreting λ-terms as relations,with their inputs grouped together in multisets. We define a large class of relational models,called relational graph models (rgm’s), and we study them in a type/proof-theoretical way, using some non-idempotent intersection type systems. Firstly, we find the minimal and maximal λ-theories (equational theories extending -conversion) represented by the class.Then we use rgm’s to solve the full abstraction problem for Morris’s observational λ-theory,the contextual equivalence of programs that one gets by taking the β-normal forms asobservable outputs. We solve the problem in different ways. Through a type-theoretical characterization of β-normalizability, we find infinitely many fully abstract rgm’s, that wecall uniformly bottomless.We then give an exhaustive answer to the problem, by showing thatan rgm is fully abstract for Morris’s observability if and only if it is extensional (a model of ŋ-conversion) and λ-König. Intuitively an rgm is λ-König when every infinite computable tree has an infinite branch witnessed by some type of the model, where the witnessing is a property of non-well-foundedness on the type
APA, Harvard, Vancouver, ISO, and other styles
10

Jason, Ludovic. "Relation endommagement perméabilité pour les bétons : application aux calculs de structures." Nantes, 2004. http://www.theses.fr/2004NANT2078.

Full text
Abstract:
Connaître la relation entre la dégradation du béton et sa perméabilité est un objectif central pour évaluer les conséquences d'un chargement mécanique sur l'étanchéité de structures sensibles comme les enceintes de confinement de centrales nucléaires. Une loi de comportement mécanique prenant en compte l'endommagement et la plasticité du matériau et s'appuyant sur la théorie des milieux continus est tout d'abord développée. Le modèle, validé sur des tests élémentaires, structurels et préindustriel s'appuie sur des outils numériquement robustes (opérateur tangent cohérent). Une loi reliant le degré de saturation (séchage), l'endommagement et la perméabilité est ensuite proposée. Enfin, les résultats sont rassemblés afin d'être appliqués au comportement hydraulique d'une partie courante d'enceinte de confinement. Une mise en pression de la structure est ainsi simulée pour mettre en évidence l'influence des chargements hydriques et mécaniques sur le comportement hydraulique
The relation between damage and permeability is of great importance to evaluate the consequences of a mechanical loading on the hydraulic integrity of sensitive concrete structures like containment buildings of nuclear power plants. An elastic plastic damage constitutive law for the mechanical behaviour is first developed. The model is validated on elementary and structural applications with a special focus on the efficiency of the numerical tools (tangent matrices). A relation between water saturation (drying), damage and permeability is then proposed, based on theoretical and experimental observations. Finally, a Representative Structural Volume of a containment vessel is studied to highlight the influence of hygro - mechanical loading on the hydraulic behaviour (distribution of gas pressure)
APA, Harvard, Vancouver, ISO, and other styles
11

LUSTOSA, CECILIA REIS ENGLANDER. "ON SOME RELATIONS BETWEEN NATURAL DEDUCTION AND SEQUENT CALCULUS." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2014. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=24302@1.

Full text
Abstract:
PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO
CONSELHO NACIONAL DE DESENVOLVIMENTO CIENTÍFICO E TECNOLÓGICO
Segerberg apresentou uma prova geral da completude para lógicas proposicionais. Para tal, um sistema de dedução foi definido de forma que suas regras sejam regras para um operador booleano arbitrário para uma dada lógica proposicional. Cada regra desse sistema corresponde a uma linha na tabela de verdade desse operador. Na primeira parte desse trabalho, mostramos uma extensão da ideia de Segerberg para lógicas proposicionais finito-valoradas e para lógicas não-determinísticas. Mantemos a ideia de definir um sistema de dedução cujas regras correspondam a linhas de tabelas verdade, mas ao invés de termos um tipo de regra para cada valor de verdade da lógica correspondente, usamos uma representação bivalente que usa a técnica de fórmulas separadoras definidas por Carlos Caleiro e João Marcos. O sistema definido possui tantas regras que pode ser difícil trabalhar com elas. Acreditamos que um sistema de cálculo de sequentes definido de forma análoga poderia ser mais intuitivo. Motivados por essa observação, a segunda parte dessa tese é dedicada à definição de uma tradução entre cálculo de sequentes e dedução natural, onde procuramos definir uma bijeção melhor do que as já existentes.
Segerberg presented a general completeness proof for propositional logics. For this purpose, a Natural Deduction system was defined in a way that its rules were rules for an arbitrary boolean operator in a given propositional logic. Each of those rules corresponds to a row on the operator s truth-table. In the first part of this thesis we extend Segerbergs idea to finite-valued propositional logic and to non-deterministic logic. We maintain the idea of defining a deductive system whose rules correspond to rows of truth-tables, but instead of having n types of rules (one for each truth-value), we use a bivalent representation that makes use of the technique of separating formulas as defined by Carlos Caleiro and João Marcos. The system defined has so many rules it might be laborious to work with it. We believe that a sequent calculus system defined in a similar way would be more intuitive. Motivated by this observation, in the second part of this thesis we work out translations between Sequent Calculus and Natural Deduction, searching for a better bijective relationship than those already existing.
APA, Harvard, Vancouver, ISO, and other styles
12

Lacroix, Zoé. "Bases de données : des relations implicites aux relations contraintes." Paris 11, 1996. http://www.theses.fr/1996PA112264.

Full text
Abstract:
Le modele relationnel presente des limites dues, d'une part, au pouvoir d'expression du calcul relationnel, et, d'autre part, a la representation des donnees. Nous proposons des generalisations du modele relationnel dans ces deux directions. Nous definissons de nouveaux langages de requetes (logiques implicites, etc. ) permettant, notamment, de definir des requetes non-deterministes. Nous analysons la complexite de ces requetes et etudions les differents niveaux de non-determinisme, tant pour les definitions que pour les calculs. En particulier, nous montrons que les requetes deterministes definies avec un constructeur de choix de relation coincident avec les requetes implicites. Nous proposons aussi differentes techniques pour definir des requetes deterministes a partir d'outils non-deterministes. Le modele relationnel est adapte a l'information thematique (nom, annee, etc. ), mais ne convient pas a l'information spatiale. Les systemes d'information geographiques usuels sont bases sur le modele relationnel etendu a des primitives ad-hoc pour traiter l'information spatiale. Les relations du modele base sur les contraintes lineaires sont des ensembles de n-uplets generalises de la forme 2x + 3y 1 y 5, representant des ensembles de polygones. Nous montrons que ce modele permet de representer l'information thematique et l'information spatiale dans un cadre homogene. Nous introduisons des langages de requetes, tels que l'algebre relationnelle dont la semantique est adaptee aux ensembles de n-uplets generalises et proposons differentes techniques d'optimisation
APA, Harvard, Vancouver, ISO, and other styles
13

Dogui, Ayman. "Modélisation explicite de l'adaptation sémantique entre modèles de calcul." Thesis, Supélec, 2013. http://www.theses.fr/2013SUPL0030/document.

Full text
Abstract:
Ce travail traite de la modélisation de systèmes complexes constitués de plusieurs composants impliquant des domaines techniques différents. Il se place dans le contexte de la modélisation hétérogène hiérarchique, selon l’approche à base de modèles de calcul. Chaque composant faisant appel à un domaine technique particulier, son comportement peut être modélisé selon un paradigme de modélisation approprié, avec une sémantique différente de celle des autres composants. La modélisation du système global, qui intègre les modèles hétérogènes de ces composants, nécessite donc une adaptation sémantique permettant l’échange entre les divers sous-modèles.Ce travail propose une approche de modélisation de l’adaptation sémantique où les sémantiques du temps et du contrôle sont explicitement spécifiées par le concepteur en définissant des relations sur les occurrences d’évènements d’une part et sur les étiquettes temporelles de ces occurrences d’autre part. Cette approche est intégrée dans la plateforme ModHel’X et testée sur un cas d’étude : un modèle de lève-vitre électrique
This work takes place in the context of hierarchical heterogeneous modeling using the model of computation approach in order to model complex systems which includes several components from different technical fields.Each of these components is usually designed according to a modeling paradigm that suits the technical domain and is based on specific semantics. Therefore, the overall system, which integrates the heterogeneous models of the components, requires semantic adaptation to ensure proper communication between its various sub-models.In this context, the aim of this thesis is to propose a new approach of semantic adaptation modeling where the semantic adaptation of time and control is specified by defining relationships between the occurrences of events as well as the time tags of these occurrences. This approach was integrated into the ModHel’X platform and tested on the case study of a power window system
APA, Harvard, Vancouver, ISO, and other styles
14

Hu, Yueyun. "Sur le mouvement brownien : calculs de lois ; etudes asymptotiques ; filtrations ; relations avec certaines equations paraboliques." Paris 6, 1996. http://www.theses.fr/1996PA066201.

Full text
Abstract:
Cette these est composee de quatre chapitres. Le premier chapitre consiste en l'etude de certaines fonctionnelles du mouvement brownien et du processus de bessel, a savoir: l'extension de la formule de l'aire de levy a quelques fonctionnelles de processus de bessel recurrents ; le temps d'occupation et l'infimum futur d'un mouvement brownien plan ; les longueurs des excursions du mouvement brownien et de processus de bessel recurrent. Dans le deuxieme chapitre, nous etudions quelques filtrations telles que: la filtration de goswami-rao ; la filtration engendree par la partie negative d'un mouvement brownien ; la filtration du mouvement brownien tronque. Le troisieme chapitre concerne des etudes trajectorielles sur le mouvement brownien itere: la loi du logarithme itere de chung ; la loi fonctionnelle de strassen ; le module de non-differentiabilite. Dans le quatrieme chapitre, nous etudions une classe d'equations paraboliques, ainsi que leurs interpretations probabilistes. Nous nous interessons aux proprietes de stabilisations de solutions classiques au moyen des estimations basees sur les dichotomies exponentielles d'un systeme d'evolution et le principe du maximum parabolique
APA, Harvard, Vancouver, ISO, and other styles
15

Cretin, Dominique. "Relations structure-propriété : calcul de pressions de vapeur et de seuils olfactifs de composés odorants." Lyon 1, 1996. http://www.theses.fr/1996LYO10060.

Full text
Abstract:
Le premier chapitre decrit les etapes necessaires pour etablir des relations structure-activite ou structure-propriete. Dans le deuxieme chapitre, la methode #0#,#5mam basee sur le vecteur d'autocorrelation surface s (calcule a partir des surfaces de bondi) a ete utilisee pour estimer les pressions de vapeur pv a 25c. Elle a ete appliquee avec de bons resultats a cinq echantillons de composes aliphatiques (142 alcanes, 114 alcenes, 44 alcools, 21 cetones, 12 ethers et 33 esters regroupes ensuite en un seul echantillon) et deux echantillons de composes aromatiques (34 alkybenzenes et 36 composes oxygenes ou alkyles monofonctionnels, regroupes ensuite en un seul echantillon). La methode #0#,#5mam a ete comparee favorablement aux indices topologiques de wiener et de kier et aux methodes de contribution de groupe unifac, amp ou ad hoc. Les resultats ont ete ameliores en employant des contributions specifiques aux pressions de vapeur, qui permettent de calculer logpv avec une erreur standard d'estimation de 0,14 pour l'echantillon de 366 composes. Le troisieme chapitre presente les resultats obtenus avec une methode graphique originale de lissage et d'estimation des pols (= - log (seuil olfactif) pour cinq familles de composes lineaires (alcanes, alcools, cetones, aldehydes et acides), tenant compte de leurs proprietes physico-chimiques et olfactives. Des relations structure-odeur ont ete etablies pour un echantillon de 99 alcools aliphatiques presentant principalement des notes camphree et fruitee. L'odeur dominante a ete estimee (95 a 100% de succes) puis predite (74 a 87% de succes) a partir d'une description simple de la structure et a l'aide d'un reseau de neurones a trois couches avec retropropagation. Enfin, un reseau de neurones du meme type a permis de calculer ou de predire le pol de 45 alcools camphres, en utilisant les memes descripteurs (taux de reussite respectifs de 91% et 78%)
APA, Harvard, Vancouver, ISO, and other styles
16

Mansouri, Baya. "Normes internationales élargies et dépassement du calcul de la valeur." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0101/document.

Full text
Abstract:
Dans le processus de la mondialisation, les États ont libéré les échanges et créé les marchés tantcommerciaux que financiers. Les entreprises désormais exposées à une concurrence au niveau dela planète excellent dans des innovations technologiques de production et de commercialisation,d’information et de communication. L’État, le marché-Échange et l’Entreprise cristallisent chacundans ce nouveau monde, une institution. L’existence de chacune implique l’existence des deuxautres. Cette triple implication forme une structure originale appelée ‘‘tiercéïté’’, dite les ‘‘3 E’’.La redéfinition de l’entreprise comme institution suppose donc la redéfinition de la valeur qu’ellecrée. Cette dernière cesse d’être la valeur fixe rétrospective d’une quantité volumique. Elle devientune valeur en mouvement prospective d’une qualité quantifiée du management stratégique intégré.De nouvelles règles comptables règlent celui-ci : les normes comptables internationales élargies.Ces règles exigent des entreprises cotées à produire une valeur de régénération et desurrégénération ou ‘‘profit’’ alignées sur un pouvoir d’achat constant. Pour ce faire, lemanagement stratégique intégré implique de nouveaux comportements de gestion. Ceux-ciabandonnent le calcul arithmétique classique fondé sur l’addition et la soustraction pour lesremplacer par une méthode heuristique de calcul de relations : ‘‘la méthode comptableconditionnelle normative.’’ Ces nouveaux comportements de gestion mobilisés par cette méthodeheuristique pour assurer la nouvelle valeur en mouvement et prospective deviennent le ‘‘compte’’de la comptabilité IFRS de l’entreprise dont la finalité est de : ‘‘mesurer la réalité de la richesseprédictive pour se souvenir ’’(en référence à l’Échange visant la valeur), ‘‘mesurer pour agir’’(enréférence à l’Entreprise visant l’activité) et ‘‘mesurer pour partager’’ (en référence à l’État visant levivre-ensemble)
In the process of globalization, the States released the exchanges and created the markets as wellcommercial as financial. Companies from now on exposed to a competition on the excellent levelof planet in technological innovations of production and marketing, information andcommunication. The State (Etat), the Market-Exchange and the Enterprise crystallize each one inthis new world, an institution. The existence of each one implies the existence of both others. Thistriple implication forms an original structure called « thirdness » (tierceité), said the « 3 E ». Theredefinition of the Enterprise as institution thus supposes the redefinition of the value that itcreates. This last cease to be the retrospective fixed value of a voluminal quantity. It becomes aprospective value moving of a quantified quality of integrated strategic management. Newcountable rules regulate this one : widened international countable standards. These rules requirefor the enterprises those dimensions to produce a value of regeneration and breeding or « profit »aligned on a constant purchasing power. With this intention, integrated strategic managementimplies new behaviors of management. Those give up traditional arithmetic calculation founded onthe addition and the subtraction to replace them by a heuristic method of calculation ofrelations : « Conditional Normative Accounting Method ». These new behaviors of managementmobilized by this heuristic method to ensure the new value moving and prospective become the« account » of the accounting IFRS of the Enterprise whose finality is of: « to measure the realityof the predictive richness to remember » (in reference to the Exchange aiming at the Value), « tomeasure to act » (in reference to the Enterprise aiming at the Activity) and « to measure to divide »(in reference to the State (Etat) aiming at the Live well-offness together)
APA, Harvard, Vancouver, ISO, and other styles
17

Moussa, Béchir. "Etude de stabilité et relation fréquence." Montpellier 2, 1999. http://www.theses.fr/1999MON20064.

Full text
Abstract:
Le travail presente dans ce memoire concerne l'etude de la stabilite des systemes de tensegrite multicellulaires ainsi que la relation entre le niveau d'autocontrainte dans les elements et la premiere frequence du systeme. Un algorithme de calcul a ete concu afin de permettre d'associer les geometries stabilisees (recherche de forme) a l'etude de comportement sous chargements statique et dynamique. Dans ce programme la resolution de l'equation de mouvement est obtenue par utilisation de la methode d'integration implicite de newmark, associee a la methode de newton-raphson pour la resolution de l'equation non lineaire equivalente. La relation entre la tension dans les elements et la premiere frequence sert dans la suite pour controler ou regler la tension a partir de la mesure de cette frequence du systeme. Une methode simplifiee est donnee sous forme d'abaque qui permet de relier l'amplitude du mouvement d'un cable du systeme pris comme reference, a la frequence de resonance et a la tension. Cette etude nous montre qu'on peut modifier la rigidite du systeme en agissant sur un ou une famille d'elements bien specifiques. Ce travail represente ainsi un premier pas vers l'adaptabilite des systemes de tensegrite.
APA, Harvard, Vancouver, ISO, and other styles
18

Gerard, Ulysse. "Computing with relations, functions, and bindings." Thesis, Institut polytechnique de Paris, 2019. http://www.theses.fr/2019IPPAX005.

Full text
Abstract:
Cette thèse s'inscrit dans la longue tradition de l'étude des relations entre logique mathématique et calcul et plus spécifiquement de la programmation déclarative. Le document est divisé en deux contributions principales. Chacune d'entre-elles utilise des résultats récents de la théorie de la démonstration pour développer de techniques novatrices utilisant déduction logique et fonctions pour effectuer des calculs. La première contribution de ce travail consiste en la description et la formalisation d'une nouvelle technique utilisant le mécanisme de la focalisation (un moyen de guider la recherche de preuve) pour distinguer les calculs fonctionnels qui se dissimulent dans les preuves déductives. À cet effet nous formulons un calcul des séquents focalisé pour l'arithmétique de Heyting où points-fixes et égalité sont définis comme des connecteurs logiques et nous décrivons une méthode pour toujours placer les prédicats singletons dans des phases négatives de la preuve, les identifiant ainsi avec un calcul fonctionnel. Cette technique n'étend en aucune façon la logique sous-jacente: ni opérateur de choix, ni règles de réécritures ne sont nécessaires. Notre logique reste donc purement relationnelle même lorsqu'elle calcule des fonctions. La seconde contribution de cette thèse et le design d'un nouveau langage de programmation fonctionnel: MLTS. De nouveau, nous utilisons des travaux théoriques récents en logique: la sémantique de mlts est ainsi une théorie au sein de la logique G, la logique de raisonnement de l'assistant de preuve Abella. La logique G utilise un opérateur spécifique: Nabla, qui est un quantificateur sur des noms "frais" et autorise un traitement naturel des pruves manipulant des objets pouvant contenir des lieurs. Ce traitement s'appuie sur la gestion naturelle des lieurs fournie par le calcul des séquents. La syntaxe de MLTS est basée sur celle du langage de programmation OCaml mais fournit des constructions additionnelles permettant aux lieurs présents dans les termes de se déplacer au niveau du programme. De plus, toutes les opérations sur la syntaxe respectent l'alpha et la béta conversion. Ces deux aspects forment l'approche syntaxique des lieurs appelée lambda-tree syntax. Un prototype d'implémentation du langage est fourni, permettant à chacun d'expérimenter facilement en ligne (url{https://trymlts.github.io})
The present document pursues the decades-long study of the interactions between mathematical logic and functional computation, and more specifically of declarative programming. This thesis is divided into two main contributions. Each one of those make use of modern proof theory results to design new ways to compute with relations and with functions. The first contribution of this work is the description and formalization of a new technique that leverages the focusing mechanism (a way to guide proof-search) to reveal functional computation concealed in deductive proofs. To that extent we formulate a focused sequent calculus proof system for Heyting arithmetic where fixed points and term equality are logical connectives and describe a means to always drive singleton predicates into negative phases of the proof, thus identifying them with functional computation. This method does not extend the underlying logic in any way: no choice principle nor equality theory nor rewriting rules are needed. As a result, our logic remains purely relational even when it is computing functions. The second contribution of this thesis is the design of a new functional programming language: MLTS. Again, we make use of recent work in logic: the semantics of MLTS is a theory inside G-logic, the reasoning logic of the Abella interactive theorem prover. G-logic uses a specific operator: Nabla, a fresh-name quantifier which allows for a natural treatment of proofs over structures with bindings based on the natural handling of bindings of the sequent calculus. The syntax of MLTS is based on the programming language OCaml but provides additional sites so that term-level bindings can move to programming level bindings. Moreover, all operations on syntax respect alpha-beta-conversion. Together these two tenets form the lambda-tree syntax approach to bindings. The resulting language was given a prototype implementation that anyone can conveniently try online (https://trymlts.github.io)
APA, Harvard, Vancouver, ISO, and other styles
19

Dogui, Ayman, and Ayman Dogui. "Modélisation explicite de l'adaptation sémantique entre modèles de calcul." Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-00995072.

Full text
Abstract:
Ce travail traite de la modélisation de systèmes complexes constitués de plusieurs composants impliquant des domaines techniques différents. Il se place dans le contexte de la modélisation hétérogène hiérarchique, selon l'approche à base de modèles de calcul. Chaque composant faisant appel à un domaine technique particulier, son comportement peut être modélisé selon un paradigme de modélisation approprié, avec une sémantique différente de celle des autres composants. La modélisation du système global, qui intègre les modèles hétérogènes de ces composants, nécessite donc une adaptation sémantique permettant l'échange entre les divers sous-modèles.Ce travail propose une approche de modélisation de l'adaptation sémantique où les sémantiques du temps et du contrôle sont explicitement spécifiées par le concepteur en définissant des relations sur les occurrences d'évènements d'une part et sur les étiquettes temporelles de ces occurrences d'autre part. Cette approche est intégrée dans la plateforme ModHel'X et testée sur un cas d'étude : un modèle de lève-vitre électrique.
APA, Harvard, Vancouver, ISO, and other styles
20

Parret-Fréaud, Augustin. "Estimation d'erreur de discrétisation dans les calculs par décomposition de domaine." Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0022/document.

Full text
Abstract:
Le contrôle de la qualité des calculs de structure suscite un intérêt croissant dans les processus de conception et de certification. Il repose sur l'utilisation d'estimateurs d'erreur, dont la mise en pratique entraîne un sur-coût numérique souvent prohibitif sur des calculs de grande taille. Le présent travail propose une nouvelle procédure permettant l'obtention d'une estimation garantie de l'erreur de discrétisation dans le cadre de problèmes linéaires élastiques résolus au moyen d'approches par décomposition de domaine. La méthode repose sur l'extension du concept d'erreur en relation de comportement au cadre des décompositions de domaine sans recouvrement, en s'appuyant sur la construction de champs admissibles aux interfaces. Son développement dans le cadre des approches FETI et BDD permet d'accéder à une mesure pertinente de l'erreur de discrétisation bien avant convergence du solveur lié à la décomposition de domaine. Une extension de la procédure d'estimation aux problèmes hétérogènes est également proposée. Le comportement de la méthode est illustré et discuté sur plusieurs exemples numériques en dimension 2
The control of the quality of mechanical computations arouses a growing interest in both design and certification processes. It relies on error estimators the use of which leads to often prohibitive additional numerical costs on large computations. The present work puts forward a new procedure enabling to obtain a guaranteed estimation of discretization error in the setting of linear elastic problems solved by domain decomposition approaches. The method relies on the extension of the constitutive relation error concept to the framework of non-overlapping domain decomposition through the recovery of admissible interface fields. Its development within the framework of the FETI and BDD approaches allows to obtain a relevant estimation of discretization error well before the convergence of the solver linked to the domain decomposition. An extension of the estimation procedure to heterogeneous problems is also proposed. The behaviour of the method is illustrated and assessed on several numerical examples in 2 dimension
APA, Harvard, Vancouver, ISO, and other styles
21

Latu, Guillaume. "Algorithmique parallèle et calcul haute performance dédiés à la simulation d'un système hôte-macroparasite." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12632.

Full text
Abstract:
Ce travail contribue à un modèle déterministe discret d'un système hôte-macroparasite et propose un modèle stochastique équivalent. Une application du modèle consiste en l'étude quantitative du système Bar-Diplectanum Aequans à l'aide de deux simulateurs parallèles. Une étude algorithmique détaillée est donnée pour le simulateur déterministe. L'extensibilité de très bonne qualité est évaluée théoriquement et testée. Une utilisation optimisée des mémoires caches permet d'atteindre 60 % de la puissance crête au coeur des calculs. Les temps d'exécution sont réduits et la précision des calculs améliorée, ce qui permet de reproduire des dynamiques observées sur le terrain. Le second simulateur utilise une méthode de type Monte Carlo. On donne les performances associées à une programmation hybride sur une grappe de noeuds SMP. L'étude quantitative effectuée sur les résultats des simulateurs donne un éclairage nouveau sur l'interaction des mécanismes des systèmes hôte-macroparasite.
APA, Harvard, Vancouver, ISO, and other styles
22

Dorneles, Caroline Lacerda. "Adição, subtração e cálculo relacional : uma intervenção com alunos do PROEJA FIC/ensino fundamental." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2012. http://hdl.handle.net/10183/69936.

Full text
Abstract:
O presente trabalho tem como objetivo verificar o papel do ensino na aprendizagem da relação inversa entre adição e subtração e se o cálculo relacional pode ajudar no entendimento dessa relação inversa. Os objetivos específicos são: verificar diferenças na compreensão da relação inversa entre adição e subtração antes e após intervenção; e identificar, após a intervenção, as influências do entendimento do cálculo relacional na compreensão da relação inversa. A proposta caracterizou-se por uma pesquisa-intervenção com abordagem qualiquantitativa, realizada com alunos do PROEJA FIC do Instituto Federal Farroupilha, Campus São Borja/RS. O trabalho foi desenvolvido em quatro sessões, com oficinas de problemas matemáticos e aplicação de testes: um pré-teste, aplicado antes da primeira sessão; um pósteste, aplicado após a última sessão; e um pós-teste tardio, aplicado três meses após a última sessão. Para a análise quantitativa utilizamos o método de Análise de Variância (ANOVA) e realizamos uma análise qualitativa das observações, resolução dos problemas e das estratégias utilizadas nos problemas. No pré-teste houve uma pequena diferença de acertos em relação ao pós-teste, já na comparação com o pós-teste tardio os alunos retornaram ao ponto inicial, com o mesmo número de acertos do pré-teste. Ao verificarmos os tipos de problemas, percebemos que no bloco de problemas diretos os alunos tiveram o maior número de acertos. O bloco de problemas indiretos de início desconhecido foi os que os alunos mais erraram, porém no bloco de problemas indiretos de adendo desconhecido houve um aumento do número de acertos do pré-teste para o pós-teste tardio. Na análise dos dados, destacamos que os alunos do PROEJA FIC não compreendem a relação inversa entre adição e subtração, pois ao representar os problemas erraram o resultado por não entender a relação apontada no enunciado. Isso indica desconhecimento do cálculo relacional, porque ao escolherem incorretamente o cálculo para resolver um problema é evidente que as estratégias mentais utilizadas não estão adequadas. Diante disso, constatamos que os alunos do PROEJA FIC estudados não compreendem a relação inversa entre adição e subtração, devido ao fato de ainda não entenderem as relações e os conceitos que envolvem a estrutura aditiva. Assim, as quatro sessões de intervenção foram insuficientes com relação às necessidades apresentadas pelos alunos, sendo que para obter um resultado mais eficaz, com adultos, sugerimos um maior número de intervenções.
This study aims to determine the role of teaching in learning the inverse relationship between addition and subtraction and the relational calculus can help in understanding this inverse relationship. The specific objectives are: to determine differences in understanding the inverse relationship between addition and subtraction before and after intervention; and to identify, after the intervention, the influences of knowing relational calculus in order to understand the inverse relationship. The proposal was characterized by an intervention-research with qualiquantitative approach, conducted with PROEJA FIC students from the Instituto Federal Farroupilha, São Borja Câmpus/RS. The study was carried out in four sessions with mathematical problems workshops and tests application: a pre-test, applied before the first session; a post-test, applied after the last session; and a delayed post-test, applied three months after the last session. For the quantitative analysis we used the method of analysis of variance (ANOVA) and performed a qualitative analysis of the observations, problems solving and strategies used in the problems. During the pre-test there was a small difference in hits in relation to the post-test. When compared to the delayed post-test, the students returned to their starting point, with the same number of hits from the pre-test. When we observed the types of problems involved, we noticed that the students had the highest number of hits on the block of direct problems. The block of indirect problems with unknown beginning was the one the students missed the most, but in the block of indirect problems with unknown addendum there was an increased number of hits from the pre-test to the delayed post-test. During the data analysis, we highlight that the PROEJA FIC students did not understand the inverse relationship between addition and subtraction, since when representing the problems they failed by not understanding the relationship indicated in the statement. This demonstrates a lack of knowledge on relational calculus, because by choosing incorrectly the calculus to solve a problem it is clear that the mental strategies used are not appropriate. Therefore, we observed that the PROEJA FIC students do not understand the inverse relationship between addition and subtraction, due to the fact they are still not able to understand the relationships and concepts involving the additive structure. Thus, the four intervention sessions were insufficient regarding the needs presented by the students. In order to obtain a more effective result with adults, we suggest a higher number of interventions.
APA, Harvard, Vancouver, ISO, and other styles
23

Cuissart, Bertrand. "Plus grande structure commune à deux graphes : méthode de calcul et intérêt dans un contexte SAR." Caen, 2004. http://www.theses.fr/2004CAEN2043.

Full text
Abstract:
Notre travail est une contribution à la résolution de problèmes de classification supervisée dans le domaine de l'informatique chimique, les problèmes SAR. Ces problèmes, destinés à construire des modèles reliant les structures chimiques avec une activité physico-chimique ou biologique, portent sur des objets, les molécules, modélisés par des graphes. Dans ce cadre, nous étudions le plus grand sous-graphe commun à deux graphes comme moyen de description des molécules. Nous commençons par présenter un algorithme permettant de déterminer un plus grand sous-graphe commun à deux graphes, les sous-graphes considérés étant les sous-graphes induits et connexes. Cet algorithme est performant et souple : il s'adapte directement à d'autres notions de plus grand sous-graphe commun. Nous évaluons ensuite l'intérêt du plus grand sous-graphe commun pour un problème SAR particulier : la prédiction de la biodégradabilité facile. Dans ce contexte, nous montrons que les similarités établies uniquement en quantifiant l'importance du plus grand sous-graphe commun regroupent effectivement des molécules d'activité similaire. De plus, en fonctionnant directement à partir des objets étudiés, le plus grand sous-graphe commun permet une première exploration des données d'un nouveau problème SAR. Ces travaux expérimentaux permettent de conclure sur l'intérêt effectif du plus grand sous-graphe commun dans la construction des modèles SAR.
APA, Harvard, Vancouver, ISO, and other styles
24

Laloum, Eric. "Classification de calculs biliaires et urinaires à partir de spectres vibrationnels et de critères morphologiques : relation avec des données cliniques." Châtenay-Malabry, Ecole centrale de Paris, 1998. http://www.theses.fr/1998ECAP0591.

Full text
Abstract:
La lithiase est une complication fréquente de la cristallisation au sein des liquides sursaturés de l'organisme que sont la bile et l'urine. La prévention de la maladie repose sur une meilleure connaissance de la lithogenèse ; et l'analyse des calculs y joue un rôle majeur à double titre : au niveau thérapeutique, pour orienter me traitement médical de la lithiase et ainsi éviter la récidive, et au niveau épidémiologique, pour identifier les facteurs de risque associes aux divers types de calculs. Plusieurs centaines de calculs biliaires et urinaires de porteurs de diverses ethnies (France, Maghreb et Vietnam) ont été analysées par spectrométries d'absorption infrarouge et de diffusion Raman. Un examen morphologique des calculs ainsi qu'un questionnaire clinique ont complété ces analyses. Afin de trouver des associations entre les trois jeux de données expérimentales de notre étude, des techniques statistiques multivariables ont été utilisées.
APA, Harvard, Vancouver, ISO, and other styles
25

Terwait, Abdallah. "Le calcul des Rd (Relations de discours) : approche sémantico-pragmatique et cognitive de la causalité en rapport avec la temporalité." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUL176.

Full text
Abstract:
Cette thèse se propose d’aborder la question de la causalité dans une perspective formelle inspirée du cadre de la SDRT (Segmented Discourse Representation Theory). Elle prête en particulier attention aux expressions paratactiques de la relation de causalité. Cette approche nous paraît intéressante et féconde par l’approche formaliste qu’elle met en œuvre, son objet étant particulièrement labile. L’analyse, dans ce travail, est notamment centrée sur l’expression linguistique des relations causales. L’approche adoptée, pour mener à bien les traitements, est dans une large mesure de nature sémantico-pragmatique. Bien que le fonctionnement de la causalité marquée linguistiquement, notamment au moyen de parce que, soit particulièrement documenté dans le paysage scientifique (Moeschler 2003, Rossari 2004, Knott 1996, etc), les enchaînements non marqués (paratactiques) semblent être peu étudiés dans les recherches linguistiques. Ce qui constitue en quelque sorte la motivation principale qui a impulsé la mise en œuvre de cette monographie. Cette étude pourrait donc se situer à l’interface entre linguistique théorique et linguistique formelle. Les traitements qui y sont effectués prennent appui dans une large part sur le corpus EXPLICADIS (Explication et Argumentation en Discours). Le choix de cette ressource pourrait se justifier de la sorte : ce corpus permet de rendre compte des relations causales selon une approche sémasiologique consistant à s’appuyer presque exclusivement sur la relation elle-même sans tenir compte de ses marqueurs linguistiques. Par ailleurs, nous aborderons, dans cette recherche, la question de la Causation. Sur ce plan, le traitement argumental (« Le spectre argumental ») des verbes dits causatifs (causer, provoquer, déclencher, etc.) nous permettrait de noter que les arguments de ce type particulier de prédicats admettraient une interprétation propositionnelle. L’hypothèse de départ est que la causation, ainsi conçue, semble représenter une relation inter-propositionnelle implicite ou plus simplement sous-jacente. Bien plus, nous nous intéresserons à la dichotomie causalité / agentivité
This thesis proposes to address the question of causality in a formal perspective inspired by the framework of SDRT (Segmented Discourse Representation Theory). In particular, she pays attention to paratactic expressions of the causal relationship. This approach seems interesting and fruitful to us by the formalistic approach that it implements, its object being particularly labile. The analysis in this work focuses on the linguistic expression of causal relationships. The approach adopted to carry out treatments is to a large extent semantico-pragmatic. Although the functioning of linguistically marked causality, especially by means of because, is particularly documented in the scientific landscape (Moeschler 2003, Rossari 2004, Knott 1996, etc.), untagged sequences (paratactic) seem to be little studied in the linguistic research. This is in a way the main motivation that drove the implementation of this monograph. This study could therefore be situated at the interface between theoretical linguistics and formal linguistics. The treatments that are carried out rely largely on the EXPLICADIS corpus (Explanation and Speech argumentation). The choice of this resource could be justified in this way: this corpus makes it possible to account for causal relations according to a semasiological approach of relying almost exclusively on the relation itself without taking into account its linguistic markers.Moreover, we will address, in this research, the question of the Causation. In this respect, the argumental treatment ("the speculative spectrum") of so-called causative verbs (cause, provoke, trigger, etc.) would allow us to note that the arguments of this particular type of predicate would admit a propositional interpretation. The initial hypothesis is that the causation, thus conceived, seems to represent an implicit or more simply underlying inter-propositional relation. Moreover, we will focus on the causality / agency dichotomy
APA, Harvard, Vancouver, ISO, and other styles
26

Parret-fréaud, Augustin. "Estimation d'erreur de discrétisation dans les calculs par décomposition de domaine." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00846069.

Full text
Abstract:
Le contrôle de la qualité des calculs de structure suscite un intérêt croissant dans les processus de conception et de certification. Il repose sur l'utilisation d'estimateurs d'erreur, dont la mise en pratique entraîne un sur-coût numérique souvent prohibitif sur des calculs de grande taille. Le présent travail propose une nouvelle procédure permettant l'obtention d'une estimation garantie de l'erreur de discrétisation dans le cadre de problèmes linéaires élastiques résolus au moyen d'approches par décomposition de domaine. La méthode repose sur l'extension du concept d'erreur en relation de comportement au cadre des décompositions de domaine sans recouvrement, en s'appuyant sur la construction de champs admissibles aux interfaces. Son développement dans le cadre des approches FETI et BDD permet d'accéder à une mesure pertinente de l'erreur de discrétisation bien avant convergence du solveur lié à la décomposition de domaine. Une extension de la procédure d'estimation aux problèmes hétérogènes est également proposée. Le comportement de la méthode est illustré et discuté sur plusieurs exemples numériques en dimension 2.
APA, Harvard, Vancouver, ISO, and other styles
27

Lasson, Marc. "Réalisabilité et paramétricité dans les systèmes de types purs." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2012. http://tel.archives-ouvertes.fr/tel-00770669.

Full text
Abstract:
Cette thèse porte sur l'adaptation de la réalisabilité et la paramétricité au cas des types dépendants dans le cadre des Systèmes de Types Purs. Nous décrivons une méthode systématique pour construire une logique à partir d'un langage de programmation, tous deux décrits comme des systèmes de types purs. Cette logique fournit des formules pour exprimer des propriétés des programmes et elle offre un cadre formel adéquat pour développer une théorie de la réalisabilité au sein de laquelle les réalisateurs des formules sont exactement les programmes du langage de départ. Notre cadre permet alors de considérer les théorèmes de représentation pour le système T de Gödel et le système F de Girard comme deux instances d'un théorème plus général.Puis, nous expliquons comment les relations logiques de la théorie de la paramétricité peuvent s'exprimer en terme de réalisabilité, ce qui montre que la logique engendrée fournit un cadre adéquat pour développer une théorie de la paramétricité du langage de départ. Pour finir, nous montrons comment cette théorie de la paramétricité peut-être adaptée au système sous-jacent à l'assistant de preuve Coq et nous donnons un exemple d'application original de la paramétricité à la formalisation des mathématiques.
APA, Harvard, Vancouver, ISO, and other styles
28

Waeytens, Julien. "Contrôle des calculs en dynamique : bornes strictes et pertinentes sur une quantité d'intérêt." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2010. http://tel.archives-ouvertes.fr/tel-00561476.

Full text
Abstract:
Dans l'industrie, l'objectif est de remplacer certains essais expérimentaux très coûteux par des simulations numériques. Cependant, peut-on faire confiance à la simulation numérique? C'est l'objet de la thématique de recherche appelée "vérification". Elle a pour but d'estimer l'erreur commise entre la solution du modèle mathématique et celle fournie par un modèle numérique. De plus, pour le dimensionnement de structures, l'ingénieur requiert que cet estimateur d'erreur soit garanti, c'est à dire qu'il majore l'erreur réelle, et qu'il soit pertinent, c'est à dire qu'il soit proche de l'erreur réelle. Les travaux présentés ici consistent tout d'abord à prouver la faisabilité de la méthode d'obtention de bornes garanties de l'erreur sur une quantité d'intérêt dans le cadre de la dynamique transitoire. Cette méthode est basée sur le concept d'erreur en relation de comportement et la résolution d'un problème adjoint. Dans un deuxième temps, différentes stratégies sont développées afin d'améliorer la pertinence de l'estimateur d'erreur locale. Enfin, cette méthode est étendue aux quantités d'intérêt ponctuelles. La difficulté majeure réside dans la résolution du problème adjoint dont le chargement est singulier. Pour cela, nous avons choisi de décomposer la solution en une partie analytique, déterminée à partir des fonctions de Green de dynamique, et d'une partie numérique, déterminée à l'aide de la méthode des éléments finis et d'un schéma d'intégration temporel. Tous ces aspects visant à mettre en place les premières bornes garanties et pertinentes de l'erreur sur une quantité d'intérêt en dynamique, sont illustrés et validés sur des exemples numériques en 2D.
APA, Harvard, Vancouver, ISO, and other styles
29

Rabahi, Tahar. "Étude des relations entre stimuli cognitifs et la motricité relative à un geste complexe." Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10023/document.

Full text
Abstract:
Plusieurs travaux ont montré que les aires cortico-motrices, localisées dans le cortex frontal et responsables des mouvements volontaires, pouvaient être impliquées dans le processus de compréhension de mots d'action. De ce point de vue, il a été rapporté que la performance d'un acte moteur simple (e.g.: attraper un objet) pouvait être améliorée par la prononciation, la lecture ou l'écoute de mots évoquant une action. Nous avons approché la relation entre parole et action à travers l'étude de l'effet de verbes d'action ainsi que d'autres stimuli cognitifs, l'imagerie kinesthésique (IK) et la soustraction mentale (SM), sur la performance d'un acte moteur complexe, le Squat Vertical Jump (SVJ, ou saut vertical accroupi). Nous avons mesuré la hauteur du SVJ chez des hommes (7 expériences, n = 114) et des femmes (2 expériences, n = 41) à l'aide de deux systèmes de mesure, l'Optojump® et le Myotest®. Les résultats ont montré que la prononciation silencieuse et à haute voix du verbe d'action spécifique au SVJ (saute, conjugué à la première personne de l'impératif), ainsi que l'IK et la SM, améliorent significativement la performance du saut, chez les hommes (jusqu'à + 2,7 cm) et, de manière moins prononcée, chez les femmes (jusqu'à + 1 cm dans 2 expériences). Le reste des résultats obtenus avec les hommes ont indiqué que la prononciation du verbe d'action non spécifique au saut (pince) augmente également la hauteur en SVJ, alors que la prononciation ou l'écoute d'autres verbes sans lien avec le saut (lèche, bouge) n'ont pas eu d'effet significatif sur le SVJ. C'est également le cas du verbe d'état 'rêve et d'un verbe incompréhensible par les sujets (tiào : saute en Chinois) ou encore des verbes qui contredisent et/ou qui s'opposent au déroulement de l'action de sauter (tombe et stoppe). La hauteur du saut a été par ailleurs significativement impactée lorsque les sujets ont prononcé des verbes à fort attributs émotifs (gagne et son antonyme perds)
Several studies have shown that cortical motor areas, located in the frontal cortex and responsible for voluntary movement, might be involved in the process of understanding action words. From this point of view, it has been reported that the performance of a simple motor act (e.g.: catching an object) might be improved by the pronunciation, reading or listening to words referring to the action. We approached the relationship between speech and action through the study of the effect of action verbs and other cognitive stimuli, kinesthetic imagery (KI) and mental subtraction (MS), upon the performance of a complex motor act, the Squat vertical jump (SVJ). We measured the height of SVJ in young naive men (7 experiments, n = 114) and women (2 experiments, n = 41) using an Optojump® and a Myotest® apparatuses. The results showed that the silent and loud pronunciation of specific action verb to SVJ (jump), the KI and the MS improved significantly the performance of the movement, in men (up to 2.7 cm) but less in women (up to + 1 cm in the 2 experiments). The results of other experiments obtained with men indicated that pronunciation of the action verb nonspecific to the jump (pinch) increased also the SVJ performance, while the pronunciation or listening to other verbs unrelated to the jump (Jick, move) had no significant effect on the SVJ. A meaningless verb for the French subjects (tiao = jump in Chinese) showed, in turn, no effect as did dream, faJJ and stop. The verb win improved significantly the SVJ height as much as its antonym Jose, thus suggesting a possible influence of affects in the subjects' performance. It appears that the effects of the specific action verb jump did seem effective but not totally exclusive for the enhancement of the SVJ performance, since non-linguistic stimuli (IK) or unrelated to action (MS) may have had a positive effect on the improvement in motor performance. Moreover verbs referring to emotion, unrelated to action, increased the height of SVJ similarly to the specific action verb jump. The results led us to consider the hypothesis that improving the performance of a complex gesture is dependent, a minima, upon the individual's intention, attention, emotions and also, and perhaps most importantly, concepts (we call concepts, the mental representations) as they may be induced by the cerebral processing of words
APA, Harvard, Vancouver, ISO, and other styles
30

Augier, Sébastien. "Apprentissage Supervisé Relationnel par Algorithmes d'Évolution." Phd thesis, Université Paris Sud - Paris XI, 2000. http://tel.archives-ouvertes.fr/tel-00947322.

Full text
Abstract:
Cette thèse concerne l'apprentissage de règles relationnelles à partir d'exemples et de contre-exemples, à l'aide d'algorithmes évolutionnaires. Nous étudions tout d'abord un biais de langage offrant une expressivité suffisamment riche pour permettre de couvrir à la fois le cadre de l'apprentissage relationnel par interprétations et les formalismes propositionnels classiques. Bien que le coût de l'induction soit caractérisé par la complexité NP-difficile du test de subsomption pour cette classe de langages, une solution capable de traiter en pratique les problèmes réels complexes est proposée. Le système SIAO1, qui utilise ce biais de langage pour l'apprentissage de règles relationnelles est ensuite présenté. Il est fondé sur une stratégie de recherche évolutionnaire qui se distingue principalement des approches classiques par: - des opérateurs de mutation et de croisement dirigés par la théorie du domaine et par les exemples d'apprentissage; - le respect de la relation d'ordre définie sur le langage. L'évaluation du système sur plusieurs bases faisant référence en apprentissage automatique montre que SIAO1 est polyvalent, se compare favorablement aux autres approches et sollicite peu l'utilisateur en ce qui concerne la spécification de biais de recherche ou d'évaluation. La troisième partie de ce travail propose deux architectures parallèles génériques derivées des modèles maître-esclave asynchrone et du pipeline. Elles sont étudiées dans le cadre de l'extraction de connaissances à partir de données à l'aide de SIAO1 du point de vue de l'accélération qu'elles procurent d'une part et de leur capacité à changer d'échelle d'autre part. Un modèle de prédiction simple mais précis des performances de chacune des architectures parallèles est également proposé.
APA, Harvard, Vancouver, ISO, and other styles
31

Jaber, Ghaleb. "Le langage pascal/relationnel : un langage de programmation de bases de donnees." Toulouse 3, 1987. http://www.theses.fr/1987TOU30222.

Full text
Abstract:
Presentation du langage pascal/relationnel construit a partir de pascal par adjonction de constructions venant du domaine des bases de donnees ainsi que la conception et l'implantation du traducteur du langage. Les instructions relationnelles sont inspirees du calcul des predicats et permettent les operations classiques offertes par les systemes de gestion de bases de donnees relationnelles
APA, Harvard, Vancouver, ISO, and other styles
32

Rmou, Abdelaziz. "Calcul numérique des coefficients d'ionisation par impact dans Ga1-xAlxSb (0<- x <- 0,08) : Relation avec la structure de bandes." Montpellier 2, 1994. http://www.theses.fr/1994MON20089.

Full text
Abstract:
Ce travail presente le calcul numerique des probabilites d'ionisation par impact dans ga#1#-#xal#xsb(0x,,08) et donne une estimation des coefficients d'ionisation. Ce travail a permis: de calculer la variation des coefficients d'ionisation des trous et des electrons en fonction du champ electrique et de la composition en aluminium dans ga#1#-#xal#xsb. De mettre en evidence l'existence d'un maximum du coefficient d'ionisation de trous pour une composition x non nulle. Ce maximum a pour origine la decroissance de la densite d'etats permis pour l'ionisation avec la composition, d'une part, et l'accroissement de la probabilite du au desordre d'alliage d'autre part. De montrer les effets de l'anisotropie de la structure de bandes sur l'ionisation des electrons. Ces resultats sont coherents avec les resultats experimentaux obtenus au laboratoire. Ils montrent que la condition d'egalite gap = eclatement spinorbit ne peut a elle seule rendre compte du maximum d'ionisation de trous
APA, Harvard, Vancouver, ISO, and other styles
33

Steinhaus, Sebastian. "Constructing quantum spacetime : relation to classical gravity." Phd thesis, Universität Potsdam, 2014. http://opus.kobv.de/ubp/volltexte/2015/7255/.

Full text
Abstract:
Despite remarkable progress made in the past century, which has revolutionized our understanding of the universe, there are numerous open questions left in theoretical physics. Particularly important is the fact that the theories describing the fundamental interactions of nature are incompatible. Einstein's theory of general relative describes gravity as a dynamical spacetime, which is curved by matter and whose curvature determines the motion of matter. On the other hand we have quantum field theory, in form of the standard model of particle physics, where particles interact via the remaining interactions - electromagnetic, weak and strong interaction - on a flat, static spacetime without gravity. A theory of quantum gravity is hoped to cure this incompatibility by heuristically replacing classical spacetime by quantum spacetime'. Several approaches exist attempting to define such a theory with differing underlying premises and ideas, where it is not clear which is to be preferred. Yet a minimal requirement is the compatibility with the classical theory, they attempt to generalize. Interestingly many of these models rely on discrete structures in their definition or postulate discreteness of spacetime to be fundamental. Besides the direct advantages discretisations provide, e.g. permitting numerical simulations, they come with serious caveats requiring thorough investigation: In general discretisations break fundamental diffeomorphism symmetry of gravity and are generically not unique. Both complicates establishing the connection to the classical continuum theory. The main focus of this thesis lies in the investigation of this relation for spin foam models. This is done on different levels of the discretisation / triangulation, ranging from few simplices up to the continuum limit. In the regime of very few simplices we confirm and deepen the connection of spin foam models to discrete gravity. Moreover, we discuss dynamical, e.g. diffeomorphism invariance in the discrete, to fix the ambiguities of the models. In order to satisfy these conditions, the discrete models have to be improved in a renormalisation procedure, which also allows us to study their continuum dynamics. Applied to simplified spin foam models, we uncover a rich, non--trivial fixed point structure, which we summarize in a phase diagram. Inspired by these methods, we propose a method to consistently construct the continuum theory, which comes with a unique vacuum state.
Trotz bemerkenswerter Fortschritte im vergangenen Jahrhundert, die unser Verständnis des Universums revolutioniert haben, gibt es noch zahlreiche ungeklärte Fragen in der theoretischen Physik. Besondere Bedeutung kommt der Tatsache zu, dass die Theorien, welche die fundamentalen Wechselwirkungen der Natur beschreiben, inkompatibel sind. Nach Einsteins allgemeiner Relativitätstheorie wird die Gravitation durch eine dynamische Raumzeit dargestellt, die von Materie gekrümmt wird und ihrerseits durch die Krümmung die Bewegung der Materie bestimmt. Dem gegenüber steht die Quantenfeldtheorie, die die verbliebenen Wechselwirkungen - elektromagnetische, schwache und starke Wechselwirkung - im Standardmodell der Teilchenphysik beschreibt, in dem Teilchen auf einer statischen Raumzeit -- ohne Gravitation -- miteinander interagieren. Die Hoffnung ist, dass eine Theorie der Quantengravitation diese Inkompatibilität beheben kann, indem, heuristisch, die klassische Raumzeit durch eine 'Quantenraumzeit' ersetzt wird. Es gibt zahlreiche Ansätze eine solche Theorie zu definieren, die auf unterschiedlichen Prämissen und Ideen beruhen, wobei a priori nicht klar ist, welche zu bevorzugen sind. Eine Minimalanforderung an diese Theorien ist Kompatibilität mit der klassischen Theorie, die sie verallgemeinern sollen. Interessanterweise basieren zahlreiche Modelle in ihrer Definition auf Diskretisierungen oder postulieren eine fundamentale Diskretheit der Raumzeit. Neben den unmittelbaren Vorteilen, die Diskretisierungen bieten, z.B. das Ermöglichen numerischer Simulationen, gibt es auch gravierende Nachteile, die einer ausführlichen Untersuchung bedürfen: Im Allgemeinen brechen Diskretisierungen die fundamentale Diffeomorphismensymmetrie der Gravitation und sind in der Regel nicht eindeutig definiert. Beides erschwert die Wiederherstellung der Verbindung zur klassischen, kontinuierlichen Theorie. Das Hauptaugenmerk dieser Doktorarbeit liegt darin diese Verbindung insbesondere für Spin-Schaum-Modelle (spin foam models) zu untersuchen. Dies geschieht auf sehr verschiedenen Ebenen der Diskretisierung / Triangulierung, angefangen bei wenigen Simplizes bis hin zum Kontinuumslimes. Im Regime weniger Simplizes wird die bekannte Verbindung von Spin--Schaum--Modellen zu diskreter Gravitation bestätigt und vertieft. Außerdem diskutieren wir dynamische Prinzipien, z.B. Diffeomorphismeninvarianz im Diskreten, um die Ambiguitäten der Modelle zu fixieren. Um diese Bedingungen zu erfüllen, müssen die diskreten Modelle durch Renormierungsverfahren verbessert werden, wodurch wir auch ihre Kontinuumsdynamik untersuchen können. Angewandt auf vereinfachte Spin-Schaum-Modelle finden wir eine reichhaltige, nicht-triviale Fixpunkt-Struktur, die wir in einem Phasendiagramm zusammenfassen. Inspiriert von diesen Methoden schlagen wir zu guter Letzt eine konsistente Konstruktionsmethode für die Kontinuumstheorie vor, die einen eindeutigen Vakuumszustand definiert.
APA, Harvard, Vancouver, ISO, and other styles
34

Latourte, Felix. "IDENTIFICATION DES PARAMETRES D'UNE LOI ELASTOPLASTIQUE DE PRAGER ET CALCUL DE CHAMPS DE CONTRAINTE DANS DES MATERIAUX HETEROGENES." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00214302.

Full text
Abstract:
Cette Thèse porte sur l'identification de comportements élastoplastiques ou élastiques hétérogènes à partir de mesures de champs cinématiques au moyen de fonctionnelles de type erreur en relation de comportement (ERC). Ce travail fait suite aux travaux de G. Geymonat, S. Pagano et F. Hild sur l'identification de propriétés élastiques par approche variationnelle. La méthode d'identification est exposée puis appliquée à diverses situations mécaniques, pour des données simulées ou issues d'expérimentations.
Les applications présentées concernent l'identification de propriétés élastiques hétérogènes, l'estimation de puissances mécaniques localement fournies lors d'essais de fatigue à grand nombre de cycles, et l'identification de propriétés élastoplastiques hétérogènes.
APA, Harvard, Vancouver, ISO, and other styles
35

Orange, Sébastien. "Calcul de corps de décomposition : utilisations fines d' ensembles de permutations en théorie de Galois effective." Paris 6, 2006. http://www.theses.fr/2006PA066307.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Bellec, Jérémie. "Prise en compte de la variabilité dans le calcul de structures avec contact." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2008. http://tel.archives-ouvertes.fr/tel-00472143.

Full text
Abstract:
aL'objectif de ce travail est la représentation et la propagation de variabilités dues aux incertitudes dans lescalculs d'assemblages complexes. Nous avons donc commencé par distinguer les différents types de paramètresvariables à modéliser et par répertorier un certain nombre de moyens permettant d'obtenir des informationsstatistiques sur ceux-ci. Nous avons ensuite fait une étude bibliographique des différentes méthodes de calculpermettant de traiter ces incertitudes avec une attention particulière pour les méthodes probabilistes dites nonintrusives que nous avons testé sur un exemple simple. La disparité des résultats obtenus nous à amener à définir unestimateur d'erreur dans le cadre stochastique permettant de quantifier la qualité des modèles utilisés. A partir de cetestimateur, nous avons définit deux indicateurs heuristiques spécifiques permettant de distinguer la part de l'erreurdue à l'approximation stochastique de celle due à l'approximation géométrique. Ces outils ont ensuite permis dedéfinir une technique de calcul adaptative pour les problèmes stochastiques que nous avons appliqué sur un problèmecomplexe proposé par SNECMA.
APA, Harvard, Vancouver, ISO, and other styles
37

Rasi, Gislaine Carvalho. "Estruturas multiplicativas: concepções de alunos de ensino fundamental." Pontifícia Universidade Católica de São Paulo, 2009. https://tede2.pucsp.br/handle/handle/11386.

Full text
Abstract:
Made available in DSpace on 2016-04-27T16:58:53Z (GMT). No. of bitstreams: 1 Gislaine Carvalho Rasi.pdf: 1747233 bytes, checksum: 4f40765a8bbdc3c1992a7e8627987590 (MD5) Previous issue date: 2009-05-28
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
This research comprehends the multiplicative structures and its objective is to investigate the conceptions the seventh grade students put in motion when they establish ternary relations and the relational calculus. We especially search to verify how these students deal with the multiplicative relations which involve notions of transformation and binary composition, and how they make use of the properties of multiplication. Our theoretical approach is based upon Vergnaud s contributions (1991, 1996) presented in the Conceptual Fields Theory and in the Multiplicative Conceptual Field, mainly on the notions of relation and relational calculus which allowed the elaboration of activities and the results analysis. As for the methodology adopted, we chose the case study, which allowed a better comprehension of the relations established by students during the resolution of multiplicative problems, and thus contributing to the achievement of our objective. With instruments of data collection, we made observations during the activities accomplishment, in two study groups and we collected the children s written record of these activities resolution. We verified, in the data analysis, that students have a certain difficulty in composing two transformations and a concentration in the establishment of ternary relations which involve the transformation notion. These observations demonstrated the importance of improving the work with multiplicative structures in a way to promote a good variety of situations and relations regarding the Multiplicative Conceptual Field, especially the ternary relations, as a law of binary composition with its properties
Esta pesquisa aborda as estruturas multiplicativas e tem como objetivo investigar as concepções que os alunos do sétimo ano mobilizam quando estabelecem relações ternárias e o cálculo relacional. Procuramos, especialmente, verificar como esses alunos tratam as relações multiplicativas que envolvem noções de transformação e de composição binária e como utilizam as propriedades da multiplicação. Nossa fundamentação teórica apóia-se nas contribuições de Vergnaud (1991, 1996) apresentadas na Teoria dos Campos Conceituais e no Campo Conceitual Multiplicativo, sobretudo, nas noções de relação e cálculo relacional que permitiram a elaboração das atividades e a análise dos resultados. Quanto à metodologia, escolhemos o estudo de caso que possibilitou uma melhor compreensão das relações estabelecidas pelos alunos durante a resolução de problemas multiplicativos, propiciando o alcance de nosso objetivo. Como instrumentos de coleta de dados, fizemos observações durante a aplicação das atividades, em dois grupos de estudo e recolhemos o registro escrito pelas crianças da resolução dessas atividades. Na análise dos dados constatamos que os alunos apresentam alguma dificuldade ao compor duas transformações e uma concentração no estabelecimento das relações ternárias que envolvem a noção de transformação. Estas constatações demonstraram a importância da ampliação do trabalho com as estruturas multiplicativas, de modo a promover grande variedade de situações e relações que dizem respeito ao Campo Conceitual Multiplicativo, em especial, às relações ternárias, como uma lei de composição binária com suas propriedades
APA, Harvard, Vancouver, ISO, and other styles
38

Neiger, Vincent. "Bases of relations in one or several variables : fast algorithms and applications." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEN052.

Full text
Abstract:
Dans cette thèse, nous étudions des algorithmes pour un problème de recherche de relations à une ou plusieurs variables. Il généralise celui de calculer une solution à un système d’équations linéaires modulaires sur un anneau de polynômes, et inclut par exemple le calcul d’approximants de Hermite-Padé ou d’interpolants bivariés. Plutôt qu’une seule solution, nous nous attacherons à calculer un ensemble de générateurs possédant de bonnes propriétés. Précisément, l’entrée de notre problème consiste en un module de dimension finie spécifié par l’action des variables sur ses éléments, et en un certain nombre d’éléments de ce module ; il s’agit de calculer une base de Gröbner du modules des relations entre ces éléments. En termes d’algèbre linéaire, l’entrée décrit une matrice avec une structure de type Krylov, et il s’agit de calculer sous forme compacte une base du noyau de cette matrice. Nous proposons plusieurs algorithmes en fonction de la forme des matrices de multiplication qui représentent l’action des variables. Dans le cas d’une matrice de Jordan,nous accélérons le calcul d’interpolants multivariés sous certaines contraintes de degré ; nos résultats pour une forme de Frobenius permettent d’accélérer le calcul de formes normales de matrices polynomiales univariées. Enfin, dans le cas de plusieurs matrices denses, nous accélérons le changement d’ordre pour des bases de Gröbner d’idéaux multivariés zéro-dimensionnels
In this thesis, we study algorithms for a problem of finding relations in one or several variables. It generalizes that of computing a solution to a system of linear modular equations over a polynomial ring, including in particular the computation of Hermite- Padéapproximants and bivariate interpolants. Rather than a single solution, we aim at computing generators of the solution set which have good properties. Precisely, the input of our problem consists of a finite-dimensional module given by the action of the variables on its elements, and of some elements of this module; the goal is to compute a Gröbner basis of the module of syzygies between these elements. In terms of linear algebra, the input describes a matrix with a type of Krylov structure, and the goal is to compute a compact representation of a basis of the nullspace of this matrix. We propose several algorithms in accordance with the structure of the multiplication matrices which specify the action of the variables. In the case of a Jordan matrix, we accelerate the computation of multivariate interpolants under degree constraints; our result for a Frobenius matrix leads to a faster algorithm for computing normal forms of univariate polynomial matrices. In the case of several dense matrices, we accelerate the change of monomial order for Gröbner bases of multivariate zero-dimensional ideals
APA, Harvard, Vancouver, ISO, and other styles
39

Pled, Florent. "Vers une stratégie robuste et efficace pour le contrôle des calculs par éléments finis en ingénierie mécanique." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00776633.

Full text
Abstract:
Ce travail de recherche vise à contribuer au développement de nouveaux outils d'estimation d'erreur globale et locale en ingénierie mécanique. Les estimateurs d'erreur globale étudiés reposent sur le concept d'erreur en relation de comportement à travers des techniques spécifiques de construction de champs admissibles, assurant l'aspect conservatif ou garanti de l'estimation. Une nouvelle méthode de construction de champs admissibles est mise en place et comparée à deux autres méthodes concurrentes, en matière de précision, coût de calcul et facilité d'implémentation dans les codes éléments finis. Une amélioration de cette nouvelle méthode hybride fondée sur une minimisation locale de l'énergie complémentaire est également proposée. Celle-ci conduit à l'introduction et à l'élaboration de critères géométriques et énergétiques judicieux, permettant un choix approprié des régions à sélectionner pour améliorer localement la qualité des champs admissibles. Dans le cadre des estimateurs d'erreur locale basés sur l'utilisation conjointe des outils d'extraction et des estimateurs d'erreur globale, deux nouvelles techniques d'encadrement de l'erreur en quantité d'intérêt sont proposées. Celles-ci sont basées sur le principe de Saint-Venant à travers l'emploi de propriétés spécifiques d'homothétie, afin d'améliorer la précision des bornes d'erreur locale obtenues à partir de la technique d'encadrement classique fondée sur l'inégalité de Cauchy-Schwarz. Les diverses études comparatives sont menées dans le cadre des problèmes d'élasticité linéaire en quasi-statique. Le comportement des différents estimateurs d'erreur est illustré et discuté sur des exemples numériques tirés d'applications industrielles. Les travaux réalisés constituent des éléments de réponse à la problématique de la vérification dans un contexte industriel.
APA, Harvard, Vancouver, ISO, and other styles
40

Vergu, Cristian. "Twisters, cordes et théories de jauge supersymétriques." Paris 6, 2008. http://www.theses.fr/2008PA066258.

Full text
Abstract:
Cette thèse a pour but l'étude des amplitudes de diffusion dans des théories conformes à quatre dimensions et, plus particulièrement la théorie de jauge {N}=4 supersymétrique. On étudie cette théorie premièrement au niveau des arbres en utilisant des techniques twistorielles et nous rappelons les modèles de cordes twistorielles qui ont été proposées pour la décrire. Dans la deuxième partie on traite les relations d'itération et les ansatze pour la forme des amplitudes à tous les ordres. On rappelle la méthode d'unitarité pour les calculs des amplitudes et on discute la dualité entre amplitudes de diffusion et boucles de Wilson qui a été inspirée par la prescription de Alday et Maldacena pour les amplitudes de diffusion à couplage fort. On décrit en détail le calcul d'une amplitude de diffusion pour six points à deux boucles et son étonnante égalité avec la boucle de Wilson polygonale.
APA, Harvard, Vancouver, ISO, and other styles
41

Thai, Hoang phuong. "Sur l'utilisation de l'analyse isogéométrique en mécanique linéaire ou non-linéaire des structures : certification des calculs et couplage avec la réduction de modèle PGD." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN017/document.

Full text
Abstract:
Le sujet de la thèse porte sur la mise en place d’approches numériques avancées pour la simulation et l’optimisation de structures mécaniques présentant une géométrie complexe. Il se focalise sur l’analyse isogéométrique (IGA) qui a reçu beaucoup d’intérêt cette dernière décennie dû à sa grande flexibilité, précision, et robustesse dans de nombreux contextes industriels comparé à la méthode des éléments finis (FEA) classique. En particulier, la technologie IGA fournit un lien direct avec les logiciels de CAO (les mêmes fonctions sont utilisées pour la représentation de la géométrie et l’analyse numérique) et facilite les procédures de maillage.Dans ce contexte, et comme première partie du travail, une méthode de vérification basée sur la dualité et le concept d’erreur en relation de comportement (ERC) est proposé. Il permet d’obtenir des estimateurs d’erreur a posteriori à la fois garantis et entièrement calculables pour les solutions numériques issues de simulation par IGA. Ces estimateurs, valables pour une large gamme de modèles linéaires ou non-linéaires en mécanique des structures, constituent donc des outils performants et utiles pour le contrôle quantitatif de la qualité numérique et pour la conduite de procédures adaptatives. Un intérêt particulier est porté sur la construction de champs équilibrés, qui est un point clé du concept ERC, et qui jusqu’à présent était essentiellement développée dans le cadre de la méthode des éléments finis. L’extension au contexte IGA nécessite d’aborder plusieurs problèmes techniques, liés à l’utilisation de fonctions de base B-Spline/NURBS. Le concept ERC est aussi mis en oeuvre avec les techniques d’adjoint pour faire de l’estimation d’erreur sur des quantités d’intérêt.Dans une seconde partie du travail, la technologie IGA est couplée avec une procédure de réduction de modèle pour obtenir des solutions certifiées, et en temps réel, de problèmes avec une géométrie paramétrée. Après avoir défini le paramétrage sur la transformation permettant de passer de l’espace paramétrique IGA à l’espace physique, un modèle réduit basé sur la technique PGD (Proper Generalized Decomposition) est introduit pour résoudre le problème multi-dimensionnel. Avec une stratégie hors-ligne/en-ligne, la procédure permet alors de décrire l’ensemble des solutions paramétrées avec un coût de calcul réduit, et de faire de l’optimisation de forme en temps réel. Ici encore, l’estimation a posteriori des diverses sources d’erreur venant de la discrétisation et de la réduction de modèle PGD est menée à partir du concept ERC. Cela permet de contrôler la qualité de la solution PGD approchée (globalement ou sur des quantités d’intérêt), pour toute configuration géométrique, et de nourrir un algorithme adaptatif qui optimise l’effort de calcul pour une tolérance d’erreur donnée.Le travail de recherche dans son ensemble fournit donc des outils pertinents et pratiques pour les activités de simulation en ingénierie mécanique. Le potentiel et les performances de ces outils sont montrés à travers plusieurs exemples numériques impliquant des problèmes académiques et industriels, et des modèles linéaires et non-linéaires (endommagement)
The topic of the PhD thesis deals with the construction of advanced numerical approaches for the simulation and optimization of mechanical structures with complex geometry. It focuses on the Isogeometric Analysis (IGA) technology which has received much attention of the last decade due to its increased flexibility, accuracy, and robustness in many engineering simulations compared to classical Finite Element Analysis (FEA). In particular, IGA enables a direct link with CAD software (the same functions are used for both analysis and geometry) and facilitates meshing procedures.In this framework, and as a first part of the work, a verification method based on duality and the concept of Constitutive Relation Error (CRE) is proposed. It enables to derive guaranteed and fully computable a posteriori error estimates on the numerical solution provided by IGA. Such estimates, which are valid for a wide class of linear or nonlinear structural mechanics models, thus constitute performing and useful tools to quantitatively control the numerical accuracy and drive adaptive procedures. The focus here is on the construction of equilibrated flux fields, which is key ingredient of the CRE concept, and which was until now almost exclusively developed in the FEA framework alone. The extension to IGA requires to address some technical issues, due to the use of B-Spline/NURBS basis functions. The CRE concept is also implemented together with adjoint techniques in order to perform goal-oriented error estimation.In a second part, IGA is coupled with model reduction in order to get certified real-time solutions to problems with parameterized geometry. After defining the parametrization on the mapping from the IGA parametric space to the physical space, a reduced model based on the Proper Generalized Decomposition (PGD) is introduced to solve the multi-dimensional problem. From an offline/online strategy, the procedure then enables to describe the manifold of parametric solutions with reduced CPU cost, and to further perform shape optimization in real-time. Here again, a posteriori estimation of the various error sources inheriting from discretization and PGD model reduction is performed from the CRE concept. It enables to control the quality of the approximate PGD solution (globally or on outputs of interest), for any geometry configuration, and to feed a robust greedy algorithm that optimizes the computational effort for a prescribed error tolerance.The overall research work thus provides for reliable and practical tools in mechanical engineering simulation activities. Capabilities and performance of these tools are shown on several numerical experiments with academic and engineering problems, and with linear and nonlinear (damage) models
APA, Harvard, Vancouver, ISO, and other styles
42

Mégret, Claire. "Détermination par des calculs DFT de la relation entre énergies de liaison H-C et M-C : Vers une évaluation du contrôle thermodynamique de la sélectivité d'activation C-H." Montpellier 2, 2004. http://www.theses.fr/2004MON20061.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Morlot, Thomas. "La gestion dynamique des relations hauteur-débit des stations d'hydrométrie et le calcul des incertitudes associées : un indicateur de gestion, de qualité et de suivi des points de mesure." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU029/document.

Full text
Abstract:
Pour répondre à trois enjeux principaux que sont la sûreté des installations, le respect d'exigences règlementaires et l'optimisation des moyens de production, EDF-DTG a développé un réseau d'observations qui comprend les paramètres climatiques tels que la température de l'air, les précipitations et l'enneigement, mais aussi le débit des rivières. Les données collectées permettent la surveillance en « temps réel » des cours d'eau ainsi que la réalisation d'études hydrologiques quantitatives ou de dimensionnement qui nécessitent de disposer de séries patrimoniales de références. Assurer la qualité des données de débits est donc un enjeu de première importance. On ne mesure pourtant pas en continu le débit d'un cours d'eau car les dispositifs à mettre en œuvre restent onéreux et difficilement techniquement réalisable. Le plus souvent, c'est à partir de mesures en continu du niveau des rivières que l'on déduit le débit de ces dernières. Des mesures ponctuelles de débits appelées « jaugeages » permettent de caler un modèle hauteur-débit nommé « courbe de tarage ». Ce sont les équipements installés sur les rivières pour la mesure des niveaux qui sont dénommés « station d'hydrométrie ». Force est de constater que l'ensemble de ce processus constitue une manière indirecte de détermination du débit dont le niveau d'incertitude mérite d'être décrit. À chacune des valeurs de débit produites peut être associé un intervalle de confiance qui tient compte des incertitudes de chacune des étapes. La rapidité de variation de la relation hauteur-débit rend souvent difficile le suivi en temps réel du débit alors que les besoins de la surveillance temps réel des ouvrages imposent une bonne fiabilité des données en continu. Or, en ce qui concerne les stations les moins stables, la méthode historique pour produire la courbe de tarage qui repose sur une construction à partir d'un nombre suffisant de jaugeages chronologiquement contigus et bien répartis sur la plus grande gamme possible reste mal adaptée aux changements rapides ou cycliques de la relation hauteur-débit. Elle ne prend pas assez en compte les phénomènes d'érosion et de sédimentation rapides ainsi que la croissance saisonnière d'herbiers car la capacité à réaliser des jaugeages par les équipes de gestion reste en général assez limitée. Ainsi, pour améliorer la qualité et la fiabilité des données de débits, ces travaux de thèse explorent une méthode de tracé dynamique des courbes de tarage et un calcul des incertitudes associées. Une gestion dynamique de la courbe de tarage est créée de sorte que chaque jaugeage donne lieu au tracé d'une nouvelle courbe de tarage. Après le tracé, un modèle d'incertitudes est construit autour de chaque courbe de tarage. Il prend en compte les incertitudes des jaugeages, les erreurs sur la mesure de hauteur d'eau, la sensibilité de la relation hauteur-débit et l'incertitude sur le tracé lui-même. Une approche variographique est utilisée pour faire vieillir les jaugeages et les courbes de tarage afin d'obtenir un intervalle de confiance augmentant avec le temps, et se réactualisant à chaque nouveau jaugeage puisque ce dernier donne lieu au tracé d'une nouvelle courbe de tarage, plus fiable car plus récente pour l'estimation des débits à venir. Des chroniques de débit sont enfin obtenues de façon homogène et avec un intervalle de confiance prenant en compte le vieillissement des courbes générées. En prenant mieux en compte la variabilité des conditions d'écoulement et la vie des stations, la méthode créée et son modèle d'incertitudes permet de construire des outils de gestion et d'optimisation d'exploitation des points de mesure. Elle répond à des questions récurrentes en hydrométrie comme : « Combien de jaugeages faut-il réaliser en une année pour produire des données de débit avec une incertitude moyenne de X% ? » et « Quand et dans quelle gamme de débit réaliser ces jaugeages ? »
Dealer or owner operator of electricity production structures, EDF is responsible for their operation in safe condition and for the respect of the limits imposed by the regulations. Thus, the knowledge of water resources is one of EDF main concerns since the company remains preoccupied about the proper use of its facilities. The knowledge of streamflow is one of its priorities to better respond to three key issues that are plant safety, compliance with regulatory requirements, and optimizing the means of production. To meet these needs, EDF-DTG (Division Technique Générale) operates an observation network that includes both climatic parameters such as air and temperature, then the precipitations and the snow, but also the streamflow. The data collected allows real time monitoring of rivers, as well as hydrological studies and the sizing of structures. Ensuring the quality of the stream flow data is a priority. Up to now it is not possible to measure continuously the flow of a river since direct measurements of discharge are time consuming and expensive. In common cases the flow of a river can be deduced from continuous measurements of water level. Punctual measurements of discharge called gaugings allow to develop a stage-discharge relationship named rating curve. These are permanently installed equipment on rivers for measuring levels that are called hydrometric station. It is clear that the whole process constitutes an indirect way of estimating the discharge in rivers whose associated uncertainties need to be described. Quantification of confidence intervals is however not the only problem of the hydrometer. Fast changes in the stage-discharge relationship often make the streamflow real time monitoring quite difficult while the needs of continuous high reliability data is obvious. The historical method to produce the rating curve based on a construction from a suffcient number of gaugings chronologically contiguous and well distributed over the widest possible range of discharge remains poorly adapted to fast or cyclical changes of the stage-discharge relationship. The classical method does not take suffciently into account the erosion and sedimentation processes as well as the seasonal vegetation growth. Besides, the ability to perform gaugings by management teams generally remains quite limited. To get the most accurate streamflow data and to improve their reliability, this thesis explores an original dynamic method to compute rating curves based on historical gaugings from a hydrometric station while calculating the associated uncertainties. First, a dynamic rating curve assessment is created in order to compute a rating curve for each gauging of a considered hydrometric station. After the tracing, a model of uncertainty is built around each computed rating curve. It takes into account the uncertainty of gaugings, but also the uncertainty in the measurment of the water height, the sensitivity of the stage discharge relationship and the quality of the tracing. A variographic analysis is used to age the gaugings and the rating curves and obtain a final confidence interval increasing with time, and actualizing at each new gauging since it gives rise to a new rating curve more reliable because more recent for the prediction of discharge to come. Chronological series of streamflow data are the obtained homogeneously and with a confidence interval that takes into consideration the aging of the rating curves. By taking into account the variability of the flow conditions and the life of the hydrometric station, the method can answer important questions in the field of hydrometry such as « How many gauging a year have to be made so as to produce stream flow data with an average uncertainty of X\% ? » and « When and in which range of water flow do we have to realize those gaugings ? »
APA, Harvard, Vancouver, ISO, and other styles
44

Blasiak, Pawel Piotr. "Combinatorics of boson normal ordering and some applications." Paris 6, 2005. http://www.theses.fr/2005PA066185.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Vollery, Luc. "Les relations entre rapports et réunions en droit successoral : l'article 527 chiffre 1 du Code civil et le principe de la comptabilisation des rapports dans la masse de calcul des réserves /." Fribourg, Suisse : Éd. Univ, 1994. http://www.gbv.de/dms/spk/sbb/recht/toc/27195373X.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Maisonneuve, Vivien. "Analyse statique des systèmes de contrôle-commande : invariants entiers et flottants." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0007/document.

Full text
Abstract:
Un logiciel critique est un logiciel dont le mauvais fonctionnement peut avoir un impact important sur la sécurité ou la vie des personnes, des entreprises ou des biens.L'ingénierie logicielle pour les systèmes critiques est particulièrement difficile et combine différentes méthodes pour garantir la qualité des logiciels produits.Parmi celles-ci, les méthodes formelles peuvent être utilisées pour prouver qu'un logiciel respecte ses spécifications.Le travail décrit dans cette thèse s'inscrit dans le contexte de la validation de propriétés de sûreté de programmes critiques, et plus particulièrement des propriétés numériques de logiciels embarqués dans des systèmes de contrôle-commande.La première partie de cette thèse est consacrée aux preuves de stabilité au sens de Lyapunov.Ces preuves s'appuient sur des calculs en nombres réels, et ne sont pas valables pour décrire le comportement d'un programme exécuté sur une plateforme à arithmétique machine.Nous présentons un cadre théorique générique pour adapter les arguments des preuves de stabilité de Lyapunov aux arithmétiques machine.Un outil effectue automatiquement la traduction de la preuve en nombres réels vers une preuve en nombres a virgule flottante.La seconde partie de la thèse porte sur l'analyse des relations affines, en utilisant une interprétation abstraite basée sur l'approximation des valuations associées aux points de contrôle d'un programme par des polyèdres convexes.Nous présentons ALICe, un framework permettant de comparer différentes techniques de génération d'invariants.Il s'accompagne d'une collection de cas de tests tirés de publications sur l'analyse de programmes, et s'interface avec trois outils utilisant différents algorithmes de calcul d'invariants: Aspic, iscc et PIPS.Afin d'affiner les résultats de PIPS, deux techniques de restructuration de code sont introduites, et plusieurs améliorations sont apportées aux algorithmes de génération d'invariants et évaluées à l'aide d'ALICe
A critical software is a software whose malfunction may result in death or serious injury to people, loss or severe damage to equipment or environmental harm.Software engineering for critical systems is particularly difficult, and combines different methods to ensure the quality of produced software.Among them, formal methods can be used to prove that a software obeys its specifications.This thesis falls within the context of the validation of safety properties for critical software, and more specifically, of numerical properties for embedded software in control-command systems.The first part of this thesis deals with Lyapunov stability proofs.These proofs rely on computations with real numbers, and do not accurately describe the behavior of a program run on a platform with machine arithmetic.We introduce a generic, theoretical framework to adapt the arguments of Lyapunov stability proofs to machine arithmetic.A tool automatically translates the proof on real numbers to a proof with floating-point numbers.The second part of the thesis focuses on linear relation analysis, using an abstract interpretation based on the approximation by convex polyhedrons of valuations associated with each control point in a program.We present ALICe, a framework to compare different invariant generation techniques.It comes with a collection of test cases taken from the program analysis literature, and interfaces with three tools, that rely on different algorithms to compute invariants: Aspic, iscc and PIPS.To refine PIPS results, two code restructuring techniques are introduced, and several improvements are made to the invariant generation algorithms and evaluated using ALICe
APA, Harvard, Vancouver, ISO, and other styles
47

Moalla, Borhane. "Approximants de Padé, polynômes orthogonaux (cas matriciel)." Rouen, 1995. http://www.theses.fr/1995ROUES052.

Full text
Abstract:
Ce travail est consacré aux approximants de Padé. On commence par une amélioration du calcul des coefficients des polynômes orthogonaux par rapport à une fonctionnelle linéaire quelconque en utilisant la méthode Cestac de J. Vignes. On étend les notions d'approximants de Padé en deux points des séries formelles aux séries de fonctions. On étend également la méthode de C. Brezinski, pour l'estimation de l'erreur des approximants de Padé en un point dans le cas normal, au cas non normal et au cas des approximants de Padé en deux points. On étudie la stabilité et la convergence des formules de quadrature de Gauss pour une fonction poids polynomiale de degré inferieur ou égal à 2. Enfin, les approximants de Padé matriciels rectangulaires ayant des polynômes générateurs à coefficients matriciels carrés sont définis ; des relations de récurrence que vérifient ces polynômes sont établies. On obtient un algorithme QD matriciel ; on généralise le théorème de Shohat-Favard et on étend la procédure de Kronrod pour l'estimation de l'erreur de ces approximants.
APA, Harvard, Vancouver, ISO, and other styles
48

Leperchey, Benjamin. "Sur la notion d'observation en sémantique." Phd thesis, Université Paris-Diderot - Paris VII, 2005. http://tel.archives-ouvertes.fr/tel-00102637.

Full text
Abstract:
Cette thèse présente différentes notions d'observation en sémantique, et quelques résultats sur leurs relations. Après avoir rappelé les définitions du lambda-calcul simplement typé et de ses modèles, nous présentons la notion d'observation définie par un modèle. Dans une première partie, nous présentons les liens entre cette notion et la définissabilité relative, en prenant les exemples de PCF unaire, de PCF finitaire et du modèle fortement stable de PCF, en étendant des travaux de Bucciarelli, Malacaria et Longley.
La partie suivante est consacrée à l'étude de la notion d'observation dans le cadre d'un langage avec des effets de bord. Nous proposons un modèle basé sur les domaines de Fraenkel-Mostowski, sur lequel nous définissons des relations logiques pour prouver des équivalences, aui servent à distinguer la partie publique de la mémoire de la partie secrète où les invariants sont préservés; ce qui établit un lien avec les problématiques de sécurité.
Enfin, nous étudions la question du temps d'exécution en sémantique dénotationnelle. Nous proposons une construction axiomatique, basée sur une monade, pour représenter le te,ps d'exécution sans le rendre observable par le contexte. Nous appliquons cette construction au modèle des espaces de cohérence et aux jeux de Hyland et Ong. Nous prouvons que ce dernier modèle est complètement adéquat.
APA, Harvard, Vancouver, ISO, and other styles
49

Touré, Ibrahima. "Calculs d'épaisseurs optiques : Évaluation des flux de diverses composantes au sol du rayonnement solaire, application capteur plan classique et capteur à renforcement de flux incident." Nancy 1, 1987. http://www.theses.fr/1987NAN10320.

Full text
Abstract:
Étude de l'estimation des flux du rayonnement solaire à partir de paramètres météorologiques et géophysiques faciles à évaluer, dans les conditions de la zone sahélienne de l'Afrique de l'ouest. Un nouveau capteur dénommé "bac solaire muni de réflecteurs" est proposé pour surmonter le handicap du faible échauffement du capteur plan classique en début de matinée, et permettant d'obtenir une température de 100**(O)C avant 10 heures
APA, Harvard, Vancouver, ISO, and other styles
50

Delarue, Patrice. "Évolution structurale en fonction de la température de monocristaux de solutions solides K XRB 1 XTIOPO 4, 0 X 1 ; corrélation avec leurs susceptibilités électriques du second et du troisième ordre." Nancy 1, 1999. http://www.theses.fr/1999NAN10177.

Full text
Abstract:
L'étude structurale de ktiopo 4 (ktp), rbtiopo 4, k 0. 8 8rb 0. 1 2tiopo 4 et k 0. 4 6 5rb 0. 5 3 5tiopo 4 en fonction de la température (293 - 973 k) est obtenue par diffraction de rayon x à haute résolution sur monocristal. L'utilisation et la discussion de deux modèles structuraux différents permettent de décrire précisément l'évolution des sites alcalins et ainsi de visualiser le chemin ionique dans les propriétés de conduction de ces composes. De plus, dans les solutions solides, la répartition préférentielle de l'ion rubidium sur les deux sites cristallographiques indépendants (phénomène d'ordre-désordre) est étudiée en fonction de la température. Un modèle simple est développe et précise les interactions qui régissent l'évolution de ce phénomène. Enfin, la variation de l'écart a la centrosymétrie des structures des différents composes sans tenir compte des sites alcalins est similaire : quand la température augmente, l'écart reste constant puis se réduit rapidement juste avant la transition de phase. Cette variation est principalement due au comportement des groupements tio 6. La mesure du rendement de génération de second harmonique sur monocristal de ktp en fonction de la température permet d'obtenir la variation de d e f f 2. Cette variation, similaire a la celle de l'écart a la centrosymétrie, montre que les alcalins ne sont pas impliques, du moins directement, dans les fortes valeurs des coefficients diélectriques du second ordre de ces composes. Des calculs, à partir du modèle de levine, confirment ces résultats en montrant l'importance de la déformation des octaèdres tio 6. Afin de mieux caractériser les interactions dans ktp, une étude de la répartition de la densité électronique est réalisée et complétée par une analyse topologique. Les caractéristiques des liaisons ti-o dans les octaèdres tio 6 sont confirmées par des calculs de type lapw sur un modèle simplifié.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography