Siga este enlace para ver otros tipos de publicaciones sobre el tema: Formal and symbolic calculation.

Tesis sobre el tema "Formal and symbolic calculation"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Formal and symbolic calculation".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Vu, Thi Xuan. "Homotopy algorithms for solving structured determinantal systems". Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS478.

Texto completo
Resumen
Les systèmes polynomiaux multivariés apparaissant dans de nombreuses applications ont des structures spéciales et les systèmes invariants apparaissent dans un large éventail d'applications telles que dans l’optimisation polynomiale et des questions connexes en géométrie algébrique réelle. Le but de cette thèse est de fournir des algorithmes efficaces pour résoudre de tels systèmes structurés. Afin de résoudre le premier type de systèmes, nous concevons des algorithmes efficaces en utilisant les techniques d’homotopie symbolique. Alors que les méthodes d'homotopie, à la fois numériques et symboliques, sont bien comprises et largement utilisées dans la résolution de systèmes polynomiaux pour les systèmes carrés, l'utilisation de ces méthodes pour résoudre des systèmes surdéterminés n'est pas si claire. Hors, les systèmes déterminants sont surdéterminés avec plus d'équations que d'inconnues. Nous fournissons des algorithmes d'homotopie probabilistes qui tirent parti de la structure déterminantielle pour calculer des points isolés dans les ensembles des zéros de tels systèmes. Les temps d'exécution de nos algorithmes sont polynomiaux dans la somme des multiplicités des points isolés et du degré de la courbe d'homotopie. Nous donnons également des bornes sur le nombre de points isolés que nous devons calculer dans trois contextes: toutes les termes de l'entrée sont dans des anneaux polynomiaux classiques, tous ces polynômes sont creux, et ce sont des polynômes à degrés pondérés. Dans la seconde moitié de la thèse, nous abordons le problème de la recherche de points critiques d'une application polynomiale symétrique sur un ensemble algébrique invariant. Nous exploitons les propriétés d'invariance de l'entrée pour diviser l'espace de solution en fonction des orbites du groupe symétrique. Cela nous permet de concevoir un algorithme qui donne une description triangulaire de l'espace des solutions et qui s'exécute en temps polynomial dans le nombre de points que nous devons calculer. Nos résultats sont illustrés par des applications à l'étude d'ensembles algébriques réels définis par des systèmes polynomiaux invariants au moyen de la méthode des points critiques
Multivariate polynomial systems arising in numerous applications have special structures. In particular, determinantal structures and invariant systems appear in a wide range of applications such as in polynomial optimization and related questions in real algebraic geometry. The goal of this thesis is to provide efficient algorithms to solve such structured systems. In order to solve the first kind of systems, we design efficient algorithms by using the symbolic homotopy continuation techniques. While the homotopy methods, in both numeric and symbolic, are well-understood and widely used in polynomial system solving for square systems, the use of these methods to solve over-detemined systems is not so clear. Meanwhile, determinantal systems are over-determined with more equations than unknowns. We provide probabilistic homotopy algorithms which take advantage of the determinantal structure to compute isolated points in the zero-sets of determinantal systems. The runtimes of our algorithms are polynomial in the sum of the multiplicities of isolated points and the degree of the homotopy curve. We also give the bounds on the number of isolated points that we have to compute in three contexts: all entries of the input are in classical polynomial rings, all these polynomials are sparse, and they are weighted polynomials. In the second half of the thesis, we deal with the problem of finding critical points of a symmetric polynomial map on an invariant algebraic set. We exploit the invariance properties of the input to split the solution space according to the orbits of the symmetric group. This allows us to design an algorithm which gives a triangular description of the solution space and which runs in time polynomial in the number of points that we have to compute. Our results are illustrated by applications in studying real algebraic sets defined by invariant polynomial systems by the means of the critical point method
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Krandick, Werner. "Symbolic methods for polynomial complex root calculation /". The Ohio State University, 1992. http://rave.ohiolink.edu/etdc/view?acc_num=osu1487776210796097.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Qian, Kairong Computer Science &amp Engineering Faculty of Engineering UNSW. "Formal symbolic verification using heuristic search and abstraction techniques". Awarded by:University of New South Wales. School of Computer Science and Engineering, 2006. http://handle.unsw.edu.au/1959.4/25703.

Texto completo
Resumen
Computing devices are pervading our everyday life and imposing challenges for designers that have the responsibility of producing reliable hardware and software systems. As systems grow in size and complexity, it becomes increasingly difficult to verify whether a design works as intended. Conventional verification methods, such as simulation and testing, exercise only parts of the system and from these parts, draw conclusions about the correctness of the total design. For complex designs, the parts of the system that can be verified are relatively small. Formal verification aims to overcome this problem. Instead of exercising the system, formal verification builds mathematical models of designs and proves whether properties hold in these models. In doing so, it at least aims to cover the complete design. Model checking is a formal verification method that automatically verifies a model of a design, or generates diagnostic information if the model cannot be verified. It is because of this usability and level of automation that model checking has gained a high degree of success in verifying circuit designs. The major disadvantage of model checking is its poor scalability. This is due to its algorithmic nature: namely, every state of the model needs to be enumerated. In practice, properties of interest may not need the exhaustive enumeration of the model state space. Many properties can be verified (or falsified) by examining a small number of states. In such cases, exhaustive algorithms can be replaced with search algorithms that are directed by heuristics. Methods based on heuristics generally scale well. This thesis investigates non-exhaustive model checking algorithms and focuses on error detection in system verification. The approach is based on a novel integration of symbolic model checking, heuristic search and abstraction techniques to produce a framework that we call abstractiondirected model checking. There are 3 main components in this framework. First, binary decision diagrams (BDDs) and heuristic search are combined to develop a symbolic heuristic search algorithm. This algorithm is used to detect errors. Second, abstraction techniques are applied in an iterative way. In the initial phase, the model is abstracted, and this model is verified using exhaustive algorithms. If a definitive verification result cannot be obtained, the same abstraction is re-used to generate a search heuristic. The heuristic in turn is used to direct a search algorithm that searches for error states in the concrete model. Third, a model transformation mechanism converts an arbitrary branching-time property to a reachability property. Essentially, this component allows this framework to be applied to a more general class of temporal property. By amalgamating these three components, the framework offers a new verification methodology that speeds up error detection in formal verification. The current implementation of this framework indicates that it can outperform existing standard techniques both in run-time and memory consumption, and scales much better than conventional model checking.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Ritter, Gerd. "Formal sequential equivalence checking of digital systems by symbolic simulation". Phd thesis, [S.l.] : [s.n.], 2001. http://elib.tu-darmstadt.de/diss/000113/thesis.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Kavish, Daniel Ryan. "Interactionist Labeling: Formal and Informal Labeling's Effects on Juvenile Delinquency". OpenSIUC, 2012. https://opensiuc.lib.siu.edu/theses/883.

Texto completo
Resumen
This thesis critically reviews prior labeling theory research concerning juvenile delinquency and crime; it adds to current work by using contemporary data. Labeling events are described in detail to provide an overall understanding of where labels originate, who is casting the label, and what research suggests concerning different types of labels. An interactionist labeling model is tested to explain levels of juvenile delinquency among a nationally representative sample of American adolescents: the first three waves of the National Longitudinal Study of Adolescent Health (Add Health). Finally, negative binomial regression models are estimated in order to better explain the dynamic relationship between labels and delinquency.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Kavish, Daniel Ryan. "Interactionist Labeling: A Structural Equation Model of Formal Labeling, Juvenile Delinquency, and Adult Criminality". OpenSIUC, 2016. https://opensiuc.lib.siu.edu/dissertations/1311.

Texto completo
Resumen
This dissertation critically reviews prior labeling theory research concerning juvenile delinquency and adult criminality, and presents a structural equation model utilizing the National Longitudinal Study of Adolescent Health (Add Health). The labeling perspective is outlined as it was originally presented, and the theoretical elaborations that have taken place since are highlighted. Distinctions are made between formally applied criminal justice labels and the informal labels that are applied by significant others and parents. An interactionist labeling model that incorporates respondents’ levels of self-control is presented to explain formal labeling, levels of juvenile delinquency, and future criminality among a nationally representative sample of American adolescents: three waves of Add Health. The findings show that formal labeling was the strongest significant predictor of subsequent criminal involvement and that it mediated the effect of prior delinquency on subsequent criminal involvement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Morrison, George Campbell. "Automated coverage calculation and test case generation". Thesis, Stellenbosch : Stellenbosch University, 2012. http://hdl.handle.net/10019.1/20041.

Texto completo
Resumen
Thesis (MScEng)--Stellenbosch University, 2012.
ENGLISH ABSTRACT: This research combines symbolic execution, a formal method of static analysis, with various test adequacy criteria, to explore the e ectiveness of using symbolic execution for calculating code coverage on a program's existing JUnit test suites. Code coverage is measured with a number of test adequacy criteria, including statement coverage, branch coverage, condition coverage, method coverage, class coverage, and loop coverage. The results of the code coverage calculation is then used to automatically generate JUnit test cases for areas of a program that are not su ciently covered. The level of redundancy of each test case is also calculated during coverage calculation, thereby identifying fully redundant, and partially redundant, test cases. The combination of symbolic execution and code coverage calculation is extended to perform coverage calculation during a manual execution of a program, allowing testers to measure the e ectiveness of manual testing. This is implemented as an Eclipse plug-in, named ATCO, which attempts to take advantage of the Eclipse workspace and extensible user interface environment to improve usability of the tool by minimizing the user interaction required to use the tool. The code coverage calculation process uses constraint solving to determine method parameter values to reach speci c areas in the program. Constraint solving is an expensive computation, so the tool was parallellised using Java's Concurrency package, to reduce the overall execution time of the tool.
AFRIKAANSE OPSOMMING: Hierdie navorsing kombineer simboliese uitvoering, 'n formele metode van statiese analise, met verskeie toets genoegsaamheid kriteria, om die e ektiwiteit van die gebruik van simboliese uitvoer te ondersoek vir die berekening van kode dekking op 'n program se bestaande JUnit toets stelle. Kode dekking word gemeet deur verskeie toets genoegsaamheid kriteria, insluited stelling dekking, tak dekking, kondisie dekking, metode dekking, klas dekking, en lus dekking. Die resultate van die kode dekking berekeninge word dan gebruik om outomaties JUnit toets voorbeelde te genereer vir areas van 'n program wat nie doeltre end ondersoek word nie. Die vlak van oortolligheid van elke toets voorbeeld word ook bereken gedurende die dekkingsberekening, en daardeur word volledig oortollige, en gedeeltelik oortollige, toets voorbeelde identi seer. Die kombinasie van simboliese uitvoer en kode dekking berekening is uitgebrei deur die uitvoer van dekking berekeninge van 'n gebruiker-beheerde uitvoer, om sodoende kode dekking van 'n gebruiker-beheerde uitvoer van 'n program te meet. Dit laat toetsers toe om die e ektiwiteit van hulle beheerde uitvoer te meet. Bogenoemde word ge mplimenteer as 'n Eclipse aanvoegsel, genaamd ATCO, wat poog om voordeel te trek vanuit die Eclipse werkspasie, en die uitbreibare gebruiker oordrag omgewing, om die bruikbaarheid van ATCO te verbeter, deur die vermindering van die gebruiker interaksie wat benodig word om ATCO te gebruik. Die kode dekking berekeningsproses gebruik beperking oplossing om metode invoer waardes te bereken, om spesi eke areas in die program te bereik. Beperking oplossing is 'n duur berekening, so ATCO is geparalleliseer, met behulp van Java se Concurrency pakket, om die algehele uitvoer tyd van die program te verminder.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Klein, Joachim, Christel Baier, Philipp Chrszon, Marcus Daum, Clemens Dubslaff, Sascha Klüppelholz, Steffen Märcker y David Müller. "Advances in Symbolic Probabilistic Model Checking with PRISM". Springer, 2016. https://tud.qucosa.de/id/qucosa%3A74267.

Texto completo
Resumen
For modeling and reasoning about complex systems, symbolic methods provide a prominent way to tackle the state explosion problem. It is well known that for symbolic approaches based on binary decision diagrams (BDD), the ordering of BDD variables plays a crucial role for compact representations and efficient computations. We have extended the popular probabilistic model checker PRISM with support for automatic variable reordering in its multi-terminal-BDD-based engines and report on benchmark results. Our extensions additionally allow the user to manually control the variable ordering at a finer-grained level. Furthermore, we present our implementation of the symbolic computation of quantiles and support for multi-reward-bounded properties, automata specifications and accepting end component computations for Streett conditions.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Zhao, Hong. "Automatic generation and reduction of the semi-fuzzy knowledge base in symbolic processing and numerical calculation". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1995. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/NQ27811.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Hansen, Sonja Maria [Verfasser], Hilde [Gutachter] Haider y Robert [Gutachter] Gaschler. "The potential of symbolic approximation. Disentangling the effects of approximation vs. calculation demands in nonsymbolic and symbolic representations. / Sonja Maria Hansen ; Gutachter: Hilde Haider, Robert Gaschler". Köln : Universitäts- und Stadtbibliothek Köln, 2016. http://d-nb.info/1121745261/34.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Brown, Douglas Graeme. "Formal network behaviour analysis using model checking". Thesis, Queensland University of Technology, 2016. https://eprints.qut.edu.au/93693/1/Douglas_Brown_Thesis.pdf.

Texto completo
Resumen
In this research we modelled computer network devices to ensure their communication behaviours meet various network standards. By modelling devices as finite-state machines and examining their properties in a range of configurations, we discovered a flaw in a common network protocol and produced a technique to improve organisations' network security against data theft.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Campo, Anna Laetitia a. "Anthropomorphic representations in prehistoric Cyprus : a formal and symbolic analysis of figurines, c. 3500 - 1800 BC". Thesis, University of Cambridge, 1987. https://www.repository.cam.ac.uk/handle/1810/272955.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Sarkar, Somwrita. "Acquiring symbolic design optimization problem reformulation knowledge". Connect to full text, 2009. http://hdl.handle.net/2123/5683.

Texto completo
Resumen
Thesis (Ph. D.)--University of Sydney, 2009.
Title from title screen (viewed November 13, 2009). Submitted in fulfilment of the requirements for the degree of Doctor of Philosophy to the Faculty of Architecture, Design and Planning in the Faculty of Science. Includes graphs and tables. Includes bibliographical references. Also available in print form.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Adams, Sara Elisabeth. "Abstraction discovery and refinement for model checking by symbolic trajectory evaluation". Thesis, University of Oxford, 2014. http://ora.ox.ac.uk/objects/uuid:27276f9c-eba5-42a9-985d-1812097773f8.

Texto completo
Resumen
This dissertation documents two contributions to automating the formal verification of hardware – particularly memory-intensive circuits – by Symbolic Trajectory Evaluation (STE), a model checking technique based on symbolic simulation over abstract sets of states. The contributions focus on improvements to the use of BDD-based STE, which uses binary decision diagrams internally. We introduce a solution to one of the major hurdles in using STE: finding suitable abstractions. Our work has produced the first known algorithm that addresses this problem by automatically discovering good, non-trivial abstractions. These abstractions are computed from the specification, and essentially encode partial input combinations sufficient for determining the specification’s output value. They can then be used to verify whether the hardware model meets its specification using a technique based on and significantly extending previous work by Melham and Jones [2]. Moreover, we prove that our algorithm delivers correct results by construction. We demonstrate that the abstractions received by our algorithm can greatly reduce verification costs with three example hardware designs, typical of the kind of problems faced by the semiconductor design industry. We further propose a refinement method for abstraction schemes when over- abstraction occurs, i.e., when the abstraction hides too much information of the original design to determine whether it meets its specification. The refinement algorithm we present is based on previous work by Chockler et al. [3], which selects refinement candidates by approximating which abstracted input is likely the biggest cause of the abstraction being unsuitable. We extend this work substantially, concentrating on three aspects. First, we suggest how the approach can also work for much more general abstraction schemes. This enables refining any abstraction allowed in STE, rather than just a subset. Second, Chockler et al. describe how to refine an abstraction once a refinement candidate has been identified. We present three additional variants of refining the abstraction. Third, the refinement at its core depends on evaluating circuit logic gates. The previous work offered solutions for NOT- and AND-gates. We propose a general approach to evaluating arbitrary logic gates, which improves the selection process of refinement candidates. We show the effectiveness of our work by automatically refining an abstraction for a content-addressable memory that exhibits over-abstraction, and by evaluating some common logic gates. These two contributions can be used independently to help automate the hard- ware verification by STE, but they also complement each other. To show this, we combine both algorithms to create a fully automatic abstraction discovery and refinement loop. The only inputs required are the hardware design and the specification, which the design should meet. While only small circuits could be verified completely automatically, it clearly shows that our two contributions allow the construction of a verification framework that does not require any user interaction.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Kephart, David E. "Topology, morphisms, and randomness in the space of formal languages". [Tampa, Fla.] : University of South Florida, 2005. http://purl.fcla.edu/fcla/etd/SFE0001250.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Aïssat, Romain. "Infeasible Path Detection : a Formal Model and an Algorithm". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS036/document.

Texto completo
Resumen
Le test boîte blanche basé sur les chemins est largement utilisé pour la validation de programmes. A partir du graphe de flot de contrôle (CFG) du programme sous test, les cas de test sont générés en sélectionnant des chemins d'intérêt, puis en essayant de fournir, pour chaque chemin, des valeurs d'entrées concrètes qui déclencheront l'exécution du programme le long de ce chemin.Il existe de nombreuses manières de définir les chemins d'intérêt: les méthodes de test structurel sélectionnent des chemins remplissant un critère de couverture concernant les éléments du graphe; dans l'approche aléatoire, les chemins sont tirés selon une distribution de probabilité sur ces éléments. Ces méthodes aléatoires ont l'avantage de fournir un moyen d'évaluer la qualité d'un jeu de test à travers la probabilité minimale de couvrir un élément du critère.Fournir des valeurs concrètes d'entrées nécessite de construire le prédicat de cheminement chaque chemin, i.e. la conjonction des contraintes sur les entrées devant être vérifiée pour que le système s'exécute le long de ce chemin. Cette construction se fait par exécution symbolique. Les données de test sont ensuite déterminées par résolution de contraintes. Si le prédicat d'un chemin est insatisfiable, le chemin est dit infaisable. Il est très courant qu'un programme présente de tels chemins, leur nombre surpassent généralement de loin celui des faisables. Les chemins infaisables sélectionnés lors la première étape ne contribuent pas au jeu de test final, et doivent être tirés à nouveau. La présence de ces chemins pose un sérieux problème aux méthodes structurelles et à toutes les méthodes d'analyse statique, la qualité des approximations qu'elles fournissent étant réduite par les données calculées le long de chemins infaisables.De nombreuses méthodes ont été proposées pour résoudre ce problème, telles que le test concolique ou le test aléatoire basé sur les domaines d'entrée. Nous présentons un algorithme qui construit de meilleures approximations du comportement d'un programme que son CFG, produisant un nouveau CFG qui sur-approxime l'ensemble des chemins faisables mais présentant moins de chemins infaisables. C'est dans ce nouveau graphe que sont tirés les chemins.Nous avons modélisé notre approche et prouvé formellement, à l'aide de l'assistant de preuve interactif Isabelle/HOL, les propriétés principales établissant sa correction.Notre algorithme se base sur l'exécution symbolique et la résolution de contraintes, permettant de détecter si certains chemins sont infaisables ou non. Nos programmes peuvent contenir des boucles, et leurs graphes des cycles. Afin d'éviter de suivre infiniment les chemins cycliques, nous étendons l'exécution symbolique avec la détection de subsomptions. Une subsomption peut être vue comme le fait qu'un certain point atteint durant l'analyse est un cas particulier d'un autre atteint précédemment: il n'est pas nécessaire d'explorer les successeurs d'un point subsumé, ils sont subsumés par les successeurs du subsumeur. Notre algorithme a été implémenté par un prototype, dont la conception suit fidèlement la formalisation, offrant un haut niveau de confiance dans sa correction.Dans cette thèse, nous présentons les concepts théoriques sur lesquels notre approche se base, sa formalisation à l'aide d'Isabelle/HOL, les algorithmes implémentés par notre prototype et les diverses expériences menées et résultats obtenus à l'aide de ce prototype
White-box, path-based, testing is largely used for the validation of programs. Given the control-flow graph (CFG) of the program under test, a test suit is generated by selecting a collection of paths of interest, then trying to provide, for each path, some concrete input values that will make the program follow that path during a run.For the first step, there are various ways to define paths of interest: structural testing methods select some set of paths that fulfills coverage criteria related to elements of the graph; in random-based techniques, paths are selected according to a given distribution of probability over these elements (for instance, uniform probability over all paths of length less than a given bound). Both approaches can be combined as in structural statistical testing. The random-based methods above have the advantage of providing a way to assess the quality of a test set as the minimal probability of covering an element of a criterion.The second step requires to produce for each path its path predicate, i.e. the conjunction of the constraints over the input parameters that must hold for the system to run along that path. This is done using symbolic execution. Then, constraint-solving is used to compute test data. If there is no input values such that the path predicate evaluates to true, the path is infeasible. It is very common for a program to have infeasible paths and such paths can largely outnumber feasible paths. Infeasible paths selected during the first step will not contribute to the final test suite, and there is no better choice than to select another path, hoping for its feasibility. Handling infeasible paths is the serious limitation of structural methods since most of the time is spent selecting useless paths. It is also a major challenge for all techniques in static analysis of programs, since the quality of the approximations they provide is lowered by data computed for paths that do not correspond to actual program runs.To overcome this problem, different methods have been proposed, like concolic testing or random testing based on the input domain. In path-biased random testing, paths are drawn according to a given distribution and their feasibility is checked in a second step. We present an algorithm that builds better approximations of the behavior of a program than its CFG, providing a transformed CFG, which still over-approximates the set of feasible paths but with fewer infeasible paths. This transformed graph is used for drawing paths at random.We modeled our graph transformations and formally proved, using the interactive theorem proving environment Isabelle/HOL, the key properties that establish the correctness of our approach.Our algorithm uses symbolic execution and constraint solving, which allows to detect whether some paths are infeasible. Since programs can contain loops, their graphs can contain cycles. In order to avoid to follow infinitely a cyclic path, we enrich symbolic execution with the detection of subsumptions. A subsumption can be interpreted as the fact that some node met during the analysis is a particular case of another node met previously: there is no need to explore the successors of the subsumed node: they are subsumed by the successors of the subsumer. Our algorithm has been implemented by a prototype, whose design closely follows said formalization, giving a good level of confidence in its correctness.In this thesis, we introduce the theoretical concepts on which our approach relies, its formalization in Isabelle/HOL, the algorithms our prototype implements and the various experiments done and results obtained using it
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Konecny, Jan. "Isotone fuzzy Galois connections and their applications in formal concept analysis". Diss., Online access via UMI:, 2009.

Buscar texto completo
Resumen
Thesis (Ph. D.)--State University of New York at Binghamton, Thomas J. Watson School of Engineering and Applied Science, Department of Systems Science and Industrial Engineering, 2009.
Includes bibliographical references.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Nyström, Jan Henry. "Analysing Fault Tolerance for Erlang Applications". Doctoral thesis, Uppsala universitet, Avdelningen för datorteknik, 2009. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-101975.

Texto completo
Resumen
ERLANG is a concurrent functional language, well suited for distributed, highly concurrent and fault-tolerant software. An important part of Erlang is its support for failure recovery. Fault tolerance is provided by organising the processes of an ERLANG application into tree structures. In these structures, parent processes monitor failures of their children and are responsible for their restart. Libraries support the creation of such structures during system initialisation.A technique to automatically analyse that the process structure of an ERLANG application from the source code is presented. The analysis exposes shortcomings in the fault tolerance properties of the application. First, the process structure is extracted through static analysis of the initialisation code of the application. Thereafter, analysis of the process structure checks two important properties of the fault handling mechanism: 1) that it will recover from any process failure, 2) that it will not hide persistent errors.The technique has been implemented in a tool, and applied it to several OTP library applications and to a subsystem of a commercial system the AXD 301 ATM switch.The static analysis of the ERLANG source code is achieved through symbolic evaluation. The evaluation is peformed according to an abstraction of ERLANG’s actual semamtics. The actual semantics is formalised for a nontrivial part of the language and it is proven that the abstraction of the semantics simulates the actual semantics.
ASTEC
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Ivanova, Elena. "Efficient Synthesis of Safety Controllers using Symbolic Models and Lazy Algorithms". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG088.

Texto completo
Resumen
Cette thèse porte sur le développement d'approches efficaces de synthèse de contrôleurs basées sur l'abstraction pour les systèmes cyber-physiques (CPS). Alors que les méthodes basées sur l'abstraction pour la conception de CPS ont fait l'objet de recherches intensives au cours des dernières décennies, l'évolutivité de ces techniques reste un problème. Cette thèse se concentre sur le développement d'algorithmes de synthèse paresseuse pour les spécifications de sécurité. Les spécifications de sécurité consistent à maintenir la trajectoire du système à l'intérieur d'un ensemble sûr donné. Cette spécification est de la plus haute importance dans de nombreux problèmes d'ingénierie, souvent prioritaires par rapport à d'autres exigences de performance. Les approches paresseuses surpassent l'algorithme de synthèse classique [Tabuada, 2009] en évitant les calculs, qui ne sont pas essentiels pour les objectifs de synthèse. Le chapitre 1 motive la thèse et présente l'état de l'art. Le chapitre 2 structure les approches de synthèse paresseuses existantes et met l'accent sur trois sources d'efficacité : les informations sur les états contrôlables a priori, les priorités sur les entrées et les états non accessibles à partir de l'ensemble initial. Le chapitre 3 propose un algorithme, qui explore itérativement les états à la frontière du domaine contrôlable tout en évitant l'exploration des états internes, en supposant qu'ils sont contrôlables en toute sécurité a priori. Un contrôleur de sécurité en boucle fermée pour le problème d'origine est alors défini comme suit : nous utilisons le contrôleur abstrait pour repousser le système d'un état limite vers l'intérieur, tandis que pour les états internes, toute entrée admissible est valide. Le chapitre 4 présente un algorithme qui restreint les calculs de synthèse du contrôleur aux seuls états atteignables tout en privilégiant les transitions de plus longue durée. Le système original est abstrait par un modèle symbolique avec une grille adaptative. De plus, un nouveau type d'échantillonnage temporel est également envisagé. Au lieu d'utiliser des transitions de durée prédéterminée, la durée des transitions est contrainte par des intervalles d'état qui doivent contenir l'ensemble accessible. Le chapitre 5 est consacré aux systèmes de transition monotones. L'approche de synthèse paresseuse introduite bénéficie d'une propriété monotone des systèmes de transition et de la structure ordonnée de l'espace d'état (d'entrée), et du fait que des spécifications de sécurité dirigées sont prises en compte. La classe de spécifications considérée s'enrichit alors d'intersections d'exigences de sécurité supérieures et inférieures fermées. Le chapitre 6 conclut la discussion et soulève de nouvelles questions pour les recherches futures
This thesis focuses on the development of efficient abstraction-based controller synthesis approaches for cyber-physical systems (CPS). While abstraction-based methods for CPS design have been the subject of intensive research over the last decades, the scalability of these techniques remains an issue. This thesis focus on developing lazy synthesis algorithms for safety specifications. Safety specifications consist in maintaining the trajectory of the system inside a given safe set. This specification is of the utmost importance in many engineering problems, often prioritized over other performance requirements. Lazy approaches outperform the classical synthesis algorithm [Tabuada, 2009] by avoiding computations, which are non-essential for synthesis goals. Chapter 1 motivates the thesis and discusses the state of the art. Chapter 2 structures the existing lazy synthesis approaches and emphasizes three sources of efficiency: information about a priori controllable states, priorities on inputs, and non-reachable from initial set states. Chapter 3 proposes an algorithm, which iteratively explores states on the boundary of controllable domain while avoiding exploration of internal states, supposing that they are safely controllable a priory. A closed-loop safety controller for the original problem is then defined as follows: we use the abstract controller to push the system from a boundary state back towards the interior, while for inner states, any admissible input is valid. Chapter 4 presents an algorithm that restricts the controller synthesis computations to reachable states only while prioritizing longer-duration transitions. The original system is abstracted by a symbolic model with an adaptive grid. Moreover, a novel type of time sampling is also considered. Instead of using transitions of predetermined duration, the duration of the transitions is constrained by state intervals that must contain the reachable set. Chapter 5 is dedicated to monotone transition systems. The introduced lazy synthesis approach benefits from a monotone property of transition systems and the ordered structure of the state (input) space, and the fact that directed safety specifications are considered. The considered class of specifications is then enriched by intersections of upper and lower-closed safety requirements. Chapter 6 concludes the discussion and raises new issues for future research
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

David, Robin. "Formal Approaches for Automatic Deobfuscation and Reverse-engineering of Protected Codes". Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0013/document.

Texto completo
Resumen
L’analyse de codes malveillants est un domaine de recherche en pleine expansion de par la criticité des infrastructures touchées et les coûts impliqués de plus en plus élevés. Ces logiciels utilisent fréquemment différentes techniques d’évasion visant à limiter la détection et ralentir les analyses. Parmi celles-ci, l’obfuscation permet de cacher le comportement réel d’un programme. Cette thèse étudie l’utilité de l’Exécution Symbolique Dynamique (DSE) pour la rétro-ingénierie. Tout d’abord, nous proposons deux variantes du DSE plus adaptées aux codes protégés. La première est une redéfinition générique de la phase de calcul de prédicat de chemin basée sur une manipulation flexible des concrétisations et symbolisations tandis que la deuxième se base sur un algorithme d’exécution symbolique arrière borné. Ensuite, nous proposons différentes combinaisons avec d’autres techniques d’analyse statique afin de tirer le meilleur profit de ces algorithmes. Enfin tous ces algorithmes ont été implémentés dans différents outils, Binsec/se, Pinsec et Idasec, puis testés sur différents codes malveillants et packers. Ils ont permis de détecter et contourner avec succès les obfuscations ciblées dans des cas d’utilisations réels tel que X-Tunnel du groupe APT28/Sednit
Malware analysis is a growing research field due to the criticity and variety of assets targeted as well as the increasing implied costs. These softwares frequently use evasion tricks aiming at hindering detection and analysis techniques. Among these, obfuscation intent to hide the program behavior. This thesis studies the potential of Dynamic Symbolic Execution (DSE) for reverse-engineering. First, we propose two variants of DSE algorithms adapted and designed to fit on protected codes. The first is a flexible definition of the DSE path predicate computation based on concretization and symbolization. The second is based on the definition of a backward-bounded symbolic execution algorithm. Then, we show how to combine these techniques with static analysis in order to get the best of them. Finally, these algorithms have been implemented in different tools Binsec/se, Pinsec and Idasec interacting alltogether and tested on several malicious codes and commercial packers. Especially, they have been successfully used to circumvent and remove the obfuscation targeted in real-world malwares like X-Tunnel from the famous APT28/Sednit group
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Debant, Alexandre. "Symbolic verification of distance-bounding protocols : application to payment protocols". Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S057.

Texto completo
Resumen
L’essor des nouvelles technologies, et en particulier la Communication en Champ Proche (NFC), a permis l’apparition de nouvelles applications. Á ce titre, nous pouvons mentionner le paiement sans contact, les clefs mains libres ou encore les carte d’abonnement dans les transports en commun. Afin de sécuriser l’ensemble de ces applications, des protocoles de sécurité, appelés protocoles délimiteurs de distance on été développés. Ces protocoles ont pour objectif d’assurer la proximité physique des appareils mis en jeu afin protocole cryptographique, protocole de paiement de limiter le risque d’attaque. Dans ce manuscrit, nous présentons diverses approches permettant une analyse formelle de ces protocoles. Dans ce but, nous proposons un modèle symbolique permettant une modélisation précise du temps ainsi que des positions dans l’espace de chaque participant. Nous proposons ensuite deux approches : la première développant une nouvelle procédure de vérification, la seconde permettant la ré-utilisation d’outils existants tels que Proverif. Tout au long de ce manuscrit, nous porterons une attention parti- culières aux protocoles de paiement sans contact
The rise of new technologies, and in particular Near Field Communication (NFC) tags, offers new applications such as contactless payments, key-less entry systems, transport ticketing... Due to their security concerns, new security protocols, called distance-bounding protocols, have been developed to ensure the physical proximity of the de- vices during a session. In order to prevent flaws and attacks, these protocols require formal verification. In this manuscript, we present several techniques that allow for an automatic verification of such protocols. To this aim, we first present a symbolic model which faithfully models time and locations. Then we develop two approaches : either ba- sed on a new verification procedure, or leveraging existing tools like Proverif. Along this manuscript, we pay a particular attention to apply our results to contactless payment protocols
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Sarkar, Somwrita. "Acquiring symbolic design optimization problem reformulation knowledge: On computable relationships between design syntax and semantics". Thesis, The University of Sydney, 2009. http://hdl.handle.net/2123/5683.

Texto completo
Resumen
This thesis presents a computational method for the inductive inference of explicit and implicit semantic design knowledge from the symbolic-mathematical syntax of design formulations using an unsupervised pattern recognition and extraction approach. Existing research shows that AI / machine learning based design computation approaches either require high levels of knowledge engineering or large training databases to acquire problem reformulation knowledge. The method presented in this thesis addresses these methodological limitations. The thesis develops, tests, and evaluates ways in which the method may be employed for design problem reformulation. The method is based on the linear algebra based factorization method Singular Value Decomposition (SVD), dimensionality reduction and similarity measurement through unsupervised clustering. The method calculates linear approximations of the associative patterns of symbol cooccurrences in a design problem representation to infer induced coupling strengths between variables, constraints and system components. Unsupervised clustering of these approximations is used to identify useful reformulations. These two components of the method automate a range of reformulation tasks that have traditionally required different solution algorithms. Example reformulation tasks that it performs include selection of linked design variables, parameters and constraints, design decomposition, modularity and integrative systems analysis, heuristically aiding design “case” identification, topology modeling and layout planning. The relationship between the syntax of design representation and the encoded semantic meaning is an open design theory research question. Based on the results of the method, the thesis presents a set of theoretical postulates on computable relationships between design syntax and semantics. The postulates relate the performance of the method with empirical findings and theoretical insights provided by cognitive neuroscience and cognitive science on how the human mind engages in symbol processing and the resulting capacities inherent in symbolic representational systems to encode “meaning”. The performance of the method suggests that semantic “meaning” is a higher order, global phenomenon that lies distributed in the design representation in explicit and implicit ways. A one-to-one local mapping between a design symbol and its meaning, a largely prevalent approach adopted by many AI and learning algorithms, may not be sufficient to capture and represent this meaning. By changing the theoretical standpoint on how a “symbol” is defined in design representations, it was possible to use a simple set of mathematical ideas to perform unsupervised inductive inference of knowledge in a knowledge-lean and training-lean manner, for a knowledge domain that traditionally relies on “giving” the system complex design domain and task knowledge for performing the same set of tasks.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Dallon, Antoine. "Vérification de propriétés d'indistinguabilité pour les protocoles cryptographiques". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLN044/document.

Texto completo
Resumen
Cette thèse s'inscrit dans le domaine de la vérification de protocoles cryptographiques dans le modèle symbolique. Plus précisément, il s'agit de s'assurer à l'aide de méthodes formelles que de petits programmes distribués satisfont à des propriétés d'indistinguabilité, c'est-à-dire qu'un attaquant n'est pas capable de deviner quelle situation (parmi deux)il observe. Ce formalisme permet d'exprimer des propriétés de sécurité comme le secret fort, l'intraçabilité ou l'anonymat. De plus, les protocoles sont exécutés simultanément par un grand nombre d'agents, à plusieurs reprises si bien que nous nous heurtons très rapidement à des résultats d'indécidabilité. Dès lors, il faut ou bien tenir compte du nombre arbitraire de sessions et rechercher des méthodes de semi-décision ou identifier des classes décidables ;ou bien établir des procédures de décision pour un nombre fini de sessions. Au moment où nous avons commencé les travaux présentés dans cette thèse les outils de vérification de propriétés d'indistinguabilité pour un nombre borné de sessions ne permettaient de traiter que très peu de sessions :dans certains cas il était tout juste possible de modéliser un échange complet. Cette thèse présente des procédures de décision efficaces dans ce cadre. Dans un premier temps, nous établissons des résultats de petite attaque. Pour des protocoles déterministes nous démontrons qu'il existe une attaque si, et seulement s’il existe une attaque bien typée lorsque toute confusion entre les types des variables est évitée. De plus, nous prouvons que, lorqu'il existe une attaque l'attaquant peut la trouver en utilisant au plus trois constantes. Dans un second temps, nous traduisons le problème d'indistinguabilité en termes d'accessibilité dans un système de planification qui est résolu par l'algorithme du graphe de planification associé à un codage SAT. Nous terminons en confirmant l'efficacité de la démarche ,à travers l'implémentation de l'outil SAT-Equivet sa comparaison vis-à-vis des outils analogues
This thesis presents methods to verify cryptographic protocolsin the symbolic model: formal methods allowto verify that small distributed programssatisfy equivalence properties.Those properties state that an attackercannot decide what scenario is beeing played.Strong secrecy, and privacy type properties, like anonymityand unlinkeability, can be modelled through this formalism.Moreover, protocols are executed simultaneouslyby an unbounded number of agents, for an unbounded numberof sessions,which leads to indecidability results.So, we have either to consider an arbitrary number of sessions,and search for semi-decision proceduresand decidable classes;or to establish decision procedures for a finite numberof sessions.When we started the work presented in this thesis,the existing equivalence checkers in the bounded modelwere highly limited. They could only handlea~very small number of sessions (sometimes no more than three).This thesis presents efficient decision proceduresfor bounded verification of equivalence properties.Our first step is to provide small attack results.First, for deterministic processes, there existsan attack if, and ony if, there is a well-typed attack,assuming that there is no confusion between variable types.Second, when there exists a flaw,the attacker needs at most three constants to find it.Then, our second step is to translatethe indistinguishability problem as a reachability problemin a planning system. We solve this second problemthrough planning graph algorithm and SAT encoding.In a final step, we present the implementation ofthe SAT-Equiv tool, which allows us to evaluate our approach.In particular, a benchmark with comparable tools provesthe efficiency of SAT-Equiv
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Smart, Angela. "Undergraduate Students’ Connections Between the Embodied, Symbolic, and Formal Mathematical Worlds of Limits and Derivatives: A Qualitative Study Using Tall’s Three Worlds of Mathematics". Thèse, Université d'Ottawa / University of Ottawa, 2013. http://hdl.handle.net/10393/24247.

Texto completo
Resumen
Calculus at the university level is taken by thousands of undergraduate students each year. However, a significant number of students struggle with the subject, resulting in poor problem solving, low achievement, and high failure rates in the calculus courses overall (e.g., Kaput, 1994; Szydlik, 2000; Tall, 1985; Tall & Ramos, 2004; White & Mitchelmore, 1996). This is cause for concern as the lack of success in university calculus creates further barriers for students who require the course for their programs of study. This study examines this issue from the perspective of Tall’s Three Worlds of Mathematics (Tall, 2004a, 2004b, 2008), a theory of mathematics and mathematical cognitive development. A fundamental argument of Tall’s theory suggests that connecting between the different mathematical worlds, named the Embodied-Conceptual, Symbolic-Proceptual, and Formal-Axiomatic worlds, is essential for full cognitive development and understanding of mathematical concepts. Working from this perspective, this research examined, through the use of calculus task questions and semi-structured interviews, how fifteen undergraduate calculus students made connections between the different mathematical worlds for the calculus topics of limits and derivatives. The analysis of the findings suggests that how the students make connections can be described by eight different Response Categories. The study also found that how the participants made connections between mathematical worlds might be influenced by the type of questions that are asked and their experience in calculus courses. I infer that these Response Categories have significance for this study and offer potential for further study and educational practice. I conclude by identifying areas of further research in regards to calculus achievement, the Response Categories, and other findings such as a more detailed study of the influence of experience.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Clochard, Martin. "Méthodes et outils pour la spécification et la preuve de propriétés difficiles de programmes séquentiels". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS071/document.

Texto completo
Resumen
Cette thèse se positionne dans le domaine de la vérification déductive de programmes, qui consiste à transformer une propriété à vérifier sur un programme en un énoncé logique, pour ensuite démontrer cet énoncé. La vérification effective d'un programme peut poser de nombreuses difficultés pratiques. En fait, les concepts mis en jeu derrière le programme peuvent suffire à faire obstacle à la vérification. En effet, certains programmes peuvent être assez courts et n'utiliser que des constructions simples, et pourtant s'avérer très difficiles à vérifier. Cela nous amène à la question suivante: dans le contexte d'un environnement de vérification déductive de programmes basé sur les démonstrateurs automatiques, quelles méthodes appliquer pour réduire l'effort nécessaire à la fois pour spécifier des comportements attendus complexes, ainsi que pour démontrer qu'un programme respecte ces comportements attendus? Pour mener notre étude, nous nous sommes placés dans le cadre de l'environnement de vérification déductive de programmes Why3. La vérification de programmes en Why3 est basée sur la génération de conditions de vérification, et l'usage de démonstrateurs externes pour les prouver, que ces démonstrateurs soient automatiques ou interactifs. Nous avons développé plusieurs méthodes, certaines générales et d'autres spécifiques à des classes de programmes, pour réduire l'effort manuel. Nos contributions sont les suivantes. Tout d'abord, nous ajoutons des fonctionnalités à Why3 pour assister le processus de vérification, notamment un mécanisme léger de preuve déclarative basé sur la notion d'indicateurs de coupures. Ensuite, nous présentons une méthode de vérification d'absence de débordement arithmétique pour une classe d'utilisation des entiers difficile à traiter par les méthodes standards. Enfin, nous nous intéressons au développement d'une bibliothèque générique pour la spécification et la preuve de programmes générateurs de code
This thesis is set in the domain of deductive verification of programs, which consists of transforming a property to be verified about a program into a logical statement, and then proving this statement. Effective verification of a program can pose many practical difficulties. In fact, the concepts behind the program may be sufficient to impede verification. Indeed, some programs can be quite short and use only simple constructions, and yet prove very difficult to verify. This leads us to the following question: in the context of a deductive program verification environment based on automatic provers, what methods can be applied to reduce the effort required both to specify complex behaviors, as well as to prove that a program respects these expected behaviors? To carry out our study, we placed ourselves in the context of the deductive verification environment of programs Why3. The verification of programs in Why3 is based on the generation of verification conditions, and the use of external provers to prove them, whether these provers are automatic or interactive. We have developed several methods, some general and others specific to some program classes, to reduce manual effort. Our contributions are as follows. First, we add features to Why3 to assist the verification process, including a lightweight declarative proof mechanism based on the notion of cut indicators. Then we present a method for checking the absence of arithmetic overflow, for use cases which are difficult to process by standard methods. Finally, we are interested in the development of a generic library for the specification and proof of code generating programs
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Cheval, Vincent. "Automatic verification of cryptographic protocols : privacy-type properties". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00861389.

Texto completo
Resumen
Many tools have been developed to automatically verify security properties on cryptographic protocols. But until recently, most tools focused on trace properties (or reachability properties) such as authentication and secrecy. However, many security properties cannot be expressed as trace properties, but can be written as equivalence properties. Privacy, unlinkability, and strong secrecy are typical examples of equivalence properties. Intuitively, two protocols P, Q are equivalent if an adversary can not distinguish P from Q by interacting with these processes. In the literature, several notions of equivalence were studied, e.g. trace equivalence or a stronger one, observational equivalence. However, it is often very difficult to prove by hand any of these equivalences, hence the need for efficient and automatic tools. We first worked on an approach that rely on constraint solving techniques and that is well suited for bounded number of sessions. We provided a new algorithm for deciding the trace equivalence between processes that may contain negative tests and non-determinism. We applied our results on concrete examples such as anonymity of the Private Authentication protocol and the E-passport protocol. We also investigated composition results. More precisely, we focused on parallel composition under shared secrets. We showed that under certain conditions on the protocols, the privacy type properties are preserved under parallel composition and under shared secrets. We applied our result on the e-passport protocol. At last this work presents an extension of the automatic protocol verifier ProVerif in order to prove more observational equivalences. This extension have been implemented in ProVerif and allows us to automatically prove anonymity in the private authentication protocol.
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Gamard, Guilhem. "Couverture d'un mot bidimensionnel par un motif chevauchant". Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS027/document.

Texto completo
Resumen
Nous étudions dans cette thèse la notion de quasipériodicité,introduite par Apostolico et Ehrenfeucht au début des années 1990,puis étendue aux mots infinis par Solomon Marcus au début des années2000. Un mot (fini ou infini) w est quasipériodique s'il peut êtrecouvert par des occurrences, éventuellement chevauchantes, d'un autremot, fini, appelé sa quasipériode. En 2006, Monteil etMarcus ont introduit la notion plus forte de quasipériodicitémulti-échelles : le fait d'avoir une infinité de quasipériodes.Dans un premier temps, nous étudions la quasipériodicité des motsinfinis bidimensionnels. Nous montrons que, contrairement au casunidimensionnel où la quasipériodicité ne force aucune propriété fortedes mots infinis, il existe des quasipériodes q qui forcent les mots2D q-quasipériodiques à être d'entropie nulle. Nous montrons égalementque la quasipériodicité multi-échelles en deux dimensions forcel'existence de fréquences uniformes pour les facteurs.Dans un deuxième temps, nous donnons des résultats sur les motsinfinis en une dimension. Nous donnons notament une approchepermettant de déterminer les quasipériodes d'un mot infini à partir deses facteurs carrés et de ses facteurs spéciaux. Nous montrons ensuiteque la famille des mots périodiques, ainsi que celle des mots standardsturmiens, peuvent être caractérisées en termes de quasipériodicitémulti-échelles
We study the notion of quasiperiodicity, introduced by Apostolico and Ehrenfeucht at the beginning of the 1990's, then extended to infinite words by Solomon Marcus at the beginning of the 2000's. A (finite or infinite) word w is quasiperiodic if it can be covered by occurrences, possibly overlapping, of another finite word, call its quasiperiod. In 2006, Monteil and Marcus introduced a stronger notion: multi-scale quasiperiodicity, the property of having infinitely many quasiperiods.First we study quasiperiodicity of two-dimensional infinite words. We show that, by contrast with the one-dimensional case where quasiperiodicity do not force any property on infinite words, there exist quasiperiods q which force 2D q-quasiperiodic words to have zero entropy. We also show that multi-scale quasiperiodicity in two dimension force the existence of uniform frequencies for factors.Then we give results on infinite words in one dimension. Most notably we give a method to determine the quasiperiods of an infinite words from its square and special factors. We show that the family of periodic words and standard Sturmian words are characterizable in terms of multi-scale quasiperiodicity
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Reis, Teofilo de Souza. "Conectivos flexíveis : uma abordagem categorial às semânticas de traduções possíveis". [s.n.], 2008. http://repositorio.unicamp.br/jspui/handle/REPOSIP/278896.

Texto completo
Resumen
Orientador: Marcelo Esteban Coniglio
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Filosofia e Ciencias Humanas
Made available in DSpace on 2018-08-11T21:55:18Z (GMT). No. of bitstreams: 1 Reis_TeofilodeSouza_M.pdf: 733611 bytes, checksum: 0e64d330d9e71079eddd94de91f141c2 (MD5) Previous issue date: 2008
Resumo: Neste trabalho apresentamos um novo formalismo de decomposição de Lógicas, as Coberturas por Traduções Possíveis, ou simplesmente CTPs. As CTPs constituem uma versão formal das Semânticas de Traduções Possíveis, introduzidas por W. Carnielli em 1990. Mostramos como a adoção de um conceito mais geral de morfismo de assinaturas proposicionais (usando multifunções no lugar de funções) nos permite definir uma categoria Sig?, na qual os conectivos, ao serem traduzidos de uma assinatura para outra, gozam de grande flexibilidade. A partir de Sig?, contruímos a categoria Log? de lógicas tarskianas e morfismos (os quais são funções obtidas a partir de um morfismo de assinaturas, isto é, de uma multifunção). Estudamos algumas características de Sig? e Log?, afim de verificar que estas categorias podem de fato acomodar as construções que pretendemos apresentar. Mostramos como definir em Log? o conjunto de traduções possíveis de uma fórmula, e a partir disto definimos a noção de CTP para uma lógica L. Por fim, exibimos um exemplo concreto de utilização desta nova ferramenta, e discutimos brevemente as possíveis abordagens para uma continuação deste trabalho.
Abstract: We present a general study of a new formalism of decomposition of logics, the Possible- Translations Coverings (in short PTC 's) which constitute a formal version of Possible-Translations Semantics, introduced by W. Carnielli in 1990. We show how the adoption of a more general notion of propositional signatures morphism allows us to define a category Sig?, in which the connectives, when translated from a signature to another one, enjoy of great flexibility. Essentially, Sig? -morphisms will be multifunctions instead of functions. From Sig? we construct the category Log? of tarskian logics and morphisms between them (these .are functions obtained from signature morphisms, that is, from multifunctions) . We show how to define in Log? the set of possible translations of a given formula, and we define the notion of a PTC for a logic L. We analyze some properties of PTC 's and give concrete examples of the above mentioned constructions. We conclude with a discussion of the approaches to be used in a possible continuation of these investigations.
Mestrado
Mestre em Filosofia
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Bréhard, Florent. "Certified numerics in function spaces : polynomial approximations meet computer algebra and formal proof". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEN032/document.

Texto completo
Resumen
Le calcul rigoureux vise à produire des représentations certifiées pour les solutions de nombreux problèmes, notamment en analyse fonctionnelle, comme des équations différentielles ou des problèmes de contrôle optimal. En effet, certains domaines particuliers comme l’ingénierie des systèmes critiques ou les preuves mathématiques assistées par ordinateur ont des exigences de fiabilité supérieures à ce qui peut résulter de l’utilisation d’algorithmes relevant de l’analyse numérique classique.Notre objectif consiste à développer des algorithmes à la fois efficaces et validés / certifiés, dans le sens où toutes les erreurs numériques (d’arrondi ou de méthode) sont prises en compte. En particulier, nous recourons aux approximations polynomiales rigoureuses combinées avec des méthodes de validation a posteriori à base de points fixes. Ces techniques sont implémentées au sein d’une bibliothèque écrite en C, ainsi que dans un développement de preuve formelle en Coq, offrant ainsi le plus haut niveau de confiance, c’est-à-dire une implémentation certifiée.Après avoir présenté les opérations élémentaires sur les approximations polynomiales rigoureuses, nous détaillons un nouvel algorithme de validation pour des approximations sous forme de séries de Tchebychev tronquées de fonctions D-finies, qui sont les solutions d’équations différentielles ordinaires linéaires à coefficients polynomiaux. Nous fournissons une analyse fine de sa complexité, ainsi qu’une extension aux équations différentielles ordinaires linéaires générales et aux systèmes couplés de telles équations. Ces méthodes dites symboliques-numériques sont ensuite utilisées dans plusieurs problèmes reliés : une nouvelle borne sur le nombre de Hilbert pour les systèmes quartiques, la validation de trajectoires de satellites lors du problème du rendez-vous linéarisé, le calcul de polynômes d’approximation optimisés pour l’erreur d’évaluation, et enfin la reconstruction du support et de la densité pour certaines mesures, grâce à des techniques algébriques
Rigorous numerics aims at providing certified representations for solutions of various problems, notably in functional analysis, e.g., differential equations or optimal control. Indeed, specific domains like safety-critical engineering or computer-assisted proofs in mathematics have stronger reliability requirements than what can be achieved by resorting to standard numerical analysis algorithms. Our goal consists in developing efficient algorithms, which are also validated / certified in the sense that all numerical errors (method or rounding) are taken into account. Specifically, a central contribution is to combine polynomial approximations with a posteriori fixed-point validation techniques. A C code library for rigorous polynomial approximations (RPAs) is provided, together with a Coq formal proof development, offering the highest confidence at the implementation level.After providing basic operations on RPAs, we focus on a new validation algorithm for Chebyshev basis solutions of D-finite functions, i.e., solutions of linear ordinary differential equations (LODEs) with polynomial coefficients. We give an in-depth complexity analysis, as well as an extension to general LODEs, and even coupled systems of them. These symbolic-numeric methods are finally used in several related problems: a new lower bound on the Hilbert number for quartic systems; a validation of trajectories arising in the linearized spacecraft rendezvous problem; the design of evaluation error efficient polynomial approximations; and the support and density reconstruction of particular measures using algebraic techniques
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Wang, Xiaotian. "Mission-aware Vulnerability Assessment for Cyber-Physical System". Wright State University / OhioLINK, 2015. http://rave.ohiolink.edu/etdc/view?acc_num=wright1440809206.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Bueno-Soler, Juliana 1976. "Multimodalidades anodicas e catodicas : a negação controlada em logicas multimodais e seu poder expressivo". [s.n.], 2009. http://repositorio.unicamp.br/jspui/handle/REPOSIP/280387.

Texto completo
Resumen
Orientador: Itala Maria Loffredo D'Ottaviano
Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Filosofia e Ciencias Humanas
Made available in DSpace on 2018-09-11T21:14:41Z (GMT). No. of bitstreams: 1 Bueno-Soler_Juliana_D.pdf: 1230879 bytes, checksum: c04ce9e8061c154854f6283749f9c12b (MD5) Previous issue date: 2009
Resumo: O presente trabalho tem por objetivo investigar o papel da negação no âmbito das modalidades, de forma a poder esclarecer até que ponto a negação pode ser atenuada, controlada ou mesmo totalmente eliminada em favor da melhor expressabilidade lógica de certas teorias, asserções ou raciocínios que sofrem os efeitos da negação. Contudo, atenuar ou eliminar a negação tem um alto preço: métodos tradicionais em lógica podem deixar de ser válidos e certos resultados, como teoremas de completude para sistemas lógicos, podem ser derrogados. Do ponto de vista formal, a questão central que investigamos aqui e até que ponto tais métodos podem ser restabelecidos. Com tal finalidade, iniciamos nosso estudo a partir do que denominamos sistemas anódicos" (sem negação) e, a posteriori, introduzimos gradativamente o elemento catódico" (negações, com diversas gradações e diferentes características) nos sistemas modais por meio de combinações com certas lógicas paraconsistentes, as chamadas lógicas da inconsistência formal (LFIs). Todos os sistemas tratados são semanticamente caracterizados por semânticas de mundos possíveis; resultados de incompletude são também obtidos e discutidos. Obtemos ainda semânticas modais de traduções possíveis para diversos desses sistemas. Avançamos na direção das multimodalidades, investigando os assim chamados sistemas multimodais anódicos e catódicos. Finalmente, procuramos avaliar criticamente o alcance e o interesse dos resultados obtidos na direção da racionalidade sensível à negação.
Abstract: The present work aims to investigate the role of negations in the scope of modalities and in the reasoning expressed by modalities. The investigation starts from what we call anodic" systems (without any form of negation) and gradually reaches the cathodic" elements, where negations are introduced by means of combining modal logics with certain paraconsistent logics known as logics of formal inconsistency (LFIs). We obtain completeness results for all treated systems, and also show that certain incompleteness results can be obtained. The class of the investigated systems includes all normal modal logics that are extended by means of the schema Gk;l;m;n due to E. J. Lemmon and D. Scott combined with LFIs. We also tackle the question of obtaining modal possible-translations semantics for these systems. Analogous results are analyzed in the scope of multimodalities, where anodic as much as cathodic logics are studied. Finally, we advance a critical evaluation of the reach and scope of all the results obtained to what concerns expressibility of reasoning considered to be sensible to negation. We also critically assess the obtained results in contrast with problems of rationality that are sensible to negation.
Doutorado
Doutor em Filosofia
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Chalk, Matěj. "Nástroj pro abstraktní regulární model checking". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2018. http://www.nusl.cz/ntk/nusl-385924.

Texto completo
Resumen
Formal verification methods offer a large potential to provide automated software correctness checking (based on sound mathematical roots), which is of vital importance. One such technique is abstract regular model checking, which encodes sets of reachable configurations and one-step transitions between them using finite automata and transducers, respectively. Though this method addresses problems that are undecidable in general, it facilitates termination in many practical cases, while also significantly reducing the state space explosion problem. This is achieved by accelerating the computation of reachability sets using incrementally refinable abstractions, while eliminating spurious counterexamples caused by overapproximation using a counterexample-guided abstraction refinement technique. The aim of this thesis is to create a well designed tool for abstract regular model checking, which has so far only been implemented in prototypes. The new tool will model systems using symbolic automata and transducers instead of their (less concise) classic alternatives.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Rodrigues, Tarcísio Genaro. "Sobre os fundamentos de programação lógica paraconsistente". [s.n.], 2010. http://repositorio.unicamp.br/jspui/handle/REPOSIP/278897.

Texto completo
Resumen
Orientador: Marcelo Esteban Coniglio
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Filosofia e Ciencias Humanas
Made available in DSpace on 2018-08-17T03:29:03Z (GMT). No. of bitstreams: 1 Rodrigues_TarcisioGenaro_M.pdf: 1141020 bytes, checksum: 59bb8a3ae7377c05cf6a8d8e6f7e45a5 (MD5) Previous issue date: 2010
Resumo: A Programação Lógica nasce da interação entre a Lógica e os fundamentos da Ciência da Computação: teorias de primeira ordem podem ser interpretadas como programas de computador. A Programação Lógica tem sido extensamente utilizada em ramos da Inteligência Artificial tais como Representação do Conhecimento e Raciocínio de Senso Comum. Esta aproximação deu origem a uma extensa pesquisa com a intenção de definir sistemas de Programação Lógica paraconsistentes, isto é, sistemas nos quais seja possível manipular informação contraditória. Porém, todas as abordagens existentes carecem de uma fundamentação lógica claramente definida, como a encontrada na programação lógica clássica. A questão básica é saber quais são as lógicas paraconsistentes subjacentes a estas abordagens. A presente dissertação tem como objetivo estabelecer uma fundamentação lógica e conceitual clara e sólida para o desenvolvimento de sistemas bem fundados de Programação Lógica Paraconsistente. Nesse sentido, este trabalho pode ser considerado como a primeira (e bem sucedida) etapa de um ambicioso programa de pesquisa. Uma das teses principais da presente dissertação é que as Lógicas da Inconsistência Formal (LFI's), que abrangem uma enorme família de lógicas paraconsistentes, proporcionam tal base lógica. Como primeiro passo rumo à definição de uma programação lógica genuinamente paraconsistente, demonstramos nesta dissertação uma versão simplificada do Teorema de Herbrand para uma LFI de primeira ordem. Tal teorema garante a existência, em princípio, de métodos de dedução automática para as lógicas (quantificadas) em que o teorema vale. Um pré-requisito fundamental para a definição da programação lógica é justamente a existência de métodos de dedução automática. Adicionalmente, para a demonstração do Teorema de Herbrand, são formuladas aqui duas LFI's quantificadas através de sequentes, e para uma delas demonstramos o teorema da eliminação do corte. Apresentamos também, como requisito indispensável para os resultados acima mencionados, uma nova prova de correção e completude para LFI's quantificadas na qual mostramos a necessidade de exigir o Lema da Substituição para a sua semântica
Abstract: Logic Programming arises from the interaction between Logic and the Foundations of Computer Science: first-order theories can be seen as computer programs. Logic Programming have been broadly used in some branches of Artificial Intelligence such as Knowledge Representation and Commonsense Reasoning. From this, a wide research activity has been developed in order to define paraconsistent Logic Programming systems, that is, systems in which it is possible to deal with contradictory information. However, no such existing approaches has a clear logical basis. The basic question is to know what are the paraconsistent logics underlying such approaches. The present dissertation aims to establish a clear and solid conceptual and logical basis for developing well-founded systems of Paraconsistent Logic Programming. In that sense, this text can be considered as the first (and successful) stage of an ambitious research programme. One of the main thesis of the present dissertation is that the Logics of Formal Inconsistency (LFI's), which encompasses a broad family of paraconsistent logics, provide such a logical basis. As a first step towards the definition of genuine paraconsistent logic programming we shown, in this dissertation, a simplified version of the Herbrand Theorem for a first-order LFI. Such theorem guarantees the existence, in principle, of automated deduction methods for the (quantified) logics in which the theorem holds, a fundamental prerequisite for the definition of logic programming over such logics. Additionally, in order to prove the Herbrand Theorem we introduce sequent calculi for two quantified LFI's, and cut-elimination is proved for one of the systems. We also present, as an indispensable requisite for the above mentioned results, a new proof of soundness and completeness for first-order LFI's in which we show the necessity of requiring the Substitution Lemma for the respective semantics
Mestrado
Filosofia
Mestre em Filosofia
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Jacomme, Charlie. "Preuves de protocoles cryptographiques : méthodes symboliques et attaquants puissants". Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG005.

Texto completo
Resumen
L'utilisation des protocoles de communication est omniprésente dans notre société, mais leur utilisation comporte des risques de sécurité ou d'atteinte à la vie privée. Pour réduire ces risques, il faut exiger de solides garanties, i.e. des preuves formelles, approfondies, modulaires et vérifiées par ordinateur. Toutefois, de telles preuves sont très difficiles à obtenir. Nous essayons dans cette thèse de faciliter ce processus dans le cas des protocoles cryptographiques et d'attaquants puissants. Nos contributions principales sont 1) une méthodologie d'analyse approfondies dans le cas de l'authentification multi-facteurs; 2) des résultats de composition permettant des preuves modulaires de protocoles complexes dans le modèle calculatoire; 3) l'automatisation d'étapes élémentaires de preuves calculatoires via des méthodes symboliques appliquées à des programmes probabilistes; 4) un prototype d'assistant de preuve dans le modèle de l'attaquant symbolique calculatoirement complet
The use of communication protocols has become pervasive at all levels of our society. Yet, their uses come with risks, either about the security of the system or the privacy of the user. To mitigate those risks, we must provide the protocols with strong security guarantees: we need formal, extensive, modular and machine-checked proofs. However, such proofs are very difficult to obtain in practice. In this Thesis, we strive to ease this process in the case of cryptographic protocols and powerful attackers. The four main contributions of this Thesis, all based on symbolic methods, are 1) a methodology for extensive analyses via a case study of multi-factor authentication; 2) composition results to allow modular proofs of complex protocols in the computational model; 3) symbolic methods for deciding basic proof steps in computational proofs, formulated as problems on probabilistic programs; 4) a prototype of a mechanized prover in the Computationally Complete Symbolic Attacker model
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Kotoun, Michal. "Symbolické automaty v analýze programů s řetězci". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2020. http://www.nusl.cz/ntk/nusl-433553.

Texto completo
Resumen
Mnoho aplikací přijímá, odesílá a zpracovává data v textové podobě. Správné a bezpečné zpracování těchto dat je typicky zajištěno tzv. ošetřením řetězců (string sanitization). Pomocí metod formální verifikace je možné analyzovat takovéto operace s řetězci a prověřit, zda jsou správně navržené či implementované.  Naším cílem je vytvořit obecný nástroj pro analýzu systémů jejichž konfigurace lze kódovat pomocí slov z vhodné abecedy, a také jeho specializaci pro analýzu programů pracujících s řetězci. Nejprve jsou popsaný konečné automaty a převodníky a poté různé třídy a podtřídy symbolických převodníků, zejména pak jejich omezení. Na základě těchto informací je pak pro použití v analýze programů navržen nový typ symbolických převodníků. Dále je popsán regulární model checking, speciálně pak jeho variantu založenou na abstrakci automatů, tzv. ARMC, u kterého je známo že dokáže velmi úspěšně překonat problém stavové exploze u automatů a umožňuje nám tzv. dosáhnout pevného bodu v analýze. Poté je navržena vlastní analýza programů psaných v imperativním paradigmatu, a to zejména programů manipulujících s řetězci, založená na principech ARMC. Následuje popis vlastní implementace nástroje s důrazem na jeho praktické vlastnosti. Rovněž jsou popsaný důležité části knihovny AutomataDotNet, na které nástroj staví. Práci je uzavřena diskuzí experimentů s nástrojem provedených na příkladech z knihovny LibStranger.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Harrath, Nesrine. "A stepwise compositional approach to model and analyze system C designs at the transactional level and the delta cycle level". Thesis, Paris, CNAM, 2014. http://www.theses.fr/2014CNAM0957/document.

Texto completo
Resumen
Les systèmes embarqués sont de plus en plus intégrés dans les applications temps réel actuelles. Ils sont généralement constitués de composants matériels et logiciels profondément Intégrés mais hétérogènes. Ces composants sont développés sous des contraintes très strictes. En conséquence, le travail des ingénieurs de conception est devenu plus difficile. Pour répondre aux normes de haute qualité dans les systèmes embarqués de nos jours et pour satisfaire aux besoins quotidiens de l'industrie, l'automatisation du processus de développement de ces systèmes prend de plus en plus d'ampleur. Un défi majeur est de développer une approche automatisée qui peut être utilisée pour la vérification intégrée et la validation de systèmes complexes et hétérogènes.Dans le cadre de cette thèse, nous proposons une nouvelle approche compositionnelle pour la modélisation et la vérification des systèmes complexes décrits en langage SystemC. Cette approche est basée sur le modèle des SystemC Waiting State Automata (WSA). Les SystemC Waiting State Automata sont des automates permettant de modéliser le comportement abstrait des systèmes matériels et logiciels décrits en SystemC tout en préservant la sémantique de l'ordonnanceur SystemC au niveau des cycles temporels et au niveau des delta-cycles. Ce modèle permet de réduire la complexité de la modélisation des systèmes complexes due au problème de l'explosion combinatoire tout en restant fidèle au système initial. Ce modèle est compositionnel et supporte le rafinement. De plus, il est étendu par des paramètres temps ainsi que des compteurs afin de prendre en compte les aspects relatifs à la temporalité et aux propriétés fonctionnelles comme notamment la qualité de service. Nous proposons ensuite une chaîne de construction automatique des WSAs à partir de la description SystemC. Cette construction repose sur l'exécution symbolique et l'abstraction des prédicats. Nous proposons un ensemble d'algorithmes de composition et de réduction de ces automates afin de pouvoir étudier, analyser et vérifier les comportements concurrents des systèmes décrits ainsi que les échanges de données entre les différents composants. Nous proposons enfin d'appliquer notre approche dans le cadre de la modélisation et la simulation des systèmes complexes. Ensuite l'expérimenter pour donner une estimation du pire temps d'exécution (worst-case execution time (WCET)) en utilisant le modèle du Timed SystemC WSA. Enfin, on définit l'application des techniques du model checking pour prouver la correction de l'analyse abstraite de notre approche
Embedded systems are increasingly integrated into existing real-time applications. They are usually composed of deeply integrated but heterogeneous hardware and software components. These components are developed under strict constraints. Accordingly, the work of design engineers became more tricky and challenging. To meet the high quality standards in nowadays embedded systems and to satisfy the rising industrial demands, the automatization of the developing process of those systems is gaining more and more importance. A major challenge is to develop an automated approach that can be used for the integrated verification and validation of complex and heterogeneous HW/SW systems.In this thesis, we propose a new compositional approach to model and verify hardware and software written in SystemC language. This approach is based on the SystemC Waiting State Automata (WSA). The SystemC Waiting State Automata are used to model the abstract behavior of hardware or software systems described in SystemC. They preserve the semantics of the SystemC scheduler at the temporal and the delta-cycle level. This model allows to reduce the complexity of the modeling process of complex systems due to the problem of state explosion during modeling while remaining faithful to the original system. The SystemC waiting state automaton is also compositional and supports refinement. In addition, this model is extended with parameters such as time and counters in order to take into account further aspects like temporality and other extra-functional properties such as QoS.In this thesis, we propose a stepwise approach on how to automatically extract the SystemC WSAs from SystemC descriptions. This construction is based on symbolic execution together with predicate abstraction. We propose a set of algorithms to symbolically compose and reduce the SystemC WSAs in order to study, analyze and verify concurrent behavior of systems as well as the data exchange between various components. We then propose to use the SystemC WSA to model and simulate hardware and software systems, and to compute the worst cas execution time (WCET) using the Timed SystemC WSA. Finally, we define how to apply model checking techniques to prove the correctness of the abstract analysis
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Kanso, Bilal. "Modélisation et validation des systèmes informatiques complexes". Phd thesis, Ecole Centrale Paris, 2011. http://tel.archives-ouvertes.fr/tel-00650258.

Texto completo
Resumen
La thèse s'inscrit dans le domaine de la modélisation et de la validation des systèmes modernes complexes. Les systèmes actuels sont en fait d'une complexité sans cesse croissante et formés de plus en plus de composants de natures différentes. Ceci rend leur processus de conception et de validation coûteux et difficile. Il semble être la simple façon permettant de faire face à cette hétérogénéité et à cette complexité est l'approche orientée composant. Suivant cette approche, le système est une entité formée par un ensemble des composants interconnectés. Les composants définissent une interface qui permet d'abstraire leur modèle interne (boîte noire), ce qui favorise la modularité et la réutilisation des composants. L'interaction entre ces composants se fait conformément à un ensemble des règles pré-établies, permettant ainsi d'avoir une vision globale de comportement du système. La conception ainsi que la validation des systèmes modernes reste alors problématique à cause de la nécessité de prendre en compte l'hétérogénéité des différents composants. Dans ce cadre, dans un premier temps, nous définirons un cadre formel générique dans lequel une large famille de formalismes de description de systèmes à base d'états peut être naturellement capturée. Ainsi, nous allons définir un ensemble de règles de composition permettant de mettre en correspondance les différents composants et ainsi de constituer un modèle global du système à concevoir. Dans un second temps, nous proposerons une approche de test d'intégration qui permet de valider le comportement d'un système complexe sous l'hypothèse que chaque composant est testé et validé. Cette approche vise à générer automatiquement des cas de test en s'appuyant sur un modèle global décrit dans notre framework du système sous test.
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Harrath, Nesrine. "A stepwise compositional approach to model and analyze system C designs at the transactional level and the delta cycle level". Electronic Thesis or Diss., Paris, CNAM, 2014. http://www.theses.fr/2014CNAM0957.

Texto completo
Resumen
Les systèmes embarqués sont de plus en plus intégrés dans les applications temps réel actuelles. Ils sont généralement constitués de composants matériels et logiciels profondément Intégrés mais hétérogènes. Ces composants sont développés sous des contraintes très strictes. En conséquence, le travail des ingénieurs de conception est devenu plus difficile. Pour répondre aux normes de haute qualité dans les systèmes embarqués de nos jours et pour satisfaire aux besoins quotidiens de l'industrie, l'automatisation du processus de développement de ces systèmes prend de plus en plus d'ampleur. Un défi majeur est de développer une approche automatisée qui peut être utilisée pour la vérification intégrée et la validation de systèmes complexes et hétérogènes.Dans le cadre de cette thèse, nous proposons une nouvelle approche compositionnelle pour la modélisation et la vérification des systèmes complexes décrits en langage SystemC. Cette approche est basée sur le modèle des SystemC Waiting State Automata (WSA). Les SystemC Waiting State Automata sont des automates permettant de modéliser le comportement abstrait des systèmes matériels et logiciels décrits en SystemC tout en préservant la sémantique de l'ordonnanceur SystemC au niveau des cycles temporels et au niveau des delta-cycles. Ce modèle permet de réduire la complexité de la modélisation des systèmes complexes due au problème de l'explosion combinatoire tout en restant fidèle au système initial. Ce modèle est compositionnel et supporte le rafinement. De plus, il est étendu par des paramètres temps ainsi que des compteurs afin de prendre en compte les aspects relatifs à la temporalité et aux propriétés fonctionnelles comme notamment la qualité de service. Nous proposons ensuite une chaîne de construction automatique des WSAs à partir de la description SystemC. Cette construction repose sur l'exécution symbolique et l'abstraction des prédicats. Nous proposons un ensemble d'algorithmes de composition et de réduction de ces automates afin de pouvoir étudier, analyser et vérifier les comportements concurrents des systèmes décrits ainsi que les échanges de données entre les différents composants. Nous proposons enfin d'appliquer notre approche dans le cadre de la modélisation et la simulation des systèmes complexes. Ensuite l'expérimenter pour donner une estimation du pire temps d'exécution (worst-case execution time (WCET)) en utilisant le modèle du Timed SystemC WSA. Enfin, on définit l'application des techniques du model checking pour prouver la correction de l'analyse abstraite de notre approche
Embedded systems are increasingly integrated into existing real-time applications. They are usually composed of deeply integrated but heterogeneous hardware and software components. These components are developed under strict constraints. Accordingly, the work of design engineers became more tricky and challenging. To meet the high quality standards in nowadays embedded systems and to satisfy the rising industrial demands, the automatization of the developing process of those systems is gaining more and more importance. A major challenge is to develop an automated approach that can be used for the integrated verification and validation of complex and heterogeneous HW/SW systems.In this thesis, we propose a new compositional approach to model and verify hardware and software written in SystemC language. This approach is based on the SystemC Waiting State Automata (WSA). The SystemC Waiting State Automata are used to model the abstract behavior of hardware or software systems described in SystemC. They preserve the semantics of the SystemC scheduler at the temporal and the delta-cycle level. This model allows to reduce the complexity of the modeling process of complex systems due to the problem of state explosion during modeling while remaining faithful to the original system. The SystemC waiting state automaton is also compositional and supports refinement. In addition, this model is extended with parameters such as time and counters in order to take into account further aspects like temporality and other extra-functional properties such as QoS.In this thesis, we propose a stepwise approach on how to automatically extract the SystemC WSAs from SystemC descriptions. This construction is based on symbolic execution together with predicate abstraction. We propose a set of algorithms to symbolically compose and reduce the SystemC WSAs in order to study, analyze and verify concurrent behavior of systems as well as the data exchange between various components. We then propose to use the SystemC WSA to model and simulate hardware and software systems, and to compute the worst cas execution time (WCET) using the Timed SystemC WSA. Finally, we define how to apply model checking techniques to prove the correctness of the abstract analysis
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Laroque, Octavie. "Les lois symboliques. Une étude à partir du droit de la propriété littéraire et artistique". Thesis, Paris 2, 2017. http://www.theses.fr/2017PA020040.

Texto completo
Resumen
Expression d’un mal législatif contemporain, les lois symboliques ne sont pas seulement des dispositions incantatoires sur le modèle des lois non normatives ou « mémorielles ». Elles peuvent aussi être des dispositions techniques, comme en comporte le droit de la propriété littéraire et artistique. Pour le comprendre, il convient, dans un premier temps, d’identifier les lois symboliques. Caractérisées par la disharmonie de leur discours et de leurs qualités normatives, ces lois donnent à voir un phénomène d’ineffectivité entendu en un sens large. Imprécises, irréalistes, menteuses, mais dotées d’un message vertueux, les lois symboliques sont le résultat d’un exercice instrumentalisé de l’action législative, davantage préoccupé par l’expression de valeurs que par la considération des effets concrets du texte. Dans un second temps, il importe de déterminer la manière dont les lois symboliques doivent être traitées. Signe d’une mutation de la production législative et du droit de la propriété littéraire et artistique, ces lois sont la figure d’un désordre : elles marquent le retrait du vrai symbolique et sa vaine compensation par un faux symbolique voyant. Cet enseignement commande une remise en ordre appelant au respect de règles de légistique et à la conscience morale des diseurs de normes animés par l’amour des lois. Alors que les réformes se multiplient en droit d’auteur et que la matière est attaquée par des revendications consuméristes et sociales, cette étude invite à une réflexion sur l’avenir de la discipline et à envisager des remèdes pour lutter contre l’apparition des lois symboliques
Symbolic laws are a recent manifestation of a contemporary legislative evil. They are not only incantatory declarations on the model of non-normative or "memorial" laws, since they can also be technical rulings, as intellectual property law is. To grasp this phenomenon, we must first identify what symbolic laws are. Characterized by the disharmony between their discourse and their normative qualities, these laws show a phenomenon of ineffective implementation. Unclear, unrealistic, sometimes lying, but endowed with a virtuous message, symbolic laws are the result of the instrumentalization of legislative action, an exercise where expressing values is more a concern than the concrete effects of the text. Secondly, it is important to determine how symbolic laws should be dealt with. As a sign of a change in legislative production and in intellectual property law, these laws are the figure of disorder: they mark the withdrawal of the true symbolism and its vain compensation by a false and flashy symbolism. This discovery calls for a restoration of order and the respect of legistic rules, where those who write the norms should be animated by the love of laws and guided by moral conscience. As intellectual property law is under attack by commercial and social demands, this study invites to think about its future and see how we could prevent the appearance of symbolic laws
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Py, Frédéric. "Contrôle d'exécution dans une architecture hiérarchisée pour systèmes autonomes". Toulouse 3, 2005. http://www.theses.fr/2005TOU30199.

Texto completo
Resumen
Il y a un besoin grandissant d'autonomie dans des complexes tels que les robots ou les satelli-tes. Ceci met en avant un problème non trivial : d'un côté il y a des systèmes complexes - donc difficiles à valider - avec une intervention de l'humain réduite, de l'autre nous avons des domai-nes où la sûreté fonctionnellement est nécessaire. A partir de là comment être sûr qu'un sys-tème autonome avec un pouvoir décisionnel fort, n'aura pas un comportement pouvant menacer le déroulement de la mission? Nous présentons ici les travaux effectués pour intégrer un contrô-leur d'exécution dans une architecture hiérarchisée. Nous décrivons la nécessité et le rôle d'un tel composant. Nous introduisons le R2C, notre contrôleur basé sur les hypothèses synchrones, ainsi que l'outil permettant sa génération. Enfin nous discutons de la nécessité de prendre en compte les composants décisionnels dans le contrôle. Les résultats obtenus durant des expéri-mentations confirment les idées issues de ce travail et permettent d'en tirer les conclusions et perspectives sur le contrôle en ligne de ces systèmes
There is an increasing need for advanced autonomy in complex embedded real-time systems such as robots or satellites. Still, this raises a major problem : on one side we have complex sys-tems - therefore, hard to validate - with little human intervention, on the other side these systems are used in domains where safety is critical. How can we guaranty that an autonomous system, with high level decisional capabilities, will exhibit a proper behavior and will not jeopardize the mission? The work we present here integrate an on-line execution control component for hierar-chical architectures. We first describe the role of this program. Then we introduce the R2C, our controller based on synchronous hypothesis, and the tool used to generate it. We then discuss why it is important to take into account the decisional components in our controller. We eventu-ally illustrate our contribution with some experimental results. We then conclude and give some possible future work in this area
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Bentakouk, Lina. "Test symbolique de services web composite". Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00675918.

Texto completo
Resumen
L'acceptation et l'utilisation des services Web en industrie se développent de par leursupport au développement d'application distribuées comme compositions d'entitéslogicielles plus simples appelées services. En complément à la vérification, le testpermet de vérifier la correction d'une implémentation binaire (code source nondisponible) par rapport à une spécification. Dans cette thèse, nous proposons uneapproche boîte-noire du test de conformité de compositions de services centralisées(orchestrations). Par rapport à l'état de l'art, nous développons une approchesymbolique de façon à éviter des problèmes d'explosion d'espace d'état dus à la largeutilisation de données XML dans les services Web. Cette approche est basée sur desmodèles symboliques (STS), l'exécution symbolique de ces modèles et l'utilisationd'un solveur SMT. De plus, nous proposons une approche de bout en bout, quiva de la spécification à l'aide d'un langage normalisé d'orchestration (ABPEL) etde la possible description d'objectifs de tests à la concrétisation et l'exécution enligne de cas de tests symboliques. Un point important est notre transformation demodèle entre ABPEL et les STS qui prend en compte les spécifications sémantiquesd'ABPEL. L'automatisation de notre approche est supportée par un ensemble d'outilsque nous avons développés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Benhamamouch, Bilel. "Calcul du pire temps d'exécution : méthode formelle s'adaptant à la sophistication croissante des architectures matérielles". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00685866.

Texto completo
Resumen
Afin de garantir qu'un programme respectera toutes ses contraintes temporelles, nous devons être capable de calculer une estimation fiable de son temps d'exécution au pire cas (WCET: worst case execution time). Cependant, identifier une borne précise du pire temps d'exécution devient une tâche très complexe du fait de la sophistication croissante des processeurs. Ainsi, l'objectif de nos travaux de recherche a été de définir une méthode formelle qui puisse s'adapter aux évolutions du matériel. Cette méthode consiste à développer un modèle du processeur cible, puis à l'exécuter symboliquement afin d'associer à chaque trace d'exécution un temps d'exécution au pire cas. Une méthode de fusionnement est également prévue afin d'éviter une possible explosion combinatoire. Cette méthode a pour principale contrainte de ne pas introduire trop d'imprécision sur les temps calculés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Lafourcade, Pascal. "Sécurité assistée par ordinateur pour les primitives cryptgraphiques, les protocoles de vote électronique et les réseaux de capteurs sans fil". Habilitation à diriger des recherches, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00807568.

Texto completo
Resumen
La sécurité est une des préoccupations principales de l'informatique moderne. De plus en plus de personnes utilisent un ordinateur pour des opérations sensibles comme pour des transferts bancaires, des achats sur internet, le payement des impôts ou même pour voter. La plupart de ces utilisateurs ne savent pas comment la sécurité est assurée, par conséquence ils font totalement confiance à leurs applications. Souvent ces applications utilisent des protocoles cryptographiques qui sont sujet à erreur, comme le montre la célèbre faille de sécurité découverte sur le protocole de Needham-Schroeder dix-sept ans après sa publication. Ces erreurs proviennent de plusieurs aspects : -- Les preuves de primitives cryptographiques peuvent contenir des erreurs. -- Les propriétés de sécurité ne sont pas bien spécifiées, par conséquence, il n'est pas facile d'en faire la preuve. -- Les hypothèses faites sur le modèle de l'intrus sont trop restrictives. Dans cette habilitation, nous présentons des méthodes formelles pour vérifier la sécurité selon ces trois aspects. Tout d'abord, nous construisons des logiques de Hoare afin de prouver la sécurité de primitives cryptographiques comme les chiffrements à clef publique, les modes de chiffrement asymétriques et les codes d'authentification de message ( Message authentication codes, MACs). Nous étudions aussi les protocoles de votes électroniques et les réseaux de capteus sans fil ( Wireless Sensor Networks, WSNs ). Dans ces deux domaines, nous analysons les propriétés de sécurité afin de les modéliser formellement. Ensuite nous développons des techniques appropriées afin de les vérifier.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Journault, Matthieu. "Analyse statique modulaire précise par interprétation abstraite pour la preuve automatique de correction de programmes et pour l’inférence de contrats". Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS152.

Texto completo
Resumen
Assurer le passage à l’échelle des analyseurs statiques définis par interprétation abstraite pose des difficultés. Une méthode classique d’accélération consiste en la découverte et la réutilisation de contrats satisfaits par certaines commandes du code source. Cette thèse s’intéresse à un sous-ensemble de C qui ne permet pas la récursivité, pour lequel on définit un analyseur modulaire capable d’inférer, de prouver et d'exploiter de tels contrats. Notre analyse est défini au-dessus d’un analyseur C existant et est donc capable de manipuler des types unions, des types structures, des tableaux, des allocations de mémoire (statique et dynamique), des pointeurs, y compris l'arithmétique de pointeur et le transtypage, appels de fonction, des chaînes de caractères, .... La représentation des chaînes de caractère est gérée par un nouveau domaine abstrait défini dans cette thèse. Nous proposons de plus une technique paramétrique de transformation de la sémantique classique des domaines abstraits vers une sémantique d’ensembles hétérogènes. Cette technique ne maintient qu’un seul état abstrait numérique, par opposition au partitionnement. Finalement nous proposons un domaine abstrait capable de représenter des ensembles d’arbres dont les feuilles peuvent contenir des labels numériques. Cette abstraction est basée sur les langages régulier (d'arbre), et délègue une partie de son abstraction à un domaine numérique sous-jacent. Cette thèse s’étant déroulée au sein du projet mopsa, nous donnons donc un aperçu de certains résultats obtenus par l’équipe pendant la thèse
Ensuring the scalability of static analyzers defined by abstract interpretation poses difficulties. A classical technique known to speed up analyses is the discovery and reuse of summaries for some of the sequences of statements of the source code. In this thesis we focus on a subset of C that does not allow recursion and define a modular analyzer, able to infer, prove and use (to improve the efficiency) such summaries. Our modular analyzer is built on top of an existing C analyzer and is therefore able to handle unions, structures, arrays, memory allocations (static and dynamic), pointers, pointer arithmetics, pointer casts, function calls, string manipulations, ... . String handling is provided by a new abstract domain defined in this thesis. In this thesis we provide a lifting of classical numerical abstract domains to the representation of heterogeneous sets. This lifting can be used for relational domains and maintains only one numerical abstract state, by opposition to partitioning. The last point of interest of this thesis is the definition of an abstract domain able to represent sets of trees with numerically labeled leaves. This abstraction is based on regular and tree regular languages and delegates the handling of numerical constraints to an underlying domain able to represent heterogeneous sets of environments. As the thesis took place in the mopsa project, we provide an overview of some of the results obtained by the mopsa team during the thesis
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Butin, Frédéric. "Structures de Poisson sur les Algèbres de Polynômes, Cohomologie et Déformations". Thesis, Lyon 1, 2009. http://www.theses.fr/2009LYO10192/document.

Texto completo
Resumen
La quantification par déformation et la correspondance de McKay forment les grands thèmes de l'étude qui porte sur des variétés algébriques singulières, des quotients d'algèbres de polynômes et des algèbres de polynômes invariants sous l'action d'un groupe fini. Nos principaux outils sont les cohomologies de Poisson et de Hochschild et la théorie des représentations. Certains calculs formels sont effectués avec Maple et GAP. Nous calculons les espaces d'homologie et de cohomologie de Hochschild des surfaces de Klein, en développant une généralisation du Théorème de HKR au cas de variétés non lisses et utilisons la division multivariée et les bases de Gröbner. La clôture de l'orbite nilpotente minimale d'une algèbre de Lie simple est une variété algébrique singulière sur laquelle nous construisons des star-produits invariants, grâce à la décomposition BGS de l'homologie et de la cohomologie de Hochschild, et à des résultats sur les invariants des groupes classiques. Nous explicitons les générateurs de l'idéal de Joseph associé à cette orbite et calculons les caractères infinitésimaux. Pour les algèbres de Lie simples B, C, D, nous établissons des résultats généraux sur l'espace d'homologie de Poisson en degré 0 de l'algèbre des invariants, qui vont dans le sens de la conjecture d'Alev et traitons les rangs 2 et 3. Nous calculons des séries de Poincaré à 2 variables pour des sous-groupes finis du groupe spécial linéaire en dimension 3, montrons que ce sont des fractions rationnelles, et associons aux sous-groupes une matrice de Cartan généralisée pour obtenir une correspondance de McKay algébrique en dimension 3. Toute l'étude a donné lieu à 4 articles
Deformation quantization and McKay correspondence form the main themes of the study which deals with singular algebraic varieties, quotients of polynomial algebras, and polynomial algebras invariant under the action of a finite group. Our main tools are Poisson and Hochschild cohomologies and representation theory. Certain calculations are made with Maple and GAP. We calculate Hochschild homology and cohomology spaces of Klein surfaces by developing a generalization of HKR theorem in the case of non-smooth varieties and use the multivariate division and the Groebner bases. The closure of the minimal nilpotent orbit of a simple Lie algebra is a singular algebraic variety : on this one we construct invariant star-products, with the help of the BGS decomposition of Hochschild homology and cohomology, and of results on the invariants of the classical groups. We give the generators of the Joseph ideal associated to this orbit and calculate the infinitesimal characters. For simple Lie algebras of type B, C, D, we establish general results on the Poisson homology space in degree 0 of the invariant algebra, which support Alev's conjecture, then we are interested in the ranks 2 and 3. We compute Poincaré series of 2 variables for the finite subgroups of the special linear group in dimension 3, show that they are rational fractions, and associate to the subgroups a generalized Cartan matrix in order to obtain a McKay correspondence in dimension 3. All the study comes from 4 papers
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Jacquemard, Florent. "Modèles d'automates d'arbres étendus pour la vérification de systèmes infinis". Habilitation à diriger des recherches, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00643595.

Texto completo
Resumen
Ce document présente l'étude de plusieurs modèles de machines à états finis qui étendent tous le même formalisme: les automates d'arbres classiques, et leur application dans différentes tâches telles que l'analyse statique de programmes ou de systèmes, la typage, la vérification de la cohérence de spécifications, le model checking... Les arbres sont une structure naturelle de données, très répandue en informatique, par exemple pour la représentation des structures de données hiérarchiques ou imbriquées, pour des algorithmes spécifiques (arbres binaires de recherche, algorithmes distribués), comme modèle abstrait pour des données semi-structurées utilisées pour l'échange d'information dans le Web, pour une présentation algébrique de processus récursifs, comme les termes en logique... Lorsqu'il s'agit de raisonner sur des systèmes manipulant des arbres, ou modelisés par des arbres, il est crucial d'avoir une représentation finie d'ensembles infinis d'arbres. Les automates d'arbres sont des machines à états finis permettant une telle représentation. Ils ont fait la preuve de leur adéquation à des tâches de raisonnement: ils ont un modèle théorique bien établi, en étroite relation avec la logique, ils bénéficient de bonnes propriétés de composition et d'algorithmes de décision efficaces. En particulier, les automates d'arbres sont utilisées au coeur de systèmes de vérification formelle d'outils de déduction automatique. Toutefois, les automates d'arbres ont des limitations sévères en expressivité. Par exemple, ils sont incapables de faire du filtrage non-linéaire ou d'exprimer des contraintes d'intégrité tels que les clés dans les bases de données. Certaines extensions ont été proposées afin d'améliorer le modèle en essayant de conserver de bonnes propriétés. Nous présentons dans ce document de plusieurs de telles extensions, leurs propriétés et leur utilisation en vérification symbolique de systèmes et de programmes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Cousin, Bernard. "Méthodologie de validation des systèmes structurés en couches par réseaux de Petri : application au protocole Transport". Phd thesis, Université Pierre et Marie Curie - Paris VI, 1987. http://tel.archives-ouvertes.fr/tel-00864063.

Texto completo
Resumen
Nous développons une méthode de modélisation et de validation adaptée aux système parallèles structurés en couches hiérarchiques. Nous définissons deux notions : la concordance de modèle prouve que le modèle possède bien les propriétés dégagées par les spécifications; l'adéquation de service valide le protocole par rapport à son service. Nous appliquons notre méthode à la modélisation du protocole de télécommunication de niveau Transport (la couche 4 d'après la norme ISO sur l'interconnexion des systèmes ouverts). Nous étudions tout particulièrement la gestion de désynchronisations du Service de la couche Réseau, et le contrôle de flux avec réquisition de crédit du protocole de la couche Transport. Nous utilisons les réseaux de Petri à prédicats pour décrire le modèle du service rendu par le couche Réseau sous-jacente et nous en servir pour construire le modèle du protocole de ma couche Transport. nous prouvons que la notion d'abstraction peut s'étendre aux réseaux de Petri à prédicats. La preuve du déroulement correct du protocole est apportée en utilisant les invariants issus du modèle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Bourreau, Pierre. "Jeux de typage et analyse de lambda-grammaires non-contextuelles". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00733964.

Texto completo
Resumen
Les grammaires catégorielles abstraites (ou λ-grammaires) sont un formalisme basé sur le λ-calcul simplement typé. Elles peuvent être vues comme des grammaires générant de tels termes, et ont été introduites afin de modéliser l'interface entre la syntaxe et la sémantique du langage naturel, réunissant deux idées fondamentales : la distinction entre tectogrammaire (c.a.d. structure profonde d'un énoncé) et phénogrammaire (c.a.d représentation de la surface d'un énoncé) de la langue, exprimé par Curry ; et une modélisation algébrique du principe de compositionnalité afin de rendre compte de la sémantique des phrases, due à Montague. Un des avantages principaux de ce formalisme est que l'analyse d'une grammaires catégorielle abstraite permet de résoudre aussi bien le problème de l'analyse de texte, que celui de la génération de texte. Des algorithmes d'analyse efficaces ont été découverts pour les grammaires catégorielles abstraites de termes linéaires et quasi-linéaires, alors que le problème de l'analyse est non-élémentaire dans sa forme la plus générale. Nous proposons d'étudier des classes de termes pour lesquels l'analyse grammaticale reste solvable en temps polynomial. Ces résultats s'appuient principalement sur deux théorèmes de typage : le théorème de cohérence, spécifiant qu'un λ-terme donné est l'unique habitant d'un certain typage ; et le théorème d'expansion du sujet, spécifiant que deux termes β-équivalents habitent les même typages. Afin de mener cette étude à bien, nous utiliserons une représentation abstraite des notions de λ-termes et de typages, sous forme de jeux. En particulier, nous nous appuierons grandement sur cette notion afin de démontrer le théorème de cohérence pour de nouvelles familles de λ-termes et de typages. Grâce à ces résultats, nous montrerons qu'il est possible de construire de manière directe, un reconnaisseur dans le langage Datalog, pour des grammaires catégorielles abstraites de λ-termes quasi-affines.
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Uang, Chia-Yuan y 汪加元. "Automatic Assertion Checking Using Formal Symbolic Model Verifier". Thesis, 2005. http://ndltd.ncl.edu.tw/handle/15654269991971750495.

Texto completo
Resumen
碩士
國立交通大學
電機資訊學院碩士在職專班
93
Assertion based verification (ABV) methodology has emerged as a paradigm of high-level design verification. An assertion is used to specify what is to be exercised and verified against the intended functionality. However assertions which may contain conflicts among themselves are not inspected until later simulation stage.In this thesis, we present an automatic assertion checking which utilizes an existing symbolic model verifier as a model checker to check if there is any conflict among input assertions. We propose an approach to convert the assertions into structural Deterministic Finite Automata (DFA) and their corresponding properties. Those converted DFA and properties are then checked by using formal model verifier. This approach may facilitate assertion checking to find out potential conflict in the early stage of design activities without simulation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

LIN, HONG-JUN y 林弘峻. "An one-to-many guided learning environment for symbolic-calculation". Thesis, 1993. http://ndltd.ncl.edu.tw/handle/62405460806848997570.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía