Academic literature on the topic 'Vérification de programmes et de modèles'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Vérification de programmes et de modèles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Vérification de programmes et de modèles":

1

Simmonds, Anne L. "Le rôle de l'aumônier lors d'une prise de décision bioéthique." Healthcare Management Forum 7, no. 4 (December 1994): 11–17. http://dx.doi.org/10.1016/s0840-4704(10)61073-3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les organismes de soins de santé doivent faire face à des contraintes économiques sérieuses qui menacent de démanteler des services essentiels. Le besoin d'une réforme se fait des plus pressants. La refonte des méthodes administratives pourrait bien être le meilleur remède pour améliorer sensiblement la productivité sans nuire, pour autant, à la qualité et à la portée des services de santé essentiels. Cette refonte met au défi les organismes de soins de santé d'éliminer certaines fonctions ne contribuant pas à une organisation horizontale dans laquelle un nombre moins élevé de dispensateurs de soins assurent une plus grande variété de services de santé. La technologie de l'information a pour but de remplacer les vérifications et les contrôles manuels. La refonte peut aider à implanter des nouveaux modèles de gestion, tels que les soins axés sur les patients, la direction par cas et la gestion des produits et des programmes. Avec le temps, l'amélioration continue de la qualité peut améliorer le produit de la refonte.
2

Grimmett, Peter P. "Neoliberalism as a Prevailing Force on the Conditions of Teacher Education in Canada." Alberta Journal of Educational Research 64, no. 4 (March 7, 2019): 346–63. http://dx.doi.org/10.55016/ojs/ajer.v64i4.56347.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This paper examines the impact of neoliberalist macro-policy and culture on the conditions and practice of teacher education in Canada. The origins and central features of neoliberalism are unpacked to show how the centrality of the nation state of liberalism has been replaced under neoliberalism by the distorted myth of a minimalist state that in reality reshapes social institutions along market lines and uses state regulation machinery to ensure that the market model is dominant to the point of diminishing the idea of the “public good.” This has made the world very unstable, leading to civil strife, political violence and an ongoing diasporization associated with trans-national migration. Within this unstable world, higher education and teacher education in Canada take place. I then turn to examining the impact of neoliberalist policy on higher education as a foreground to examining the impact of neoliberalist policy conditions on Canadian teacher education. Three themes are extrapolated to demonstrate this impact—the conflicted challenge between institutional legitimacy and professional identity that working in a higher education context presents to Canadian teacher educators; some unresolved issues of accessibility and accountability in Canadian teacher education programs; and the ways in which a commitment to social justice with its emphasis on inclusion, diversity, and multiculturalism that Canadian teacher educators name as important are frustrated and sometimes impeded. My thesis is that neoliberalism is using audit conditions of accountability to re-frame teachers’ work as an occupational relationship. My claim is that if economic rationalist accountability ends up trumping professional judgment, then teaching will potentially lose its professional status. And, if that happens, there will likely be no place for university teacher education. Cet article porte sur l’impact de la macro-politique et la culture néolibérales sur les conditions et la pratique de la formation des enseignants au Canada. Les origines et les caractéristiques essentielles du néolibéralisme sont exposées afin de démontrer dans quelle mesure la centralité de l’état nation du libéralisme a été remplacée sous le néolibéralisme par le mythe déformé d’un état minimaliste qui, en réalité, remanie les institutions sociales selon les principes de la liberté du marché et utilise l’appareil de la réglementation étatique pour assurer que le modèle du marché domine jusqu’au point de diminuer l’idée du « bien public ». Le résultat en est un monde très instable caractérisé par des troubles civils, de la violence politique et des déplacements constants liés à la migration transnationale. C’est dans ce contexte instable que se déroulent les études supérieures et la formation des enseignants au Canada. L’examen de l’impact de la politique néolibérale sur les études supérieures sert de toile de fond pour l’étude de l’impact des politiques néolibérales sur la formation des enseignants au Canada. Trois thèmes démontrent bien cet impact : le défi que pose, pour les formateurs d’enseignants au Canada œuvrant dans les milieux des études supérieures, le conflit entre la légitimité institutionnelle et l’identité professionnelle; des problèmes non résolus dans les programmes de formation des enseignants et portant sur l’accessibilité et la responsabilité; et les entraves qui se dressent parfois devant un engagement envers la justice sociale visant l’inclusion, la diversité et le multiculturalisme, éléments que les formateurs d’enseignants indiquent comme étant importants. Ma thèse propose que le néolibéralisme emploie des conditions de vérification pour reformuler le travail des enseignants comme une relation professionnelle. J’affirme que si les notions économiques et rationalistes de la responsabilité finissent par l’emporter sur le jugement professionnel, l’enseignement pourrait perdre son statut professionnel. Si cela devait se produire, il est probable que la formation universitaire des enseignants n’aurait plus sa place au Canada. Mots clés : néolibéralisme, travail des enseignants, formation des enseignants, intellectuel public
3

Gauthier, Yvon. "Vérité et vérification en logique mathématique et dans les théories physiques." Articles 9, no. 1 (January 9, 2007): 135–45. http://dx.doi.org/10.7202/203186ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé Cet article propose une nouvelle approche dans l'analyse et l'interprétation des théories physiques. La théorie des modèles ou sémantique ensembliste est rejetée au profit d'une syntaxe ou théorie des démonstrations qui s'attache d'abord à la structure formelle (logique et mathématique) d'une théorie physique. On donne plusieurs exemples d'une théorie de la preuve (preuve, épreuve, appreuve), exemples qui relèvent surtout de la mécanique quantique et qui vont dans le sens de la thèse principale de l'auteur : la surdétermination de la théorie physique par sa structure mathématique.
4

Torres, Lucile, and Claudia Frydman. "Vérification et validation de modèles CommonKADS par réseaux de Petri." Revue d'intelligence artificielle 15, no. 2 (June 15, 2001): 247–76. http://dx.doi.org/10.3166/ria.15.247-276.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Gillet, Roland. "Efficience informationnelle du marché boursier: vérification empirique et implications théoriques." Recherches économiques de Louvain 57, no. 3 (1991): 297–308. http://dx.doi.org/10.1017/s0770451800031778.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
RésuméCet article fournit une synthèse des principaux résultats contenus dans ma thèse de doctorat consacrée à l'efficience informationnelle du marché boursier. Il s'intéresse non seulement à la vérification empirique de l'hypothèse d'efficience informationnelle du marché, mais aborde également un nombre limité de questions se rapportant aux implications théoriques de cette hypothèse au niveau des modèles de comportement du prix des actions et de gestion professionnelle de portefeuilles.
6

Rougier, Éric. "Croissance démographique, capital humain et technologie : un modèle de croissance endogène «simonien» appliqué aux pays en développement." Économie appliquée 53, no. 4 (2000): 31–59. http://dx.doi.org/10.3406/ecoap.2000.1741.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La croissance de la population est intégrée dans un modèle de croissance endogène articulant la croissance démographique, la dynamique du capital humain et la technologie. Les restrictions et les conséquences impliquées par ce modèle sont ensuite testées sur la base d’une méthodologie à la fois cohérente avec celles qui ont été récemment utilisées dans les travaux de vérification empirique des modèles de croissance endogène, et nouvelle car elle utilise les équations simultanées afin de tenir compte des interactions stratégiques du modèle.
7

Jellad, Asma. "Identification des propriétés élastoplastiques des films minces de CrN en utilisant la technique de nanoindentation et la modélisation par éléments finis (FEM)." Matériaux & Techniques 111, no. 4 (2023): 403. http://dx.doi.org/10.1051/mattech/2023029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail, les propriétés élastoplastiques intrinsèques des films minces telles que le module d’Young E, la limite d’élasticité σy et le coefficient d’écrouissage n ont été identifiées à partir des méthodes numériques qui se basent sur des analyses dimensionnelles, des calculs par éléments finis et la résolution des algorithmes d’analyse inverse. Quatre méthodes de la littérature ont été sélectionnées pour identifier les propriétés des films minces en considérant les effets liés au substrat. De plus, l’efficacité de ces modèles numériques a été discutée à l’aide d’une vérification numérique en comparant les résultats d’identification aux propriétés introduites dans les simulations. Les propriétés mécaniques des films minces de CrN ont été enfin identifiées à l’aide de ces modèles. Les résultats d’identification ont été comparés aux propriétés mécaniques des films CrN reportées de la littérature et le bon accord montre que trois de ces quatre méthodes numériques peuvent être appliquées dans le cas des films minces.
8

Cafiau, Sybille, Patrick Girard, Laurent Guittet, and Xavier Blanc. "Vérification de cohérence entre modèles de tâches et de dialogue en conception centrée-utilisateur." Ingénierie des systèmes d'information 16, no. 5 (October 30, 2011): 9–41. http://dx.doi.org/10.3166/isi.16.5.9-41.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Bourgeois, Pascale, and Arianne Robichaud. "La figure de l’enseignant intellectuel chez Hannah Arendt." Éthique en éducation et en formation, no. 5 (October 9, 2018): 39–54. http://dx.doi.org/10.7202/1052442ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cet article vise à contraster le modèle que nous qualifions d’« enseignant intellectuel », tel que développé par Hannah Arendt dans La Crise de l’éducation (1958), aux figures enseignantes découlant des programmes éducatifs québécois des années 1960-1970, 1980-1990 et 2000. Comment l’enseignant intellectuel arendtien se mesure-t-il aux présupposés philosophiques de ces programmes et des modèles du maître qu’ils ont sous-tendus ou explicitement proposés ? Comment La Crise de l’éducation nous permet-il d’analyser, de façon critique, les modèles de l’enseignant-accompagnateur du Rapport Parent de 1963, de l’enseignant-technicien des programmes de 1980 et de l’enseignant professionnel du renouveau pédagogique des années 2000 ? Telles sont quelques-unes des questions aux fondements de cet article, dont l’objectif principal est d’actualiser la force de la pensée arendtienne pour une analyse philosophico-historique du statut et du rôle de l’enseignant québécois.
10

Test, Mary Ann. "Modèles de traitement dans la communauté pour adultes ayant des maladies mentales graves et persistantes." Dossier : Le suivi communautaire 23, no. 2 (September 11, 2007): 119–47. http://dx.doi.org/10.7202/032456ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
RÉSUMÉ L'auteure identifie trois modèles de soins et de suivi des personnes aux prises avec des troubles mentaux graves dans la communauté. Il s'agit du modèle PACT (Program ofAssertive Community Treatment) qu'elle a développé historiquement avec ses collègues de Madison (Wisconsin), des clubs psychosociaux et des nouveaux programmes gérés par les usagers. Elle propose une description des principales caractéristiques de ces modèles et des résultats de la recherche quant à leur efficacité pour répondre aux besoins des personnes suivies. Enfin, elle en dégage les implications pour la formation en travail social, ces modèles partageant des méthodes et des valeurs communes avec cette discipline.

Dissertations / Theses on the topic "Vérification de programmes et de modèles":

1

Sellami, Yanis. "Raisonnement abductif modulo des théories et application à la vérification de programmes." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté dans cette thèse introduit une méthode générique pour calculer les impliqués premiers d'une formule logique donnée dans une théorie décidable. Il s'agit intuitivement des conséquences clausales les plus générales de cette formule modulo cette théorie. Cette méthode fonctionne en ajoutant récursivement à un ensemble initialement vide des littéraux extraits d'un ensemble d'hypothèses présélectionnées, et ce jusqu'à ce qu'elle puisse démontrer que la disjonction des littéraux de cet ensemble est une conséquence de la formule sur laquelle elle travaille. On démontrera la terminaison, la correction et la complétude de cet algorithme. Cela confirmera qu'il calcule effectivement des impliqués de la formule de départ et qu'il retourne tous les impliqués premiers qui peuvent être construits à partir de l'ensemble d'hypothèses de départ. On construira ensuite à partir de cette méthode un algorithme l'appliquant à la génération d'invariants de boucles de programmes que l'on cherche à vérifier. On présentera également une implémentation C++ de ces deux méthodes, regroupées dans une infrastructure logicielle baptisée Abdulot. Cette implémentation sera utilisée pour évaluer expérimentalement les deux méthodes. On découvrira à cette occasion qu'elles sont capables de générer des solutions pour une large classe de problèmes.Cette thèse présente également un travail introductif sur la minimisation de modèles en logique de séparation et son implémentation. La méthode décrite pourrait également être utilisée pour résoudre des instances de bi-abduction en logique de séparation, à l'aide d'un algorithme qui sera décrit mais pas implémenté
This thesis introduces a generic method to compute the prime implicates of a logical formula, i.e., the most general clausal consequences of a given logical formula, in any given decidable theory. The principle used is to recursively add to an initially empty set, literals taken from a preselected set of hypotheses until it can be proven that the disjunction of these literals is a consequence of the formula under consideration. Proofs of the termination, correctness and completeness of this algorithm are provided, which ensures that the clauses the method computes are indeed implicates and that all the prime implicates that can be constructed from the initial set are indeed returned. This algorithm is then applied in the context of program verification, in which it is used to generate loop invariants that permit to verify assertions on programs. The Abdulot framework, a C++ implementation of the system, is also introduced. Technical considerations required for the design of such systems are detailed, such as their insertion within a well-furnished ecosystem of provers and SMT-Solvers. This implemented framework will be used to perform an experimental evaluation of the method and will show its practical relevance, as it can be used to solve a large scope of problems.This thesis also presents introductory work on an implicant minimizer and applies it in the context of separation logic. The method described in this part could also be used to perform bi-abduction in separation logic, with an algorithm that is described but has not been implemented
2

Sangnier, Arnaud. "Vérification de systèmes avec compteurs et pointeurs." Cachan, Ecole normale supérieure, 2008. http://www.theses.fr/2008DENS0051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des dernières années, les méthodes formelles se sont avérées être une approche prometteuse pour garantir que le comportement d’un système informatique respecte une spécification donnée. Parmi les différentes techniques développées, le model-checking a été récemment étudié et appliqué avec succès à un grand nombre de modèles comme les systèmes à compteurs, les automates communicants (avec perte), les automates à pile, les automates temporisés, etc. Dans cette thèse, nous considérons deux modèles particuliers dans l’objectif de vérifier des programmes manipulant des variables entières et des variables de pointeurs. Dans une première partie, nous nous intéressons aux systèmes à compteurs. Nous commençons par définir ce modèle ainsi que ses différentes restrictions. Nous introduisons ensuite une sous-classe de systèmes à compteurs, appelée les machines à compteurs reversal-bornées, pour lesquelles de nombreux problèmes d’accessibilité sont décidables. Nous montrons que cette classe peut être étendue tout en gardant les résultats de décidabilité et nous prouvons qu’il est possible de décider si un Système d’Addition de Vecteurs avec États est reversal-borné, alors que cela n’est pas possible si l’on considère les systèmes à compteurs dans leur généralité. Nous finissons cette partie sur les systèmes à compteurs par l’étude de problèmes de model-checking de logiques temporelles. Les logiques temporelles que nous prenons en compte permettent de parler des données manipulées par le système. En particulier, nous montrons que le model-checking d’automates à un compteur déterministes avec des formules de la logique LTL avec registres est décidable, mais que cela n’est plus vrai lorsque l’hypothèse sur le déterminisme est supprimée. Dans une deuxième partie, nous introduisons le modèle des systèmes à pointeurs, qui est utilisé pour représenter des programmes manipulant des listes simplement chaînées. Nous donnons un algorithme qui traduit tout système à pointeurs en un système à compteurs qui lui est bisimilaire. Ceci nous permet de réutiliser les méthodes existantes pour l’analyse de systèmes à compteurs pour vérifier des programmes avec listes. Nous présentons ensuite une extension de la logique CTL* pour vérifier des propriétés temporelles sur de tels programmes, et nous étudions la décidabilité du problème de model-checking pour cette nouvelle logique. Finalement, dans une dernière partie, nous donnons une description de l’outil TOPICS (Translation of Programs Into Counter Systems) qui traduit un programme écrit dans un fragment syntaxique du langage C en un système à compteurs
In the past years, formal methods have shown to be a succesfull approach to ensure that the behavior of an informatic system will respect some properties. Among the different existing techniques, model-checking have been recently studied and successfully applied to a lot of models like counter systems, lossy channel systems, pushdown automata, timed automata, etc. In this thesis, we consider two different models to verify programs which manipulate integer variables and pointer variables. In a first part, we deal with counter systems. We define the model and the different restrictions which have been proposed. We then introduce a restricted class of counter systems, called the reversal-bounded counter machines, for which many reachability problems are decidable. We show that this class can be extended keeping the decidability results and we prove that we can decide whether a Vector Addition System with States is reversal-bounded or not, which is not possible for general counter systems. We then study the problem of model-checking counter systems with different temporal logics. The temporal logics we consider allow to speak about the data manipulated by the system. In particular, we show that the model-checking of deterministic one-counter automata with formulae of LTL with registers is decidable, and becomes undecidable when considering non deterministic one-counter automata and two counter automata. In a second part, we introduce the model of pointer systems, which is used to represent programs manipulating single linked lists. We propose an algorithm to translate any pointer system into a bisimilar counter system. This allows us to reuse existing techniques over counter systems to analyze these programs. We then propose an extension of CTL* to verify temporal properties for such programs, and we study the decidability of the model-checking problem for this new logic. Finally we present the tool TOPICS (Translation of Programs Into Counter Systems) which translates a C-like program with pointers and integer variables into a counter system
3

Blanchard, Allan. "Aide à la vérification de programmes concurrents par transformation de code et de spécifications." Thesis, Orléans, 2016. http://www.theses.fr/2016ORLE2073/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Vérifier formellement des programmes concurrents est une tâche difficile. S’il existe différentes techniques pour la réaliser, très peu sont effectivement mises en oeuvre pour des programmes écrits dans des langages de programmation réalistes. En revanche, les techniques de vérification formelles de programmes séquentiels sont utilisées avec succès depuis plusieurs années déjà, et permettent d’atteindre de hauts degrés de confiance dans nos systèmes. Cette thèse propose une alternative aux méthodes d’analyses dédiées à la vérification de programmes concurrents consistant à transformer le programme concurrent en un programme séquentiel pour le rendre analysable par des outils dédiés aux programmes séquentiels. Nous nous plaçons dans le contexte de FRAMA-C, une plate-forme d’analyse de code C spécifié avec le langage ACSL. Les différentes analyses de FRAMA-C sont des greffons à la plate-forme, ceux-ci sont à ce jour majoritairement dédiés aux programmes séquentiels. La méthode de vérification que nous proposons est appliquée manuellement à la vérification d’un code concurrent issu d’un hyperviseur. Nous automatisons la méthode à travers un nouveau greffon à FRAMA-C qui permet de produire automatiquement, depuis un programme concurrent spécifié, un programme séquentiel spécifié équivalent. Nous présentons les bases de sa formalisation, ayant pour but d’en prouver la validité. Cette validité n’est valable que pour la classe des programmes séquentiellement consistant. Nous proposons donc finalement un prototype de solveur de contraintes pour les modèles mémoire faibles, capable de déterminer si un programme appartient bien à cette classe en fonction du modèle mémoire cible
Formal verification of concurrent programs is a hard task. There exists different methods to perform such a task, but very few are applied to the verification of programs written using real life programming languages. On the other side, formal verification of sequential programs is successfully applied for many years, and allows to get high confidence in our systems. As an alternative to dedicated concurrent program analyses, we propose a method to transform concurrent programs into sequential ones to make them analyzable by tools dedicated to sequential programs. This work takes place within the analysis framework FRAMA-C, dedicated to the analysis of C code specified with ACSL. The different analyses provided by FRAMA-C are plugins to the framework, which are currently mostly dedicated to sequential programs. We apply this method to the verification of a concurrent code taken from an hypervisor. We describe the automation of the method implemented by a new plugin to FRAMAC that allow to produce, from a specified concurrent program, an equivalent specified sequential program. We present the basis of a formalization of the method with the objective to prove its validity. This validity is admissible only for the class of sequentially consistent programs. So, we finally propose a prototype of constraint solver for weak memory models, which is able to determine whether a program is in this class or not, depending on the targeted hardware
4

Jahier, Erwan. "Analyse dynamique de programme : Mise en oeuvre automatisée d'analyseurs performants et spécifications de modèles d'exécution." Rennes, INSA, 2000. http://www.theses.fr/2000ISAR0009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreuses études montrent que la plus grande partie du coût de production d'un logiciel est générée lors de la phase de maintenance. Lors de cette phase, pour corriger des erreurs, pour optimiser des programmes, ou pour ajouter des fonctionnalités, il est essentiel de comprendre les programmes, et en particulier de comprendre leur comportement. Les analyseurs dynamiques d'exécutions tels que les profileurs, les moniteurs, ou les débogueurs, sont alors des outils indispensables. Cependant, ces outils d'analyse dynamique sont extrêmement coûteux à mettre en oeuvre : (1) d'abord, parce qu'il est généralement nécessaire de modifier le système de compilation utilisé, ce qui est fastidieux et pas toujours envisageable ; (2) en outre, les besoins en outils d'analyse de programmes varient d'un utilisateur à l'autre, en fonction de sa compétence, de son expérience du système de programmation utilisé, ainsi que de sa connaissance du code à maintenir ; (3) et enfin, parce que ces outils sont difficilement réutilisables. Il est donc souhaitable que chaque utilisateur puisse spécifier facilement les analyses dynamiques dont il a besoin. C'est pourquoi nous proposons dans cette thèse une architecture qui permet de faciliter leur mise en oeuvre. Cette architecture est basée : (1) sur une instrumentation systématique du programme qui produit une image très détaillée de l'exécution, la trace ; (2) sur un ensemble de primitives qui permettent d'analyser cette trace efficacement. Les analyseurs résultants ont des performances du même ordre de grandeur que leurs équivalents implémentés <<à la main>> par modification du système de compilation. Ils peuvent être mis en oeuvre par des utilisateurs sans connaissance particulière du système de compilation, qu'ils n'ont pas à modifier. Cette architecture leur permet d'implémenter les outils qui leur conviennent, adaptés à leur niveau de compréhension du code qu'ils sont chargés de maintenir. De plus, la structure modulaire de l'architecture proposée devrait permettre de faciliter la réutilisation de ces analyseurs pour d'autres systèmes. Notre propos est illustré dans le cadre du langage de programmation logique et fonctionnelle Mercury. Cependant, les concepts utilisés sont indépendants du paradigme de programmation. La trace sur laquelle nous basons la mise en oeuvre de nos analyseurs se doit de refléter le plus fidèlement possible la sémantique opérationnelle du langage. C'est pourquoi nous proposons également dans cette thèse un cadre de modélisation des traces d'exécutions basé sur une sémantique opérationnelle du langage à analyser. Cette spécification formelle de la trace nous permet de valider expérimentalement les traceurs et de prouver leur correction. Cette étude a été menée dans le cadre du langage de programmation logique Prolog
Several studies show that most of the software production cost is spent during the maintenance phase. During that phase, to locate bugs, to optimize programs, or to add new functionalities, it is essential to understand programs, and in particular to understand their runtime behavior. Dynamic analysis tools such as debuggers, profilers, or monitors, are very useful in that respect. However, such tools are expensive to implement because: (1) it generally requires to modify the compiling system, which is tedious and not always possible; (2) the needs in dynamic analysis tools vary from one user to another, depending on its competence, on its experience of the programming system, and on its knowledge of the code to maintain; (3) such tools are generally difficult to reuse. It is therefore desirable that each user is able to specify easily the dynamic analyses he needs. Hence, we propose an architecture that eases dynamic analysis tools implementation. This architecture is based on: (1) a systematic instrumentation of the program which gives a detailed image of the execution, the trace; (2) a set of trace processing primitives that lets one analyse the trace efficiently. The resulting analysers have performance of the same order of magnitude that their equivalent implemented ``by hand'' by modifying the compiling system. They can be implemented by programmers without any knowledge of the compiling system. This architecture let them implement the tools they need, adapted to their level of comprehension of the code they are in charge to maintain. Furthermore, the modular structure of the proposed architecture should ease the analysers reuse. This work has been held within the context of the logical and functional programming language Mercury. However, the concepts we used do not depend on the programming paradigm. The trace on which we base the implementation of our dynamic analysis tools should reflect as much as possible the runtime behavior of programs. Therefore, we also propose a framework to specify execution traces. This framework is based on an operational semantics of the language to analyse. Such formal specifications of the trace let us experimentally validate tracers, and prove their correctness. This work have been held within the context of the logical programming language Prolog
5

Bobot, François. "Logique de séparation et vérification déductive." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00652508.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans la démarche de preuve de programmes à l'aide de vérification déductive. La vérification déductive consiste à produire, à partir des sources d'un programme, c'est-à-dire ce qu'il fait, et de sa spécification, c'est-à-dire ce qu'il est sensé faire, une conjecture qui si elle est vraie alors le programme et sa spécification concordent. On utilise principalement des démonstrateurs automatiques pour montrer la validité de ces formules. Quand ons'intéresse à la preuve de programmes qui utilisent des structures de données allouées en mémoire, il est élégant et efficace de spécifier son programme en utilisant la logique de séparation qui est apparu il y a une dizaine d'année. Cela implique de prouver des conjectures comportant les connectives de la logique de séparation, or les démonstrateurs automatiques ont surtout fait des progrès dans la logique du premier ordre qui ne les contient pas.Ce travail de thèse propose des techniques pour que les idées de la logique de séparation puissent apparaître dans les spécifications tout en conservant la possibilité d'utiliser des démonstrateurs pour la logique du premier ordre. Cependant les conjectures que l'ont produit ne sont pas dans la même logique du premier ordre que celles des démonstrateurs. Pour permettre une plus grande automatisation, ce travail de thèse a également défini de nouvelles conversions entre la logique polymorphe du premier ordre et la logique multi-sortée dupremier ordre utilisé par la plupart des démonstrateurs.La première partie a donné lieu à une implémentation dans l'outil Jessie, la seconde a donné lieu à une participation conséquente à l'écriture de l'outil Why3 et particulièrement dans l'architecture et écriture des transformations qui implémentent ces simplifications et conversions.
6

Fernandes, Pires Anthony. "Amélioration des processus de vérification de programmes par combinaison des méthodes formelles avec l’Ingénierie Dirigée par les Modèles." Thesis, Toulouse, ISAE, 2014. http://www.theses.fr/2014ESAE0023/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Lors d’un développement logiciel, et plus particulièrement d’un développement d’applications embarquées avioniques, les activités de vérification représentent un coût élevé. Une des pistes prometteuses pour la réduction de ces coûts est l’utilisation de méthodes formelles. Ces méthodes s’appuient sur des fondements mathématiques et permettent d’effectuer des tâches de vérification à forte valeur ajoutée au cours du développement. Les méthodes formelles sont déjà utilisées dans l’industrie. Cependant, leur difficulté d’appréhension et la nécessité d’expertise pour leur mise en pratique sont un frein à leur utilisation massive. Parallèlement au problème des coûts liés à la vérification logicielle, vient se greffer la complexification des logiciels et du contexte de développement. L’Ingénierie Dirigée par les Modèles (IDM) permet de faire face à ces difficultés en proposant des modèles, ainsi que des activités pour en tirer profit.Le but des travaux présentés dans cette thèse est d’établir un lien entre les méthodes formelles et l’IDM afin de proposer à des utilisateurs non experts une approche de vérification formelle et automatique de programmes susceptible d’améliorer les processus de vérification actuels. Nous proposons de générer automatiquement sur le code source des annotations correspondant aux propriétés comportementales attendues du logiciel, et ce, à partir de son modèle de conception. Ces annotations peuvent ensuite être vérifiées par des outils de preuve déductive, afin de s’assurer que le comportement du code est conforme au modèle. Cette thèse CIFRE s’inscrit dans le cadre industriel d’Atos. Il est donc nécessaire de prendre en compte le contexte technique qui s’y rattache. Ainsi, nous utilisons le standard UML pour la modélisation,le langage C pour l’implémentation et l’outil Frama-C pour la preuve du code. Nous tenons également compte des contraintes du domaine du logiciel avionique dans lequel Atos est impliqué et notamment les contraintes liées à la certification.Les contributions de cette thèse sont la définition d’un sous-ensemble des machines à états UML dédié à la conception comportementale de logiciel avionique et conforme aux pratiques industrielles existantes, la définition d’un patron d’implémentation C, la définition de patrons de génération des propriétés comportementales sur le code à partir du modèle et enfin l’implémentation de l’approche dans un prototype compatible avec l’environnement de travail des utilisateurs potentiels en lien avec Atos. L’approche proposée est finalement évaluée par rapport à l’objectif de départ, par rapport aux attentes de la communauté du génie logiciel et par rapport aux travaux connexes
During software development, and more specifically embedded avionics applications development, verification is very expensive. A promising lead to reduce its costs is the use of formal methods. Formal methods are mathematical techniques which allow performing rigorous and high-valued verification tasks during software development. They are already applied in industry. However, the high level of expertise required for their use is a major obstacle for their massive use. In addition to the verification costs issue, today software and their development are subject to an increase in complexity. Model Driven Engineering (MDE) allows dealing with these difficulties by offering models, and tasks to capitalize on these models all along the development lifecycle. The goal of this PhD thesis is to establish a link between formal methods and MDE in order to propose to non-expert users a formal and automatic software verification approach which helps to improve software verification processes. We propose to automatically generate annotations, corresponding to the expected behavioural properties of the software, from the design model to the source code. Then, these annotations can be verified using deductive proof tools in order to ensure that the behaviour of the code conforms to the design model. This PhD thesis takes place in the industrial context of Atos. So, it is necessary to take into account its technical specificities. We use UML for the design modeling, the C language for the software implementation and the Frama-C tool for the proof of this implementation. We also take into account the constraints of the avionics field in which Atos intervenes, and specifically the certification constraints. The contributions of this PhD thesis are the definition of a subset of UML state machine dedicated to the behavioural design of embedded avionics software and in line with current industrial practices, the definition of a C implementation pattern, the definition of generation patterns for the behavioural properties from the design model to the source code and the implementation of the whole approach in a prototype in accordance with the working environment of the potential users associated with Atos. The proposed approach is then assessed with respect to the starting goal of the thesis, to the expectation of the software engineering community and to related work
7

Bardou, Romain. "Vérification de programmes avec pointeurs à l'aide de régions et de permissions." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112220/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vérification déductive de programmes consiste à annoter des programmes par une spécification, c'est-à-dire un ensemble de formules logiques décrivant le comportement du programme, et à prouver que les programmes vérifient bien leur spécification. Des outils tels que la plate-forme Why prennent en entrée un programme et sa spécification et calculent des formules logiques telles que, si elles sont prouvées, le programme vérifie sa spécification. Ces formules logiques peuvent être prouvées automatiquement ou à l'aide d'assistants de preuve.Lorsqu'un programme est écrit dans un langage supportant les alias de pointeurs, c'est-à-dire si plusieurs variables peuvent désigner la même case mémoire, alors le raisonnement sur le programme devient particulièrement ardu. Il est nécessaire de spécifier quels pointeurs peuvent être égaux ou non. Les invariants des structures de données, en particulier, sont plus difficiles à vérifier.Cette thèse propose un système de type permettant de structurer la mémoire de façon modulaire afin de contrôler les alias de pointeurs et les invariants de données. Il est basé sur les notions de région et de permission. Les programmes sont ensuite interprétés vers Why de telle façon que les pointeurs soient séparés au mieux, facilitant ainsi le raisonnement. Cette thèse propose aussi un mécanisme d'inférence permettant d'alléger le travail d'annotation des opérations de régions introduites par le langage. Un modèle est introduit pour décrire la sémantique du langage et prouver sa sûreté. En particulier, il est prouvé que si le type d'un pointeur affirme que celui-ci vérifie son invariant, alors cet invariant est effectivement vérifié dans le modèle. Cette thèse a fait l'objet d'une implémentation sous la forme d'un outil nommé Capucine. Plusieurs exemples ont été écrits pour illustrer le langage, et ont été vérifié à l'aide de Capucine
Deductive verification consists in annotating programs by a specification, i.e. logic formulas which describe the behavior of the program, and prove that programs verify their specification. Tools such as the Why platform take a program and its specification as input and compute logic formulas such that, if they are valid, the program verifies its specification. These logic formulas can be proven automatically or using proof assistants.When a program is written in a language supporting pointer aliasing, i.e. if several variables may denote the same memory cell, then reasoning about the program becomes particularly tricky. It is necessary to specify which pointers may or may not be equal. Invariants of data structures, in particular, are harder to maintain.This thesis proposes a type system which allows to structure the heap in a modular fashion in order to control pointer aliases and data invariants. It is based on the notions of region and permission. Programs are then translated to Why such that pointers are separated as best as possible, to facilitate reasoning. This thesis also proposes an inference mechanism to alleviate the need to write region operations introduced by the language. A model is introduced to describe the semantics of the language and prove its safety. In particular, it is proven that if the type of a pointer tells that its invariant holds, then this invariant indeed holds in the model. This work has been implemented as a tool named Capucine. Several examples have been written to illustrate the language, and where verified using Capucine
8

Bardou, Romain. "Verification de programmes avec pointeurs a l'aide de regions et de permissions." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00647331.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vérification déductive de programmes consiste à annoter des programmes par une spécification, c'est-à-dire un ensemble de formules logiques décrivant le comportement du programme, et à prouver que les programmes vérifient bien leur spécification. Des outils tels que la plate-forme Why prennent en entrée un programme et sa spécification et calculent des formules logiques telles que, si elles sont prouvées, le programme vérifie sa spécification. Ces formules logiques peuvent être prouvées automatiquement ou à l'aide d'assistants de preuve.Lorsqu'un programme est écrit dans un langage supportant les alias de pointeurs, c'est-à-dire si plusieurs variables peuvent désigner la même case mémoire, alors le raisonnement sur le programme devient particulièrement ardu. Il est nécessaire de spécifier quels pointeurs peuvent être égaux ou non. Les invariants des structures de données, en particulier, sont plus difficiles à vérifier.Cette thèse propose un système de type permettant de structurer la mémoire de façon modulaire afin de contrôler les alias de pointeurs et les invariants de données. Il est basé sur les notions de région et de permission. Les programmes sont ensuite interprétés vers Why de telle façon que les pointeurs soient séparés au mieux, facilitant ainsi le raisonnement. Cette thèse propose aussi un mécanisme d'inférence permettant d'alléger le travail d'annotation des opérations de régions introduites par le langage. Un modèle est introduit pour décrire la sémantique du langage et prouver sa sûreté. En particulier, il est prouvé que si le type d'un pointeur affirme que celui-ci vérifie son invariant, alors cet invariant est effectivement vérifié dans le modèle. Cette thèse a fait l'objet d'une implémentation sous la forme d'un outil nommé Capucine. Plusieurs exemples ont été écrits pour illustrer le langage, et ont été vérifié à l'aide de Capucine.
9

Clouet, Myriam. "Langage de spécification et outil de vérification pour le consentement et la nécessité des données fondés sur une classification relative au respect de la vie privée." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vie privée est un droit fondamental que l'on retrouve dans plusieurs lois dans le monde entier. Donc, vérifier qu'un système respecte la vie privée est crucial. Cependant, la vie privée est une notion complexe. Assurer qu'un système respecte la vie privée nécessite de vérifier que les propriétés de vie privées sont respectées durant tout le cycle de vie, ce qui complique le processus de vérification. Une grande variété de solutions ont été proposées pour améliorer le respect de la vie privée. Il est souvent difficile de précisément identifier quand elles ciblent la même problématique.Dans cette thèse, j'adresse ces problèmes en proposant une façon de classifier des articles concernant la vie privée et une approche pour vérifier des propriétés de vie privée à deux étapes du cycle de vie. Je propose GePyR, une nouvelle représentation de la vie privée, générique et spécialisable, et une ontologie instanstiable, PyCO, qui modélise les éléments clés de la vie privée et leurs relations. Cette classification est évaluée sur la littérature, en réalisant un Systematic Mapping Study. Dans cette thèse, je formalise également deux propriétés de vie privée, la conformité aux finalités consenties et la conformité à la nécessité des données. Je propose une nouveau langage de spécification, CSpeL, qui permet de formaliser les éléments nécessaires pour vérifier ces propriétés, et introduit un nouvel outil, CASTT, pour vérifier ces propriétés sur des traces d'exécutions, sur un modèle ou un programme. Cette approche est appliquée sur deux cas d'utilisation à deux niveaux d'abstraction, pour évaluer sa correction, sont efficacité et son utilité
Privacy is a fundamental right implemented in many laws around the world. Therefore, verifying that a system complies with privacy is crucial. However, privacy is also a complex notion. Besides, ensuring compliance of a software system with respect to privacy requires to verify that the expected privacy properties hold during the whole system lifecycle. It usually involves different abstraction levels, which complicates the verification process. Many different solutions have been proposed to enhance privacy. It is often quite hard to precisely identify whether they target the same problem.This thesis addresses these issues by proposing a way to classify privacy papers and an approach to verify privacy properties at two different development stages. It proposes GePyR, a new generic and specializable representation, and an instantiable ontology, PyCO, that models key privacy elements and their relationships. This classification is evaluated on the literature, by using a Systematic Mapping Study. This thesis also formalizes two privacy properties, purpose compliance and necessity compliance. It proposes a new specification language, named CSpeL, that allows engineers to formally specify key system elements with regards to these properties, and introduces a new tool, CASTT, to verify the aforementioned properties on execution traces, on a model or on a program. This approach is applied on two use cases, both at two abstraction levels (model and code), in order to evaluate its correctness, its efficiency and its usefulness
10

Ngo, Van Chan. "Vérification Formelle d'un Compilateur Synchrone: de Signal vers C." Phd thesis, Université Rennes 1, 2014. http://tel.archives-ouvertes.fr/tel-01058041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les langages synchrones tels que SIGNAL, LUSTRE et ESTEREL sont dédiés à la conception de systèmes critiques. Leurs compilateurs, qui sont de très gros programmes complexes, peuvent a priori se révéler incorrects dans certains situations, ce qui donnerait lieu alors à des résultats de compilation erronés non détectés. Ces codes fautifs peuvent invalider des propriétés de sûreté qui ont été prouvées en appliquant des méthodes formelles sur les programmes sources. En adoptant une approche de validation de la traduction, cette thèse vise à prouver formellement la correction d'un compilateur optimisé et industriel de SIGNAL. La preuve de correction représente dans un cadre sémantique commun le programme source et le code compilé, et formalise une relation entre eux pour exprimer la préservation des sémantiques du programme source dans le code compilé.

Books on the topic "Vérification de programmes et de modèles":

1

Backhouse, Roland C. Construction et vérification de programmes. Paris: Masson, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Ohia, Nwabueze. Audit de Vos Systèmes d'information et de Votre Infrastructure Informatique: Programmes de Vérification Pratiques/Listes de Contrôle Pour les Auditeurs Internes. Independently Published, 2018.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Vérification de programmes et de modèles":

1

PAULEVÉ, Loïc. "Réseaux booléens : formalisme, sémantiques et complexité." In Approches symboliques de la modélisation et de l’analyse des systèmes biologiques, 163–200. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9029.ch5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre présente le formalisme des réseaux booléens, leur relation avec d'autres modèles informatiques classiques, et leur adéquation pour la modélisation des systèmes biologiques. Le chapitre détaille la sémantique la plus permissive (MP) qui apporte une abstraction correcte des comportements quantitatifs, et conclut sur des aspects de complexité pour la vérification de propriétés dynamiques d'accessibilité et d'attracteurs.
2

"Modèles d’enseignement créatif intégrables aux programmes scolaires." In Pour une pédagogie active et créative, 137–56. Presses de l'Université du Québec, 2011. http://dx.doi.org/10.2307/j.ctv18ph1wj.10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Alain, Marc. "Des systèmes de classification des modèles d’évaluation de programmes d’intervention psychosociale à une proposition de modèle intégrateur." In Élaborer et évaluer les programmes d'intervention psychosociale, 9–28. Presses de l'Université du Québec, 2009. http://dx.doi.org/10.2307/j.ctv18ph454.4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Alain, Marc. "Des systèmes de classification des modèles d’évaluation de programmes d’intervention psychosociale à une proposition de modèle intégrateur." In Élaborer et évaluer les programmes d'intervention psychosociale, 9–28. Presses de l'Université du Québec, 2009. http://dx.doi.org/10.1515/9782760523470-002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Nader-Grosbois, Nathalie. "Chapitre 5. Évaluation et intervention précoce et préscolaire à l’égard des parents : modèles, outils et programmes." In Psychologie du handicap, 135–64. De Boeck Supérieur, 2020. http://dx.doi.org/10.3917/dbu.nader.2020.01.0135.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Nader-Grosbois, Nathalie. "Chapitre 4. Évaluation et intervention précoce et préscolaire à l’égard de l’enfant : modèles, outils et programmes." In Psychologie du handicap, 65–133. De Boeck Supérieur, 2020. http://dx.doi.org/10.3917/dbu.nader.2020.01.0065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Stokes, Peter, and Simon M. Smith. "Recherches sur la Sustainability." In Recherches sur la Sustainability, 158–71. EMS Editions, 2023. http://dx.doi.org/10.3917/ems.cheva.2023.01.0158.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement durable reste un grand défi pour le XXI e siècle. Malgré la multiplicité des initiatives, des actions et des ambitions, il se retrouve souvent dans une impasse. Malgré les preuves de l’existence d’une pensée et d’une pratique innovantes, précieuses et positives dans certains programmes d’écoles de commerce, il reste néanmoins un nombre important de formations en management qui, trop souvent, continuent de fonctionner sur des programmes figés. Ces programmes visent généralement à former des étudiants qui, souvent à leur insu, se concentrent sur des objectifs capitalistes réducteurs, orientés profit et carrière, en dépit des idéaux prétendus. Cela ne veut pas dire que de nombreux étudiants ne sont pas pour autant concernés par les valeurs et les modèles alternatifs de durabilité – en particulier à l’heure où émergent de nouvelles générations et de nouveaux modes de pensée. Les écoles de management se retrouvent à l’épicentre de ce défi ; et doivent assumer leur part de responsabilité, au moins sur le plan historique, pour avoir nourri certaines des problématiques en lien avec le développement durable. Ce chapitre examine cette question en mobilisant le concept d’ambidextérité organisationnelle et en posant le DBA comme une réponse éventuelle à cette problématique.
8

CHAPLAIS, Christelle, and Sophie MARMORAT. "L’enseignement de la comptabilité face à l’urgence climatique." In Expériences pédagogiques depuis l'Anthropocène, 113–26. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.5391.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La question de l’urgence climatique qui fait débat depuis plusieurs années semble aujourd’hui converger vers une certaine forme de consensus auprès des scientifiques. Les études et recommandations qui s’en suivent sont dorénavant sans ambiguïté : si nos modes de production, de consommation n’évoluent pas, la catastrophe écologique semble assurée. Dans ce contexte, quelle est alors la responsabilité des institutions en charge de former les managers et travailleurs de demain ? Comment repenser les programmes de formation face à l’accélération du dérèglement climatique et de la détérioration des ressources naturelles ? C’est justement la question de l’enseignement de la comptabilité qui se voit être discutée au sein de ce chapitre. Discipline au cœur des activités productives des organisations, la comptabilité, dans sa forme actuelle, ignore les répercussions écologiques des activités organisationnelles. À travers cette réflexion, nous mobilisons l’approche critique de la comptabilité pour envisager l’émergence de nouveaux modèles comptables plus enclins à l’intégration des conséquences écologiques et climatiques dans les comptes. Cette opportunité de repenser l’enseignement de la comptabilité en s’émancipant des modèles traditionnels dominants nous permet de discuter et mettre à l’épreuve le contenu, les modalités d’apprentissage de la comptabilité et de proposer quelques pistes d’évolution envisageables.

To the bibliography