Dissertations / Theses on the topic 'Système de vérification de locuteur'

To see the other types of publications on this topic, follow the link: Système de vérification de locuteur.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Système de vérification de locuteur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Larcher, Anthony. "Modèles acoustiques à structure temporelle renforcée pour la vérification du locuteur embarquée." Phd thesis, Université d'Avignon, 2009. http://tel.archives-ouvertes.fr/tel-00453645.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vérification automatique du locuteur est une tâche de classification qui vise à confirmer ou infirmer l'identité d'un individu d'après une étude des caractéristiques spécifiques de sa voix. L'intégration de systèmes de vérification du locuteur sur des appareils embarqués impose de respecter deux types de contraintes, liées à cet environnement : - les contraintes matérielles, qui limitent fortement les ressources disponibles en termes de mémoire de stockage et de puissance de calcul disponibles ; - les contraintes ergonomiques, qui limitent la durée et le nombre des sessions d'entraînement ainsi que la durée des sessions de test. En reconnaissance du locuteur, la structure temporelle du signal de parole n'est pas exploitée par les approches état-de-l'art. Nous proposons d'utiliser cette information, à travers l'utilisation de mots de passe personnels, afin de compenser le manque de données d'apprentissage et de test. Une première étude nous a permis d'évaluer l'influence de la dépendance au texte sur l'approche état-de-l'art GMM/UBM (Gaussian Mixture Model/ Universal Background Model). Nous avons montré qu'une contrainte lexicale imposée à cette approche, généralement utilisée pour la reconnaissance du locuteur indépendante du texte, permet de réduire de près de 30% (en relatif) le taux d'erreurs obtenu dans le cas où les imposteurs ne connaissent pas le mot de passe des clients. Dans ce document, nous présentons une architecture acoustique spécifique qui permet d'exploiter à moindre coût la structure temporelle des mots de passe choisis par les clients. Cette architecture hiérarchique à trois niveaux permet une spécialisation progressive des modèles acoustiques. Un modèle générique représente l'ensemble de l'espace acoustique. Chaque locuteur est représenté par une mixture de Gaussiennes qui dérive du modèle du monde générique du premier niveau. Le troisième niveau de notre architecture est formé de modèles de Markov semi-continus (SCHMM), qui permettent de modéliser la structure temporelle des mots de passe tout en intégrant l'information spécifique au locuteur, modélisée par le modèle GMM du deuxième niveau. Chaque état du modèle SCHMM d'un mot de passe est estimé, relativement au modèle indépendant du texte de ce locuteur, par adaptation des paramètres de poids des distributions Gaussiennes de ce GMM. Cette prise en compte de la structure temporelle des mots de passe permet de réduire de 60% le taux d'égales erreurs obtenu lorsque les imposteurs prononcent un énoncé différent du mot de passe des clients. Pour renforcer la modélisation de la structure temporelle des mots de passe, nous proposons d'intégrer une information issue d'un processus externe au sein de notre architecture acoustique hiérarchique. Des points de synchronisation forts, extraits du signal de parole, sont utilisés pour contraindre l'apprentissage des modèles de mots de passe durant la phase d'enrôlement. Les points de synchronisation obtenus lors de la phase de test, selon le même procédé, permettent de contraindre le décodage Viterbi utilisé, afin de faire correspondre la structure de la séquence avec celle du modèle testé. Cette approche a été évaluée sur la base de données audio-vidéo MyIdea grâce à une information issue d'un alignement phonétique. Nous avons montré que l'ajout d'une contrainte de synchronisation au sein de notre approche acoustique permet de dégrader les scores imposteurs et ainsi de diminuer le taux d'égales erreurs de 20% (en relatif) dans le cas où les imposteurs ignorent le mot de passe des clients tout en assurant des performances équivalentes à celles des approches état-de-l'art dans le cas où les imposteurs connaissent les mots de passe. L'usage de la modalité vidéo nous apparaît difficilement conciliable avec la limitation des ressources imposée par le contexte embarqué. Nous avons proposé un traitement simple du flux vidéo, respectant ces contraintes, qui n'a cependant pas permis d'extraire une information pertinente. L'usage d'une modalité supplémentaire permettrait néanmoins d'utiliser les différentes informations structurelles pour déjouer d'éventuelles impostures par play-back. Ce travail ouvre ainsi de nombreuses perspectives, relatives à l'utilisation d'information structurelle dans le cadre de la vérification du locuteur et aux approches de reconnaissance du locuteur assistée par la modalité vidéo
2

Ottens, Kévin. "Un système multi-agent adaptatif pour la construction d'ontologies à partir de textes." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00176883.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le Web sémantique désigne un ensemble de technologies visant à rendre le contenu des ressources du World Wide Web accessible et utilisable par les programmes et agents logiciels. Ainsi, il doit faciliter l'accès à l'information pour les utilisateurs. Or, un des enjeux du succès du Web sémantique est la disponibilité d'ontologies qui sont des représentations de connaissances formalisées et exploitables par des systèmes informatiques pour leur communication. Malheureusement leur construction est généralement longue et coûteuse, et leur maintenance soulève des problèmes jusqu'ici sous-estimés. S'appuyer sur des textes pour la conception d'ontologies est vu comme une issue possible à leur coût, malgré les difficultés inhérentes à l'exploration d'analyses textuelles.

Parce que l'ontologie doit être maintenue, et parce qu'elle peut-être vue comme un système complexe constitué de concepts, nous proposons d'utiliser les systèmes multi-agents adaptatifs pour semi-automatiser le processus de construction des ontologies à partir de texte. L'état stable de ces systèmes résulte des interactions coopératives entre les agents logiciels qui les constituent. Dans notre cas, les agents utilisent des algorithmes distribués d'analyse statistique pour trouver la structure la plus satisfaisante d'après une analyse syntaxique et distributionnelle des textes. L'utilisateur peut alors valider, critiquer ou modifier des parties de cette structure d'agents, qui est la base de l'ontologie en devenir, pour la rendre conforme à ses objectifs et à sa vision du domaine modélisé. En retour, les agents se réorganisent pour satisfaire les nouvelles contraintes introduites. Les ontologies habituellement fixées deviennent ici dynamiques, leur conception devient « vivante ». Ce sont les principes sous-jacents de notre système nommé Dynamo.

La pertinence de cette approche a été mise à l'épreuve par des expérimentations visant à évaluer la complexité algorithmique de notre système, et par son utilisation en conditions réelles. Dans ce mémoire, nous présentons et analysons les résultats obtenus.
3

Mariéthoz, Johnny. "Algorithmes d'apprentissage discriminants en vérification du locuteur." Lyon 2, 2006. http://theses.univ-lyon2.fr/documents/lyon2/2006/mariethoz_j.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This thesis addresses text-independent speaker verification from a machine learning point of view. We use the machine learning framework to better define the problem and to develop new unbiased performance measures and statistical tests to compare objectively new approaches. We propose a new interpretation of the state-of-the-art Gaussian Mixture Model based system and show that they are discriminant and equivalent to a mixture of linear classifiers. A general framework for score normalization is also given for both probability and non-probability based models. With this new framework we better show the hypotheses made for the well known Z- and T- score normalization techniques. Several uses of discriminant models are then proposed. In particular, we develop a new sequence kernel for Support Vector Machines that generalizes an other sequence kernel found in the literature. If the latter is limited to a polynomial form the former allows the use of infinite space kernels such as Radial Basis Functions. A variant of this kernel that finds the best match for each frame of the sequence to be compared, actually outperforms the state-of-the-art systems. As our new sequence kernel is computationally costly for long sequences, a clustering technique is proposed for reducing the complexity. We also address in this thesis some problems specific to speaker verification such as the fact that the classes are highly unbalanced. And the use of a specific intra- and inter-class distance distribution is proposed by modifying the kernel in order to assume a Gaussian noise distribution over negative examples. Even if this approach misses some theoretical justification, it gives very good empirical results and opens a new research direction
Dans cette thèse le problème de la vérification du locuteur indépendante du texte est abordée du point de vue de l'apprentissage statistique (machine learning). Les théories développées en apprentissage statistique permettent de mieux définir ce problème, de développer de nouvelles mesures de performance non-biaisées et de proposer de nouveaux tests statistiques afin de comparer objectivement les modèles proposés. Une nouvelle interprétation des modèles de l'état de l'art basée sur des mixtures de gaussiennes (GMM) montre que ces modèles sont en fait discriminants et équivalents à une mixture d'experts linéaires. Un cadre théorique général pour la normalisation des scores est aussi proposé pour des modèles probabilistes et non-probabilistes. Grâce à ce nouveau cadre théorique, les hypothèses faites lors de l'utilisation de la normalisation Z et T (T- and Z-norm) sont mises en évidence. Différents modèles discriminants sont proposés. On présente un nouveau noyau utilisé par des machines à vecteurs de support (SVM) qui permet de traîter des séquences. Ce noyau est en fait la généralisation d'un noyau déjà existant qui présente l'inconvénient d'être limité à une forme polynomiale. La nouvelle approche proposée permet la projection des données dans un espace de dimension infinie, comme c'est le cas, par exemple, avec l'utilisation d'un noyau gaussien. Une variante de ce noyau cherchant le meilleur vecteur acoustique (frame) dans la séquence à comparer, améliore les résultats actuellement connus. Comme cette approche est particulièrement coûteuse pour les séquences longues, un algorithme de regroupement (clustering) est utilisé pour en réduire la complexité. Finalement, cette thèse aborde aussi des problèmes spécifiques de la vé-ri-fi-ca-tion du locuteur, comme le fait que les nombres d'exemples positifs et négatifs sont très déséquilibrés et que la distribution des distances intra et inter classes est spécifique de ce type de problème. Ainsi, le noyau est modifié en ajoutant un bruit gaussien sur chaque exemple négatif. Même si cette approche manque de justification théorique pour l'instant, elle produit de très bons résultats empiriques et ouvre des perspectives intéressantes pour de futures recherches
4

Sanchez-Soto, Eduardo. "Réseaux Bayésiens Dynamiques pour la Vérification du Locuteur." Phd thesis, Télécom ParisTech, 2005. http://tel.archives-ouvertes.fr/tel-00011440.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est concernée avec la modélisation statistique du signal de parole appliqué à la vérification du locuteur (VL) en utilisant des réseaux bayésiens (RBs). L'idée principale de ce travail est d'employer les RBs comme un outil mathématique afin de combiner plusieurs sources d'information obtenues à partir du signal de parole en gardant ses relations. Elle combine de travail théorique et expérimental. Une différence fondamentale entre les systèmes de VL et les humains est la quantité et la qualité de l'information utilisée ainsi que la relation entre les sources d'information employées pour prendre des décisions. L'identité d'un locuteur est codée dans plusieurs sources d'information qui peuvent être modélisées par des RBs. La première partie de cette thèse passe en revue les modules principaux des systèmes de VL, les sources possibles d'information aussi bien que les concepts de base des modèles graphiques. La deuxième partie de cette thèse aborde le module de modélisation du système de VL proposé. On propose une nouvelle façon d'approcher les problèmes liés aux systèmes de VL. Il est décrit comment apprendre les relations d'indépendance conditionnelle parmi les variables directement à partir des données. Enfin, nous proposons une technique pour adapter les RBs basée sur certaines caractéristiques mathématiques des relations d'indépendance conditionnelles. Cette adaptation est basée sur une mesure entre les distributions de probabilité conditionnelles entre des variables discrètes, et de la même façon, sur la matrice de régression pour des variables continues. A l'issue de nos recherches, l'intérêt d'employer les RBs dans les systèmes de VL est clairement montré.
5

Pierrot, Jean-Benoît. "Elaboration et validation d'approches en vérification du locuteur." Paris, ENST, 1998. http://www.theses.fr/1998ENST0029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les progrès des outils de traitement du signal conjugues a une meilleure connaissance des propriétés de la parole ont récemment permis de rendre plus fiable la modélisation de ce signal et d'espérer un développement d'applications commerciales dans ce domaine. Préalablement, il s'agit d'adapter les outils communément utilises en traitement de la parole au contexte du produit que l'on souhaite créer. Et finalement évaluer la qualité des résultats obtenus pour cet environnement d'utilisation particulier. On effectue ici une démarche de ce type pour la vérification automatique de l'identité du locuteur à partir de son signal de parole. Dans ce document, on s'intéresse aux aspects théoriques de notre système et des paramètres qui entrent en jeu dans sa constitution. De l'édification de ce fond théorique on élaborera un protocole d'évaluation de nos procèdes. Puis, nous abordons les aspects pratiques de sa création. Pour finir sur deux aspects primordiaux dans l'amélioration des résultats en s'intéressant aux aspects du para métrisation du signal de parole et de l'estimation des seuils de decision.
6

Sánchez-Soto, Eduardo. "Réseaux bayésiens dynamiques pour la vérification du locuteur." Paris, ENST, 2005. http://www.theses.fr/2005ENST0032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est concernée avec la modélisation statistique du signal de parole appliqué à la vérification du locuteur (VL) en utilisant des réseaux bayésiens (RBs). L'idée principale de ce travail est d'employer les RBs comme un outil mathématique afin de combiner plusieurs sources d'information obtenues à partir du signal de parole en gardant ses relations. Elle combine de travail théorique et expérimental. Une différence fondamentale entre les systèmes de VL et les humains est la quantité et la qualité de l'information utilisée ainsi que la relation entre les sources d'information employées pour prendre des décisions. L'identité d'un locuteur est codée dans plusieurs sources d'information qui peuvent être modélisées par des RBs. La première partie de cette thèse passe en revue les modules principaux des systèmes de VL, les sources possibles d'information aussi bien que les concepts de base des modèles graphiques. La deuxième partie de cette thèse aborde le module de modélisation du système de VL proposé. On propose une nouvelle façon d approcher les problèmes liés aux systèmes de VL. Il est décrit comment apprendre les relations d'indépendance conditionnelle parmi les variables directement à partir des données. Enfin, nous proposons une technique pour adapter les RBs basée sur certaines caractéristiques mathématiques des relations d'indépendance conditionnelles. Cette adaptation est basée sur une mesure entre les distributions de probabilité conditionnelles entre des variables discrètes, et de la même façon, sur la matrice de régression pour des variables continues. A l'issue de nos recherches, l'intérêt d'employer les RBs dans les systèmes de VL est clairement montré
This thesis is concerned with the statistical modeling of speech signal applied to Speaker Verification (SV) using Bayesian Networks (BNs). The main idea of this work is to use BNs as a mathematical tool to model pertinent speech features keeping its relations. It combines theoretical and experimental work. The difference between systems and humans performance in SV is the quantity of information and the relationships between the sources of information used to make decisions. A single statistical framework that keeps the conditional dependence and independence relations between those variables is difficult to attain. Therefore, the use of BNs as a tool for modeling the available information and their independence and dependence relationships is proposed. The first part of this work reviews the main modules of a SV system, the possible sources of information as well as the basic concepts of graphical models. The second part deals with Modeling. A new approach to the problems associated with the SV systems is proposed. The problem of inference and learning (parameters and structure)in BNs are presented. In order to obtain an adapted structure the relations of conditional independence among the variables are learned directly from the data. These relations are then used in order to build an adapted BN. In particular, a new model adaptation technique for BN has been proposed. This adaptation is based on a measure between Conditional Probability Distributions for discrete variables and on Regression Matrix for continuous variables used to model the relationships. In a large database for the SV task, the results have confirmed the potential of use the BNs approach
7

Mtibaa, Aymen. "Towards robust and privacy-preserving speaker verification systems." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAS002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes de vérification du locuteur sont une technologie clé dans de nombreux appareils et services tels que les smartphones, les assistants numériques intelligents et les applications bancaires. Pendant la pandémie de COVID-19, les systèmes de contrôle d'accès basés sur des lecteurs d'empreintes digitales ou des claviers augmentent le risque de propagation du virus. Par conséquent, les entreprises repensent maintenant leurs systèmes de contrôle d'accès des employés et envisagent des technologies d'autorisation sans contact, telles que les systèmes de vérification des locuteurs. Cependant, les systèmes de vérification des locuteurs exigent que le système d'accès stocke les modèles des locuteurs et ait accès aux enregistrements ou aux caractéristiques dérivées des voix des locuteurs lors de l'authentification. Ce processus soulève certaines préoccupations concernant le respect de la vie privée de l'utilisateur et la protection de ces données biométriques sensibles. Un adversaire peut voler les informations biométriques des locuteurs pour usurper l'identité de l'utilisateur authentique et obtenir un accès non autorisé. De plus, lorsqu'il s'agit de données vocales, nous sommes confrontés à des problèmes supplémentaires de confidentialité et de respect de vie privée parce que à partir des données vocales plusieurs informations personnelles liées à l'identité, au sexe, à l'âge ou à l'état de santé du locuteur peuvent être extraites. Dans ce contexte, la présente thèse de doctorat aborde les problèmes de protection des données biométriques, le respect de vie privée et la sécurité pour les systèmes de vérification du locuteur basés sur les modèles de mélange gaussien (GMM), i-vecteur et x-vecteur comme modélisation du locuteur. L'objectif est le développement de systèmes de vérification du locuteur qui effectuent une vérification biométrique tout en respectant la vie privée et la protection des données biométriques de l'utilisateur. Pour cela, nous avons proposé des schémas de protection biométrique afin de répondre aux exigences de protection des données biométriques (révocabilité, diversité, et irréversibilité) décrites dans la norme ISO/IEC IS~24745 et pour améliorer la robustesse des systèmes contre différentes scénarios d'attaques
Speaker verification systems are a key technology in many devices and services like smartphones, intelligent digital assistants, healthcare, and banking applications. Additionally, with the COVID pandemic, access control systems based on fingerprint scanners or keypads increase the risk of virus propagation. Therefore, companies are now rethinking their employee access control systems and considering touchless authorization technologies, such as speaker verification systems.However, speaker verification system requires users to transmit their recordings, features, or models derived from their voice samples without any obfuscation over untrusted public networks which stored and processed them on a cloud-based infrastructure. If the system is compromised, an adversary can use this biometric information to impersonate the genuine user and extract personal information. The voice samples may contain information about the user's gender, accent, ethnicity, and health status which raises several privacy issues.In this context, the present PhD Thesis address the privacy and security issues for speaker verification systems based on Gaussian mixture models (GMM), i-vector, and x-vector as speaker modeling. The objective is the development of speaker verification systems that perform biometric verification while preserving the privacy and the security of the user. To that end, we proposed biometric protection schemes for speaker verification systems to achieve the privacy requirements (revocability, unlinkability, irreversibility) described in the standard ISO/IEC IS~24745 on biometric information protection and to improve the robustness of the systems against different attack scenarios
8

Dugas, Charles. "Les techniques de normalisation appliquées à la vérification du locuteur." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape17/PQDD_0006/MQ38676.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Scheffer, Nicolas. "Structuration de l'espace acoustique par le modèle générique pour la vérification du locuteur." Avignon, 2006. http://www.theses.fr/2006AVIG0146.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Louradour, Jérôme. "Noyaux de séquences pour la vérification du locuteur par machines à vecteurs de support." Toulouse 3, 2007. http://www.theses.fr/2007TOU30004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vérification automatique du locuteur (VAL) est une tâche de classification binaire, qui consiste à déterminer si un énoncé de parole a été prononcé ou non par un locuteur cible. Les Machines à Vecteurs de Support (SVMs) sont devenues un outil classique pour ce type de classification. Cette approche discriminante a suscité l’intérêt de nombreuses recherches en reconnaissance des formes, tant pour ses fondements théoriques solides que pour ses bonnes performances empiriques. Mais la mise en oeuvre des SVMs pour la VAL en situation réelle soulevant plusieurs problèmes relatifs aux caractéristiques propres à cette tâche. Il s’agit principalement de la taille élevée des corpus d’apprentissage et de la nature séquentielle des observations à classifier. Cette thèse est consacrée à l’exploration des noyaux de séquences pour la classification SVM du locuteur. Nous commen¸cons par faire un tour d’horizon des méthodes émergentes pour construire des noyaux de séquences. Ensuite nous proposons une nouvelle famille de noyaux en se basant sur une généralisation d’un noyau qui a fait ses preuves en VAL. Nous faisons l’analyse théorique et algorithmique de cette nouvelle famille avant de l’appliquer à la VAL par SVM. Après la mise en oeuvre des systèmes SVMs à base des différents noyaux que nous avons étudiés, nous comparons leurs performances sur le corpus NIST SRE 2005, à partir d’un protocole de développement commun. Enfin, nous introduisons un nouveau concept pour aborder le problème de VAL, dont le principe est de déterminer si deux séquences ont été prononcées par le même locuteur. L’utilisation des SVMs pour exploiter ce concept nous amène à définir une nouvelle catégorie de noyaux : les noyaux entre paires de séquences
This thesis is focused on the application of Support Vector Machines (SVM) to Automatic Text-Independent Speaker Verification. This speech processing task consists in determining whether a speech utterance was pronounced or not by a target speaker, without any constraint on the speech content. In order to apply a kernel method such as SVM to this binary classification of variable-length sequences, an appropriate approach is to use kernels that can handle sequences, and not acoustic vectors within sequences. As explained in the thesis report, both theoretical and practical reasons justify the effort of searching such kernels. The present study concentrates in exploring several aspects of kernels for sequences, and in applying them to a very large database speaker verification problem under realistic recording conditions. After reviewing emergent methods to conceive sequence kernels and presenting them in a unified framework, we propose a new family of such kernels : the Feature Space Normalized Sequence (FSNS) kernels. These kernels are a generalization of the GLDS kernel, which is now well-known for its efficiency in speaker verification. A theoretical and algorithmic study of FSNS kernels is carried out. In particular, several forms are introduced and justified, and a sparse greedy matrix approximation method is used to suggest an efficient and suitable implementation of FSNS kernels for speaker verification. .
11

Kharroubi, Jamal. "Etude de techniques de classement "Machines à vecteurs supports" pour la vérification automatique du locuteur." Phd thesis, Télécom ParisTech, 2002. http://pastel.archives-ouvertes.fr/pastel-00001124.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les SVM (Support Vector Machines) sont de nouvelles techniques d'apprentissage statistique proposées par V.Vapnik en 1995. Elles permettent d'aborder des problèmes très divers comme le classement, la régression, la fusion, etc... Depuis leur introduction dans le domaine de la Reconnaissance de Formes (RdF), plusieurs travaux ont pu montrer l'efficacité de ces techniques principalement en traitement d'image. L'idée essentielle des SVM consiste à projeter les données de l'espace d'entrée (appartenant à deux classes différentes) non-linéairement séparables dans un espace de plus grande dimension appelé espace de caractéristiques de façon à ce que les données deviennent linéairement séparables. Dans cet espace, la technique de construction de l'hyperplan optimal est utilisée pour calculer la fonction de classement séparant les deux classes. Dans ce travail de thèse, nous avons étudié les SVM comme techniques de classement pour la Vérification Automatique du Locuteur (VAL) en mode dépendant et indépendant du texte. Nous avons également étudié les SVM pour des tâches de fusion en réalisant des expériences concernant deux types de fusion, la fusion de méthodes et la fusion de modes. Dans le cadre du projet PICASSO, nous avons proposé un système de VAL en mode dépendant du texte utilisant les SVM dans une application de mots de passe publics. Dans ce système, une nouvelle modélisation basée sur la transcription phonétique des mots de passe a été proposée pour construire les vecteurs d'entrée pour notre classifieur SVM. En ce qui concerne notre étude des SVM en VAL en mode indépendant du texte, nous avons proposé des systèmes hybrides GMM-SVM. Dans ces systèmes, trois nouvelles représentations de données ont été proposées permettant de réunir l'efficacité des GMM en modélisation et les performances des SVM en décision. Ce travail entre dans le cadre de nos participations aux évaluations internationales NIST. Dans le cadre du projet BIOMET sur l'authentification biométrique mené par le GET (Groupe des Écoles de Télécommunications), nous avons étudié les SVM pour deux tâches de fusion. La première concerne la fusion de méthodes où nous avons fusionné les scores obtenus par les participants à la tâche ``One Speaker Detection'' aux évaluations NIST'2001. La seconde concerne la fusion de modes menée sur les scores obtenus sur les quatre différentes modalités de la base de données M2VTS. Les études que nous avons réalisées représentent une des premières tentatives d'appliquer les SVM dans le domaine de la VAL. Les résultats obtenus montrent que les SVM sont des techniques très efficaces et surtout très prometteuses que ce soit pour le classement ou la fusion.
12

Blouet, Raphaël. "Approche probabiliste par arbres de décision pour la vérification automatique du locuteur sur architectures embarquées." Rennes 1, 2002. http://www.theses.fr/2002REN10151.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Seidner, Charlotte. "Vérification des EFFBDs : model checking en ingénierie système." Nantes, 2009. http://www.theses.fr/2009NANT2140.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'Ingénierie Système (IS) est une méthodologie pluridisciplinaire de conception et de mise en oeuvre des systèmes complexes. La maîtrise de la Sûreté de Fonctionnement est un processus essentiel de l'IS et, dans sa poursuite, le recours à des méthodes formelles telles que le model checking se heurte généralement à des difficultés d'utilisation. Dans cette thèse Cifre, effectuée en collaboration avec l'IRCCyN et Sodius, nous avons cherché à concevoir un outil de vérifications formelle d'architectures fonctionnelles qui soit immédiatement utilisable dans des démarches de conception d'IS. Dans ce but, nous transformons des modèles et des propriétés comportementales haut niveau vers des équivalents bas niveau sur lesquels sont effectuées les vérifications formelles, le résultat étant présenté en termes haut niveau. Plus particulièrement, nous avons choisi comme modèles d'entrée les diagrammes EFFBDs : ils constituent un outil de modélisation largement utilisé en IS et adapté aux contraintes du model checking. Nous en avons établi la syntaxe et la sémantique formelles ; nous avons alors pu décrire une transformation vers les réseaux de Petri temporels (TPNs) dont nous avons prouvé qu'elle préserve le comportement temporel des modèles. Parallèlement, nous avons décrit une logique temporelle quantitative adaptée aux EFFBDs et sa traduction vers une logique correspondante sur les TPNs ; nous avons alors pu établir la complexité de son model checking. Ces différents résultats théoriques nous ont enn permis de réaliser un outil de simulation et de vérification d'architectures fonctionnelles et dysfonctionnelles (c. -à-d. Modélisant des fonctions défaillantes), déployé et utilisé industriellement
Systems Engineering (SE) is an interdisciplinary and methodological approach for the design and operation of complex systems. Safety Engineering is a major SE process, yet the use of formal methods such as model checking, however powerful they may be, is hampered by their intrinsic complexity. Our research work, supported by an industrial partnership between the IRCCyN lab and Sodius, aimed at designing a tool which is directly usable during the SE design phase and which formally veries functional models. To that end, high-level models and behavioral properties are transformed into low-level equivalents on which formal verications are performed; analysis results are then expressed on the high-level models. To be specic, we considered EFFBDs as input models; this modeling language is indeed widely used in SE and adapted to model checking constraints. We formally established their syntax and semantics, then we were able to describe a translation into time Petri nets (TPNs) which we proved as preserving the model temporal behavior. Simultaneously, we described a quantitative temporal logic adapted to the EFFBDs and its translation into a corresponding logic on TPNs; we then established the computational complexity of its model checking. These successive theoretical results led us to develop a simulation and verication software tool that can analyze both functional and dysfunctional architectures (i. E. Modeling functions failures); this tool is deployed and operated in an industrial context
14

Soldi, Giovanni. "Diarisation du locuteur en temps réel pour les objets intelligents." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0061.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La diarisation du locuteur en temps réel vise à détecter "qui parle maintenant" dans un flux audio donné. La majorité des systèmes de diarisation en ligne proposés a mis l'accent sur des domaines moins difficiles, tels que l’émission des nouvelles et discours en plénière, caractérisé par une faible spontanéité. La première contribution de cette thèse est le développement d'un système de diarisation du locuteur complètement un-supervisé et adaptatif en ligne pour les données de réunions qui sont plus difficiles et spontanées. En raison des hauts taux d’erreur de diarisation, une approche semi-supervisé pour la diarisation en ligne, ou les modèles des interlocuteurs sont initialisés avec une quantité modeste de données étiquetées manuellement et adaptées par une incrémentale maximum a-posteriori adaptation (MAP) procédure, est proposée. Les erreurs obtenues peuvent être suffisamment bas pour supporter des applications pratiques. La deuxième partie de la thèse aborde le problème de la normalisation phonétique pendant la modélisation des interlocuteurs avec petites quantités des données. Tout d'abord, Phone Adaptive Training (PAT), une technique récemment proposé, est évalué et optimisé au niveau de la modélisation des interlocuteurs et dans le cadre de la vérification automatique du locuteur (ASV) et est ensuite développée vers un système entièrement un-supervise en utilisant des transcriptions de classe acoustiques générées automatiquement, dont le nombre est contrôlé par analyse de l'arbre de régression. PAT offre des améliorations significatives dans la performance d'un système ASV iVector, même lorsque des transcriptions phonétiques précises ne sont pas disponibles
On-line speaker diarization aims to detect “who is speaking now" in a given audio stream. The majority of proposed on-line speaker diarization systems has focused on less challenging domains, such as broadcast news and plenary speeches, characterised by long speaker turns and low spontaneity. The first contribution of this thesis is the development of a completely unsupervised adaptive on-line diarization system for challenging and highly spontaneous meeting data. Due to the obtained high diarization error rates, a semi-supervised approach to on-line diarization, whereby speaker models are seeded with a modest amount of manually labelled data and adapted by an efficient incremental maximum a-posteriori adaptation (MAP) procedure, is proposed. Obtained error rates may be low enough to support practical applications. The second part of the thesis addresses instead the problem of phone normalisation when dealing with short-duration speaker modelling. First, Phone Adaptive Training (PAT), a recently proposed technique, is assessed and optimised at the speaker modelling level and in the context of automatic speaker verification (ASV) and then is further developed towards a completely unsupervised system using automatically generated acoustic class transcriptions, whose number is controlled by regression tree analysis. PAT delivers significant improvements in the performance of a state-of-the-art iVector ASV system even when accurate phonetic transcriptions are not available
15

Fux, Thibaut. "Vers un système indiquant la distance d'un locuteur par transformation de sa voix." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENT120/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la transformation de la voix d’un locuteur dans l’objectif d’indiquer la distance de celui-ci : une transformation en voix chuchotée pour indiquer une distance proche et une transformation en voix criée pour une distance plutôt éloignée. Nous effectuons dans un premier temps des analyses approfondies pour déterminer les paramètres les plus pertinentes dans une voix chuchotée et surtout dans une voix criée (beaucoup plus difficile). La contribution principale de cette partie est de montrer la pertinence des paramètres prosodiques dans la perception de l’effort vocal dans une voix criée. Nous proposons ensuite des descripteurs permettant de mieux caractériser les contours prosodiques. Pour la transformation proprement dite, nous proposons plusieurs nouvelles règles de transformation qui contrôlent de manière primordiale la qualité des voix transformées. Les résultats ont montré une très bonne qualité des voix chuchotées transformées ainsi que pour des voix criées pour des structures linguistiques relativement simples (CVC, CVCV, etc.)
This thesis focuses on speaker voice transformation in the aim to indicate the distance of it: a spokento-whispered voice transformation to indicate a close distance and a spoken-to-shouted voicetransformation for a rather far distance. We perform at first, in-depth analysis to determine mostrelevant features in whispered voices and especially in shouted voices (much harder). The maincontribution of this part is to show the relevance of prosodic parameters in the perception of vocaleffort in a shouted voice. Then, we propose some descriptors to better characterize the prosodiccontours. For the actual transformation, we propose several new transformation rules whichimportantly control the quality of transformed voice. The results showed a very good quality oftransformed whispered voices and transformed shouted voices for relatively simple linguisticstructures (CVC, CVCV, etc.)
16

Vanackère, Vincent. "Trust : un système de vérification automatique de protocoles cryptographiques." Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX11063.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vérification automatique des protocoles cryptographiques est un problème difficile et aux répercussions économiques importantes. On sait par ailleurs qu'il n'admet pas de solution générale car il est indécidable pour un nombre non borné de sessions. Nous nous intéressons dans cette thèse à l'étude des protocoles comportant un nombre borné de sessions en parallèle. Nous introduisons un système de réduction symbolique qui permet dans ce cadre d'effectuer une vérification exacte de ces protocoles. Afin de rendre cette méthode utilisable en pratique sur des protocoles comportant plusieurs sessions en parallèle, nous développons deux méthodes avancées de réduction de l'espace d'états adaptées à une recherche en profondeur. Enfin, nous présentons TRUST, un outil pour la vérification automatique de protocoles cryptographiques. TRUST intègre l'ensemble de ces résultats théoriques afin de fournir un outil de vérification qui soit à la fois simple à utiliser et efficace.
17

Chane-Yack-Fa, Raphaël. "Vérification formelle de systèmes d'information." Thèse, Université de Sherbrooke, 2018. http://hdl.handle.net/11143/11630.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'intéresse à l'étude des méthodes formelles de spécification et de vérification dans le cadre des systèmes d'information. Les systèmes d'informations sont des systèmes dynamiques constitués d'entités et d'associations représentées par la composition en parallèle de processus répliqués issus de différentes classes. De plus, ces systèmes font partie de la classe des systèmes paramétrés. On propose un modèle de spécification de systèmes paramétrés, nommé PASTD, qui est adapté aux systèmes d'information et qui est basé sur la notation des diagrammes états-transitions algébriques (ASTD). Puis, on étudie le problème de sûreté pour les PASTD, à travers la méthode de vérification de couverture pour les systèmes de transitions bien structurés (WSTS). Cette méthode repose sur trois conditions principales : la monotonie, le beau préordre et la pred-base effective. Les PASTD sont montrés comme étant monotones et on définit une sous-classe vérifiant la propriété de beau préordre. Enfin, on décrit une nouvelle méthode, adaptée aux systèmes paramétrés, qui explicite un ensemble de conditions permettant de prouver la pred-base effective. Ces conditions définissent une nouvelle classe appelée RMTS (\emph{Ranked Monotone Transition Systems}). Cette méthode est appliquée aux PASTD.
18

Charbuillet, Christophe. "Algorithmes évolutionnistes appliqués à l'extraction de caractéristiques pour la reconnaissance du locuteur." Paris 6, 2008. http://www.theses.fr/2008PA066564.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'étape d'extraction de caractéristiques occupe une place fondamentale dans les systèmes de reconnaissance des formes. Ces travaux de thèse portent sur l’optimisation de ce module de traitement pour la tâche de reconnaissance du locuteur par Algorithmes Evolutionnistes (AEs). Nous avons évalué cette approche pour la tâche de segmentation et le regroupement du locuteur (SRL) ainsi que pour la tâche de vérification automatique du locuteur, dans le cadre des campagnes d'évaluation ESTER 2005 et Nist 2006. Les différentes études réalisées montrent que l'utilisation d'AE pour l'optimisation du module de codage permet d'améliorer les performances des systèmes. De plus ces travaux montrent qu'une amélioration significative des résultats est possible par l'utilisation de deux codeurs complémentaires. Nous avons, dans ce contexte, développé un algorithme évolutionniste permettant d'optimiser la complémentarité des extracteurs de caractéristiques.
19

Benlahouar, Azzouz. "Nouvelles techniques de segmentation pour caractériser le timbre vocal d'un locuteur en vue de la vérification automatique de l'identité." Mémoire, École de technologie supérieure, 2003. http://espace.etsmtl.ca/778/1/BENLAHOUAR_Azzouz.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail de recherche nous avons développé de nouvelles techniques de segmentation fréquentielle caractérisant l'empreinte vocale en vu de l'authentification de l'identité du locuteur. Nous avons proposé un nouvel algorithme MSAAB (Meilleure Structure d'Arbre ABstrait) impliquant une analyse en ondelettes et une analyse en composante principale. À partir d'un signal vocal d'un locuteur donné, nous pouvons déterminer les paramètres acoustiques appropriés qui lui permettent d'être discriminant. En utilisant l'algorithme MSAAB, nous avons effectué une série d'expériences pour la vérification de l'identité par la voix en mode texte-dépendent et en mode texte-indépendant. Durant nos expériences, nous avons utilisé deux types de corpus: Yoho, une base de données propre et Spidre, une base de données téléphonique bruitée. Les paramètres extraits sont utilisés comme une entrée du système de vérification d'identité. Celui-ci utilise une modélisation Markovienne. Les résultats obtenus ont été comparés avec d'autres types de paramètres, Fourier notamment. La robustesse des algorithmes proposés a pu être vérifiée et confirmée.
20

Fernandez, Jean-Claude. "ALDEBARAN : un système de vérification par réduction de processus communicants." Phd thesis, Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00326157.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le système de vérification propose permet de réduire et de comparer des systèmes de transitions étiquetées en tenant compte d'une relation d'équivalence. Les relations d'équivalence considérées sont la congruence forte, l'équivalence et la congruence observationnelles et la congruence par modèle d'acceptation. Les bases théoriques d'Aldebaran sont présentées ainsi que des algorithmes efficaces pour la comparaison et les réductions de systèmes de transition étiquetées et une réalisation en langage C
21

Liu, Yinling. "Conception et vérification du système d'Information pour la maintenance aéronautique." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI133.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le soutien opérationnel est l’un des aspects les plus importants pour la maintenance aéronautique. Il vise essentiellement à fournir un portefeuille de services permettant d’implémenter la maintenance avec un niveau élevé d’efficacité, de fiabilité et d’accessibilité. L’une des principales difficultés du support opérationnel est qu’il n’existe pas de plate-forme intégrant tous les processus de maintenance des avions afin de réduire les coûts et d’améliorer le niveau de service. Il est donc nécessaire de réaliser un système autonome de maintenance des avions dans lequel toutes les informations de maintenance peuvent être collectées, organisées, analysées et gérées de manière à faciliter la prise de décision. Pour ce faire, une méthodologie innovante a été proposée, qui concerne la modélisation, simulation, vérification formelle et analyse des performances du système autonome mentionné. Trois axes ont été abordés dans cette thèse. Premier axe concerne la conception et simulation d'un système autonome pour la maintenance aéronautique. Nous proposons une conception innovante d'un système autonome prenant en charge la prise de décision automatique pour la planification de la maintenance. Deuxième axe vise la vérification de modèles sur des systèmes de simulation. Nous proposons une approche plus complète de la vérification des comportements globaux et des comportements opérationnels des systèmes. Troisième axe porte sur l'analyse de la performance des systèmes de simulation. Nous proposons une approche consistant à combiner un système de simulation à base d’agent avec une approche « Fuzzy Rough Nearest Neighbor », afin de mettre en œuvre la classification et prévision efficaces des pannes pour la maintenance des avions avec des données manquantes. Finalement, des modèles et systèmes de la simulation ont été proposés. Des expérimentations de la simulation illustrent la faisabilité de l’approche proposée
Operational support is one of the most important aspects of aeronautical maintenance. It aims to provide a portfolio of services to implement maintenance with a high level of efficiency, reliability and accessibility. One of the major difficulties in operational support is that there is no platform that integrates all aircraft maintenance processes in order to reduce costs and improve the level of service. It is therefore necessary to build an autonomous aircraft maintenance system in which all maintenance information can be collected, organized, analyzed and managed in a way that facilitates decision-making. To do this, an innovative methodology has been proposed, which concerns modelling, simulation, formal verification and performance analysis of the autonomous system mentioned. Three axes were addressed in this thesis. The first axis concerns the design and simulation of an autonomous system for aeronautical maintenance. We offer an innovative design of an autonomous system that supports automatic decision making for maintenance planning. The second axis is the verification of models on simulation systems. We propose a more comprehensive approach to verifying global behaviours and operational behaviours of systems. The third axis focuses on the analysis of the performance of simulation systems. We propose an approach of combining an agent-based simulation system with the “Fuzzy Rough Nearest Neighbor” approach, in order to implement efficient classification and prediction of aircraft maintenance failures with missing data. Finally, simulation models and systems have been proposed. Simulation experiments illustrate the feasibility of the proposed approach
22

Mpe, A. Guilikeng Albert. "Un système de prédiction/vérification pour la localisation d'objets tridimentionnels." Compiègne, 1990. http://www.theses.fr/1990COMPD286.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail présente un système de localisation d'objets solides 3D dans une image optique par prédiction/vérification. Les traitements préalables sont la description des objets, ici représentés par une structure C. S. G. Par listes et la calibration de la caméra. La prédiction utilise ces informations, ainsi que les matrices de position pour construire une image des régions. Ces matrices proviennent soit d'informations issues d'un contrôleur de robot, soit d'une génération d'hypothèses. La prédiction utilise des modules de projection de formes primitives telles que les polyhèdres, les ellipsoïdes et les cônes généralisés. La prise en compte de formes plus complexes se fait à l'aide de graphes d'occlusion. La vérification effectue un test de superposition entre les régions prédites d'une part et les régions obtenues après des traitements effectués sur des images acquises d'autre part.
23

François, Dominique. "Détection et identification des occlusives et fricatives au sein du système indépendant du locuteur APHODEX." Nancy 1, 1995. http://www.theses.fr/1995NAN10044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans cette thèse portent sur le décodage acoustico-phonétique dans un système expert indépendant du locuteur. Ce système, APHODEX, est la réalisation d'une des premières expériences sur la modélisation de la lecture de spectrogramme. Une première évaluation permettait de mettre en évidence les atouts du système ainsi que ses carences. Connaissant les caractéristiques de la parole continue, en particulier la coarticulation, l'architecture et le fonctionnement du moteur d'inférence, de par leur prise en compte dans le raisonnement des contextes gauches et droits du segment de parole à traiter, s'avèrent être un point fort. L'étude des résultats de décodage a montré que les efforts devaient en premier lieu se porter sur les consonnes occlusives et fricatives, les voyelles étant plutôt bien reconnues et le mauvais score des autres consonnes étant pour beaucoup la conséquence d'erreurs durant l'étape de segmentation. Après une étude de la masse de connaissances disponibles, nous retenons celles qui paraissent les mieux adaptées à un traitement automatique. Nous proposons alors des procédures réalisant l'extraction d'indices recensés et d'autres expérimentaux ; puis, avant d'écrire une base de règles, nous présentons une phase de validation statistique des procédures sur un corpus d'étude. Une nouvelle évaluation du système permet alors de mesurer l'amélioration mise en œuvre. Voulant comparer ces résultats déjà positifs à ceux d'une méthode différente, plus proche de la distinction des phonèmes par l'intelligence humaine, nous proposons l'intégration de modèles connexionnistes à l'architecture d'APHODEX. Une discrimination des occlusives sourdes et sonores, puis des fricatives sourdes et sonores par des perceptrons multi-couches est présentée. Les résultats très positifs nous conduisent alors à étudier une possible interaction des deux méthodes inspirées de sciences différentes, la phonétique et la neurobiologie
24

Gondelman, Léon. "Un système de types pragmatique pour la vérification déductive des programmes." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS583/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se place dans le contexte de la vérification déductive des programmes et a pour objectif de formaliser un certain nombre de concepts qui sont mis en œuvre dans l'outil de vérification Why3.L'idée générale est d'explorer des solutions qu'une approche à base de systèmes de types peut apporter à la vérification. Nous commençons par nous intéresser à la notion du code fantôme, une technique implantée dans de nombreux outils de vérification modernes, qui consiste à donner à des éléments de la spécification les apparences d'un code opérationnel. L'utilisation correcte du code fantôme requiert maintes précautions puisqu'il ne doit jamais interférer avec le reste du code. Le premier chapitre est consacré à une formalisation du code fantôme, en illustrant comment un système de types avec effets en permet une utilisation à la fois correcte et expressive. Puis nous nous intéressons à la vérification des programmes manipulant des pointeurs. En présence d'aliasing, c'est-à-dire lorsque plusieurs pointeurs manipulés dans un programme dénotent une même case mémoire, la spécification et la vérification deviennent non triviales. Plutôt que de nous diriger vers des approches existantes qui abordent le problème d'aliasing dans toute sa complexité, mais sortent du cadre de la logique de Hoare, nous présentons un système de types avec effets et régions singletons qui permet d'effectuer un contrôle statique des alias avant même de générer les obligations de preuve. Bien que ce système de types nous limite à des pointeurs dont l'identité peut être connue statiquement, notre observation est qu'il convient à une grande majorité des programmes que l'on souhaite vérifier. Enfin, nous abordons les questions liées à la vérification de programmes conçus de façon modulaire. Concrètement, nous nous intéressons à une situation où il existe une barrière d'abstraction entre le code de l'utilisateur et celui des bibliothèques dont il dépend. Cela signifie que les bibliothèques fournissent à l'utilisateur une énumération de fonctions et de structures de données manipulées, sans révéler les détails de leur implémentation. Le code de l'utilisateur ne peut alors exploiter ces données qu'à travers un ensemble de fonctions fournies. Dans une telle situation, la vérification peut elle-même être modulaire. Du côté de l'utilisateur, la vérification ne doit alors s'appuyer que sur des invariants de type et des contrats de fonctions exposés par les bibliothèques. Du côté de ces dernières, la vérification doit garantir que la représentation concrète raffine correctement les entités exposées, c'est-à-dire en préservant les invariants de types et les contrats de fonctions. Dans le troisième chapitre nous explorons comment un système de types permettant le contrôle statique des alias peut être adapté à la vérification modulaire et le raffinement des structures de données
This thesis is conducted in the framework of deductive software verification.is aims to formalize some concepts that are implemented in the verification tool Why3. The main idea is to explore solutions that a type system based approach can bring to deductive verification. First, we focus our attention on the notion of ghost code, a technique that is used in most of modern verification tools and which consists in giving to some parts of specification the appearance of operational code. Using ghost code correctly requires various precautions since the ghost code must never interfere with the operational code. The first chapter presents a type system with effects illustrating how ghost code can be used in a way which is both correct and expressive. The second chapter addresses some questions related to verification of programs with pointers in the presence of aliasing, i.e. when several pointers handled by a program denote a same memory cell. Rather than moving towards to approaches that address the problem in all its complexity to the costs of abandoning the framework of Hoare logic, we present a type system with effects and singleton regions which resolves a liasing issues by performing a static control of aliases even before the proof obligations are generated. Although our system is limited to pointers whose identity must be known statically, we observe that it fits for most of the code we want to verify. Finally, we focus our attention on a situation where there exists an abstraction barrier between the user's code and the one of the libraries which it depends on. That means that libraries provide the user a set of functions and of data structures, without revealing details of their implementation. When programs are developed in a such modular way, verification must be modular it self. It means that the verification of user's code must take into account only function contracts supplied by libraries while the verification of libraries must ensure that their implementations refine correctly the exposed entities. The third chapter extends the system presented in the previous chapter with these concepts of modularity and data refinement
25

Vergamini, Didier. "Vérification de réseaux d'automates finis par équivalences observationnelles : le système AUTO." Nice, 1987. http://www.theses.fr/1987NICE4142.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour modéliser les systèmes parallèles et communicants, on utilise les algèbres de processus introduites par R. Milner permettant de donner la sémantique de termes représentant de tels systèmes sous forme de systèmes de transitions. Pour vérifier des programmes, on utilise la notion d'équivalence observationnelle associée à un critère d'observation. Le système AUTO issu du système ECRINS qui permet de manipuler des algèbres de processus est utilisé pour la mise en œuvre du principe de vérification. On donne une description complète du système et de son implantation en LE LISP. Son utilisation est illustrée par des exemples très classiques dans le domaine de la vérification des systèmes parallèles. On traite ensuite des exemples plus complexes d'algorithmes distribués
26

Robbana, Riadh. "Spécification et vérification de systèmes hybrides." Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00346070.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes hybrides sont des systèmes qui combinent des composantes discrètes et des composantes continues. Les composantes continues peuvent représenter un environnement physique obéissant à des règles de changement continu, par contre les composantes discrètes peuvent représenter des contrôleurs discrets qui sondent et manipulent les composantes continues en temps réel. Deux approches peuvent être adoptées pour spécifier ces systèmes, la première étant basée sur des automates (hybrides) et utilise des méthodes d'analyse algorithmiques. La seconde est basée sur les logiques et utilise des preuves formelles comme méthodes d'analyse. Dans une première partie de cette thèse nous considérons l'approche basée sur les automates. Nous étudions la décidabilité du problème de la vérification pour certaines classes de systèmes hybrides linéaires. Nous prenons comme modèles des automates hybrides linéaires avec des structures de données discrètes non bornées. Nous exhibons différents cas de tels systèmes dont le problème de la vérification est décidable. Dans une seconde partie nous considérons l'approche basée sur les logiques et plus particulièrement celle basée sur le «Calcul de Durées». Nous étudions les relations existantes entre cette approche et la précédente ; nous montrons comment cette liaison permet de mettre en évidence un fragment important du «Calcul de Durées» pour lequel le problème de la vérification est décidable
27

Boucherit, Aziza. "L'implication du locuteur dans le discours et le renouvellement du système aspectif dans le dialecte arabe d'Alger." Paris 3, 1994. http://www.theses.fr/1994PA030140.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'étude propose une description synchronique du système verbal de l'arabe dialectal parle à Alger dans laquelle l'accent a été mis sur un des processus par lesquels un système verbal, dont le fonctionnement est fondamentalement aspectif, est susceptible de se renouveler par l'insertion dans le système d'une particule pre-verbale fléchie (ra + pronom suffixe) destinée à exprimer la notion de concomitance. Outre l'introduction (chap. I) définissant les objectifs de la recherche, les différents types de matériaux analyses et les conditions d'enquête sur le terrain, l'étude comprend quatre parties. Dans la première partie sont présentées, à grands traits, l'histoire du dialecte étudié et sa situation du point de vue de la typologie dialectale (chap. Ii) et les principales caractéristiques linguistiques du dialecte : étude phonologique et remarques morphologiques et syntaxiques concernant le fonctionnement du syntagme verbal (chap. Iii). Dans la seconde partie (chap. Iv) sont présentées les principales notions théoriques sur lesquelles s'appuient la description des usages (iv. 1) et la situation, sous l'aspect étudié, dans les parlers arabes maghrébins (iv. 2). La troisième partie (chap. V - xi) est consacrée à la présentation des résultats obtenus dans l'analyse de l'ensemble des divers types de matériaux rassembles pour cette étude
The study sets up a synchronic description of the dialectal Arabic verbal system spoken in Algiers. Emphasis is laid on one of the processes by which a verbal system, fonctioning basically as an aspective one, is likely to renew itself by the insertion, within the system, of an inflected pre-verbal particle (ra- + suffixal pronoun) aiming at expressing the notion of concomitance. Besides the introduction (chap. I), defining the aims of the research, the different types ofmaterial analyzed and the conditions of field investigation, the study includes four sections. The first section presents the main outlines of the history of the dialect examined and its position from the point of view of dialectal typology (chap. Ii) and the essential linguistic characteristics of this dialect : phonological study and remarks on morphology and syntax with regards to the functioning of verbal syntagm (chap. Iii). The second section (chap. Iv) presents, from the same point of view, the main theoretical notions on which the usages (iv. 1) and the situation are based in the magrebin Arabic idioms (iv. 2)
28

Charguéraud, Arthur. "Vérification de programmes à l'aide de formules caractéristiques." Paris 7, 2010. http://www.theses.fr/2010PA077214.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse introduit une nouvelle approche a la vérification de programmes, basée sur des formules caractéristiques. La formule caractéristique d'un programme est une formule de la logique d'ordre supérieur qui décrit le comportement d'un programme d'une manière correcte et complète vis-à-vis de la sémantique. Cette formule peut être exploitée dans un assistant de preuve pour établir de manière interactive qu'un programme satisfait une spécification de correction totale exprimée dans le style de la logique de séparation. La formule caractéristique d'un programme est automatiquement générée à partir de son code source il n'est pas nécessaire d'annoter ce code par des spécifications ou des invariants de boucle vu que ces informations peuvent être fournies dans le script de preuve. Un aspect essentiel des formules caractéristiques est qu'elles sont de taille linéaire et qu'elles peuvent être affichées comme le code source qu'elles décrivent, bien qu'elles ne fassent pas référence à la syntaxe du langage de programmation. Ces formules caractéristiques sont au coeur d'un outil, dénomme CFML, qui permet de vérifier des programmes CAML à l'aide de l'assistant de preuve coq. CFML a été utilisé pour vérifier la moitie du contenu du livre de Chris Okasaki sur les structures de données purement fonctionnelles, ainsi que pour vérifier plusieurs structures de données impératives telles que les listes mutables, les tableaux creux, ou encore la structure d'union-find. CFML supporte également le raisonnement sur les fonctions impératives d'ordre supérieur, comme les fonctions en forme CPS ou les itérateurs d'ordre supérieur
This dissertation describes a new approach to program verification, based on characteristic formulae the characteristic formula of a program is a higher-order logic formula that describes the behavior of that program, in the sense that it is sound and complete with respect to the semantics. This formula can be exploited in an interactive theorem prover to establish that the program satisfies a specification expressed in the style of separation logic, with respect to total correctness. The characteristic formula of a program is automatically generated from its source code alone. In particular, there is no need to annotate the source code with specifications or loop invariants, as such information can be given in interactive proof scripts. One key feature of characteristic formulae is that they are of linear size and that they can be pretty-printed in a way that closely resemble the source code they describe, even though they do not refer to the syntax of the programming language Characteristic formulae serve as a basis for a tool, called CFML, that supports the verification of CAML programs using the coq proof assistant. CFML has been employed to verify about half of the content of okasaki's book on purely functional data structures, and to verify several imperative data structures such as mutable lists, sparse arrays and union-find. Cfml also supports reasoning on higher-order imperative functions, such as functions in cps form and higher-order iterators
29

Graja, Zaineb. "Vérification formelle des systèmes multi-agents auto-adaptatifs." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30105/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un des défis majeurs pour le développement des Systèmes Multi-Agents (SMA) auto-organisateurs est de garantir la convergence du système vers la fonction globale attendue par un observateur externe et de garantir que les agents sont capables de s'adapter face aux perturbations. Dans la littérature, plusieurs travaux se sont basés sur la simulation et le model-checking pour analyser les SMA auto-organisateurs. La simulation permet aux concepteurs d'expérimenter plusieurs paramètres et de créer certaines heuristiques pour faciliter la conception du système. Le model-checking fournit un support pour découvrir les blocages et les violations de propriétés. Cependant, pour faire face à la complexité de la conception des SMA auto-organisateurs, le concepteur a également besoin de techniques qui prennent en charge non seulement la vérification, mais aussi le processus de développement lui-même. En outre, ces techniques doivent permettre un développement méthodique et faciliter le raisonnement sur divers aspects du comportement du système à différents niveaux d'abstraction. Dans cette thèse, trois contributions essentielles ont été apportées dans le cadre du développement et la vérification formelle des SMA auto-organisateurs: une formalisation à l'aide du langage B-événementiel des concepts clés de ces systèmes en trois niveaux d'abstraction (micro, méso et macro), une expérimentation d'une stratégie de raffinement descendante pour le développement des SMA auto-organisateurs et la proposition d'un processus de raffinement ascendant basé sur des patrons de raffinement
A major challenge for the development of self-organizing MAS is to guarantee the convergence of the system to the overall function expected by an external observer and to ensure that agents are able to adapt to changes. In the literature, several works were based on simulation and model-checking to study self-organizing MAS. The simulation allows designers to experiment various settings and create some heuristics to facilitate the system design. Model checking provides support to discover deadlocks and properties violations. However, to cope with the complexity of self-organizing MAS, the designer also needs techniques that support not only verification, but also the development process itself. Moreover, such techniques should support disciplined development and facilitate reasoning about various aspects of the system behavior at different levels of abstraction. In this thesis, three essential contributions were made in the field of formal development and verification of self-organizing MAS: a formalization with the Event-B language of self-organizing MAS key concepts into three levels of abstraction, an experimentation of a top-down refinement strategy for the development of self-organizing MAS and the definition of a bottom-up refinement process based on refinement patterns
30

Mateescu, Radu. "Vérification des propriétés temporelles des programmes parallèles." Phd thesis, Grenoble INPG, 1998. http://tel.archives-ouvertes.fr/tel-00004896.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vérification formelle est indispensable pour assurer la fiabilité des applications critiques comme les protocoles de communication et les systèmes répartis. La technique de vérification basée sur les modèles (model-checking) consiste à traduire l'application vers un système de transitions étiquetées (STE), sur lequel les propriétés attendues, exprimées en logique temporelle, sont vérifiées à l'aide d'outils appelés évaluateurs (model-checkers). Cependant, les logiques temporelles "classiques", définies sur un vocabulaire d'actions atomiques, ne sont pas adaptées aux langages de description comme LOTOS, dont les actions contiennent des valeurs typées. Cette thèse définit un formalisme appelé XTL (eXecutable Temporal Language) qui permet d'exprimer des propriétés temporelles portant sur les données du programme à vérifier. XTL est basé sur une extension du mu-calcul modal avec des variables typées. Les valeurs contenues dans le STE, extraites à l'aide d'opérateurs modaux étendus, peuvent être passées en paramètre aux opérateurs de point fixe ou manipulées à l'aide de constructions d'inspiration fonctionnelle comme "let", "if-then-else", "case", etc. Les propriétés portant sur des séquences d'actions du programme sont décrites succinctement au moyen d'expressions régulières. Des méta-opérateurs spéciaux permettent l'évaluation des formules sur un STE et l'expression de propriétés temporelles non-standard par exploration de la relation de transition. La sémantique de XTL est formellement définie et des algorithmes efficaces sont proposés pour évaluer des formules temporelles XTL sur des modèles STEs. Un évaluateur XTL est développé et utilisé avec succès pour la validation d'applications industrielles comme le protocole BRP développé par Philips et la couche liaison du bus série IEEE-1394 ("FireWire").
31

Methni, Amira. "Méthode de conception de logiciel système critique couplée à une démarche de vérification formelle." Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1057/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec l'évolution des technologies, la complexité des systèmes informatiques ne cesse de s'accroître. Parmi ces systèmes, on retrouve les logiciels critiques qui doivent offrir une garantie de sûreté de fonctionnement qui s'avère crucial et pour lesquels un dysfonctionnement peut avoir des conséquences graves. Les méthodes formelles fournissent des outils permettant de garantir mathématiquement l'absence de certaines erreurs. Ces méthodes sont indispensables pour assurer les plus hauts niveaux de sûreté. Mais l'application de ces méthodes sur un code système bas niveau se heurte à des difficultés d'ordre pratique et théorique. Les principales difficultés concernent la prise en compte des aspects bas niveau, comme les pointeurs et les interactions avec le matériel spécifique. De plus, le fait que ces systèmes soient concurrents conduit à une augmentation exponentielle du nombre de comportements possibles, ce qui rend plus difficile leur vérification. Dans cette thèse, nous proposons une méthodologie pour la spécification et la vérification par model-checking de ce type de systèmes, en particulier, ceux implémentés en C. Cette méthodologie est basée sur la traduction de la sémantique de C en TLA+, un langage de spécification formel adapté à la modélisation de systèmes concurrents. Nous avons proposé un modèle de mémoire et d'exécution d'un programme C séquentiel en TLA+. En se basant sur ce modèle, nous avons proposé un ensemble de règles de traduction d'un code C en TLA+ que nous avons implémenté dans un outil, appelé C2TLA+. Nous avons montré comment ce modèle peut s'étendre pour modéliser les programmes C concurrents et gérer la synchronisation entre plusieurs processus ainsi que leur ordonnancement. Pour réduire la complexité du model-checking, nous avons proposé une technique permettant de réduire significativement la complexité de la vérification. Cette réduction consiste pour un code C à agglomérer une suite d'instructions lors de la génération du code TLA+, sous réserve d'un ensemble de conditions.Nous avons appliqué la méthodologie proposée dans cette thèse sur un cas d'étude réel issu de l'implémentation d'un micronoyau industriel,sur lequel nous avons vérifié un ensemble de propriétés fonctionnelles. L'application de la réduction a permis de réduire considérablement le temps de la vérification, ce qui la rend utilisable en pratique.Les résultats ont permis d'étudier le comportement du système, de vérifier certaines propriétés et de trouver des bugs indétectables par des simples tests
Software systems are critical and complex. In order to guarantee their correctness, the use of formal methodsis important. These methods can be defined as mathematically based techniques, languages and tools for specifying and reasoning about systems. But, the application of formal methods to software systems, implemented in C, is challenging due to the presence of pointers, pointer arithmetic andinteraction with hardware. Moreover, software systems are often concurrent, making the verification process infeasible. This work provides a methodology to specify and verify C software systems usingmodel-checking technique. The proposed methodology is based on translating the semantics of Cinto TLA+, a formal specification language for reasoning about concurrent and reactive systems. We define a memory and execution model for a sequential program and a set of translation rules from C to TLA+ that we developed in a tool called C2TLA+. Based on this model, we show that it can be extended to support concurrency, synchronization primitives and process scheduling. Although model-checking is an efficient and automatic technique, it faces the state explosion problem when the system becomes large. To overcome this problem, we propose a state-space reduction technique. The latter is based on agglomerating a set of C instructions during the generation phase of the TLA+ specification. This methodology has been applied to a concrete case study, a microkernel of an industrial real-time operating system, on which a set of functional properties has been verified. The application of the agglomeration technique to the case study shows the usefulness of the proposed technique in reducing the complexity of verification. The obtained results allow us to study the behavior of the system and to find errors undetectable using traditional testing techniques
32

Methni, Amira. "Méthode de conception de logiciel système critique couplée à une démarche de vérification formelle." Electronic Thesis or Diss., Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec l'évolution des technologies, la complexité des systèmes informatiques ne cesse de s'accroître. Parmi ces systèmes, on retrouve les logiciels critiques qui doivent offrir une garantie de sûreté de fonctionnement qui s'avère crucial et pour lesquels un dysfonctionnement peut avoir des conséquences graves. Les méthodes formelles fournissent des outils permettant de garantir mathématiquement l'absence de certaines erreurs. Ces méthodes sont indispensables pour assurer les plus hauts niveaux de sûreté. Mais l'application de ces méthodes sur un code système bas niveau se heurte à des difficultés d'ordre pratique et théorique. Les principales difficultés concernent la prise en compte des aspects bas niveau, comme les pointeurs et les interactions avec le matériel spécifique. De plus, le fait que ces systèmes soient concurrents conduit à une augmentation exponentielle du nombre de comportements possibles, ce qui rend plus difficile leur vérification. Dans cette thèse, nous proposons une méthodologie pour la spécification et la vérification par model-checking de ce type de systèmes, en particulier, ceux implémentés en C. Cette méthodologie est basée sur la traduction de la sémantique de C en TLA+, un langage de spécification formel adapté à la modélisation de systèmes concurrents. Nous avons proposé un modèle de mémoire et d'exécution d'un programme C séquentiel en TLA+. En se basant sur ce modèle, nous avons proposé un ensemble de règles de traduction d'un code C en TLA+ que nous avons implémenté dans un outil, appelé C2TLA+. Nous avons montré comment ce modèle peut s'étendre pour modéliser les programmes C concurrents et gérer la synchronisation entre plusieurs processus ainsi que leur ordonnancement. Pour réduire la complexité du model-checking, nous avons proposé une technique permettant de réduire significativement la complexité de la vérification. Cette réduction consiste pour un code C à agglomérer une suite d'instructions lors de la génération du code TLA+, sous réserve d'un ensemble de conditions.Nous avons appliqué la méthodologie proposée dans cette thèse sur un cas d'étude réel issu de l'implémentation d'un micronoyau industriel,sur lequel nous avons vérifié un ensemble de propriétés fonctionnelles. L'application de la réduction a permis de réduire considérablement le temps de la vérification, ce qui la rend utilisable en pratique.Les résultats ont permis d'étudier le comportement du système, de vérifier certaines propriétés et de trouver des bugs indétectables par des simples tests
Software systems are critical and complex. In order to guarantee their correctness, the use of formal methodsis important. These methods can be defined as mathematically based techniques, languages and tools for specifying and reasoning about systems. But, the application of formal methods to software systems, implemented in C, is challenging due to the presence of pointers, pointer arithmetic andinteraction with hardware. Moreover, software systems are often concurrent, making the verification process infeasible. This work provides a methodology to specify and verify C software systems usingmodel-checking technique. The proposed methodology is based on translating the semantics of Cinto TLA+, a formal specification language for reasoning about concurrent and reactive systems. We define a memory and execution model for a sequential program and a set of translation rules from C to TLA+ that we developed in a tool called C2TLA+. Based on this model, we show that it can be extended to support concurrency, synchronization primitives and process scheduling. Although model-checking is an efficient and automatic technique, it faces the state explosion problem when the system becomes large. To overcome this problem, we propose a state-space reduction technique. The latter is based on agglomerating a set of C instructions during the generation phase of the TLA+ specification. This methodology has been applied to a concrete case study, a microkernel of an industrial real-time operating system, on which a set of functional properties has been verified. The application of the agglomeration technique to the case study shows the usefulness of the proposed technique in reducing the complexity of verification. The obtained results allow us to study the behavior of the system and to find errors undetectable using traditional testing techniques
33

Cambolive, Guillaume. "Scrables : un système intelligent d'audit." Toulouse 3, 1993. http://www.theses.fr/1993TOU30237.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these decrit les travaux realises pour repondre aux besoins des auditeurs en matiere de systemes d'informations. Ces travaux se situent a l'intersection de deux domaines: celui des systemes d'informations et celui de l'intelligence artificielle distribuee. Realiser un audit necessite des connaissances multi-domaines et la mise en uvre d'une demarche de resolution de probleme hierarchique et en partie opportuniste. Le systeme d'information a la disposition des auditeurs est constitue principalement de documents a structures complexes. L'auteur definit dans un premier temps un modele de description de documents a structures complexes et une approche de conception et d'exploitation de ces documents. L'auteur traite dans un second temps l'aspect systeme intelligent. Il caracterise les connaissances et la demarche d'audit. Il definit ensuite un modele et un systeme a architecture de type tableau noir. En dernier lieu, l'auteur traite l'interconnection du systeme intelligent avec le systeme de gestion de documents. Celle-ci permet au systeme intelligent de recevoir des donnees issues des documents, et de leur renvoyer ses analyses et resultats
34

Berkane, Bachir. "Vérification des systèmes matériels numériques séquentiels synchrones : application du langage Lustre et de l'outil de vérification Lesar." Phd thesis, Grenoble INPG, 1992. http://tel.archives-ouvertes.fr/tel-00340909.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La validation fonctionnelle d'un système matériel consiste a vérifier le système vis-a-vis de son fonctionnement attendu. Il existe deux façons de spécifier ce fonctionnement attendu. D'une part, la spécification peut être donnée sous forme d'une description fonctionnelle complète. D'autre part, l'expression de cette spécification peut être donnée sous forme d'un ensemble de propriétés temporelles critiques. Ces deux façons de spécifier les systèmes matériels ont donne lieu a deux problèmes de vérification. Notre domaine d'étude concerne les systèmes matériels numériques séquentiels synchrones. Le travail présente dans ce document développe une approche de vérification unifiée, fondée sur le modèle de machines d'états finis, pour résoudre les deux problèmes de vérification sur ces systèmes. Dans cette approche, tout probleme de vérification se ramène a définir une machine d'états finis sur laquelle la vérification sera réalisée. L'application du langage lustre et de l'outil de vérification Lesar associe a été étudiée dans le but de valider cette approche. Dans cette application, la resolution des deux problèmes de vérification se ramène a définir un programme lustre ayant une seule sortie. La vérification consiste a vérifier que cette sortie est la constante booléenne 1. Cette vérification est réalisée automatiquement par l'outil de vérification Lesar
35

Ly, Van Bao. "Réalisation d'un système de vérification de signature manuscrite en-ligne indépendant de la plateforme d'acquisition." Evry, Institut national des télécommunications, 2005. http://www.theses.fr/2005TELE0008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La biométrie est depuis très longtemps utilisée comme moyen de vérification de l'identité. Cette thèse contribue à la vérification automatique de l'identité par la signature manuscrite en-ligne. Cette dernière est souvent échantillonnée par une tablette à digitaliser ou un écran tactile. La signature manuscrite est une modalité biométrique particulièrement répandue et acceptée. Nos travaux ont permis de réaliser un algorithme de vérification original, générique, développé indépendamment des bases d'expérience. Il peut être mis en œuvre sur différentes plateformes d'acquisition sans aucune étude supplémentaire pour l'adapter. La signature manuscrite est modélisée par un Modèle de Markov Caché. Dans un premier temps, nous améliorons la modélisation de la signature en introduisant une méthode de normalisation personnalisée des paramètres de cette dernière. La Vraisemblance de la signature de test, donnée par le Modèle de Markov Caché, est utilisée pour la vérification. Les expérimentations montrent que la normalisation personnalisée des paramètres améliore la qualité de modélisation des Modèles de Markov Cachés. Dans un deuxième temps, nous exploitons une autre information du Modèle de Markov Caché, la Segmentation de la signature, afin de vérifier l'identité du signataire. Cette information n'a jamais été utilisée dans l'état-de-l'art. Elle est ensuite fusionnée avec la Vraisemblance pour renforcer le système de vérification. Les expériences montrent que la performance du système est améliorée par rapport à l'utilisation exclusive de la Vraisemblance. Les expériences sont conduites sur 4 bases de signatures, de natures différentes, acquises au moyen de plateformes d'acquisition différentes, puis sur la base intégrée, un simple mélange des signatures des bases précédentes. Les bons résultats prouvent l'indépendance de notre algorithme par rapport à la plateforme d'acquisition de signature
This thesis contributes to the automatic identity verification using the online handwritten signature, which is often sampled by a digitizing tablet or a touch screen. The handwritten signature is a highly accepted biometric modality. The proposed algorithm is original, generic and independent of the experimental signature database. It can be installed with different acquisition devices without any adaptation. The signature is modelled by a Hidden Markov Model. Firstly, we perform a personalized normalization of the signature features, which improves the quality of the Hidden Markov Model. In this stage, we experiment only the Likelihood information of the Hidden Markov Model, and show that the normalization of the signature features is crucial to the system performance. Then, we exploit second information given by the Hidden Markov Model in order to verify the identity. It's the Segmentation of the signature, never used previously for this task. After, this information is fused with the Likelihood information to reinforce the verification system. The experiments show that the system performances are greatly improved compared to the exclusive use of the Likelihood information. These experiments are performed on 4 signature databases, whose characteristics are very different, and then on the integrated database, which is simply a mixture of the 4 previous databases. The good system performances show the independence of the proposed algorithm with respect to the considered signature database, or to the signature acquisition device
36

Mami, Yassine. "Reconnaissance de locuteurs par localisation dans un espace de locuteurs de référence." Phd thesis, Télécom ParisTech, 2003. http://tel.archives-ouvertes.fr/tel-00005757.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans le domaine de la reconnaissance automatique du locuteur, domaine riche d'applications potentielles allant de la sécurisation d'accès à l'indexation de documents audio. Afin de laisser le champ à un large éventail d'applications, nous nous intéressons à la reconnaissance de locuteur en mode indépendant du texte et dans le cas où nous disposons de très peu de données d'apprentissage. Nous nous intéressons plus particulièrement à la modélisation et à la représentation des locuteurs. Il s'agit d'estimer avec très peu de données un modèle suffisamment robuste du locuteur pour permettre la reconnaissance du locuteur. La modélisation par un mélange de gaussiennes (GMM), en mode indépendant du texte, fournit des bonnes performances et constitue l'état de l'art en la matière. Malheureusement, cette modélisation est peu robuste dans le cas où on ne dispose que de quelques secondes de parole pour apprendre le modèle du locuteur. Pour tenter de remédier à ce problème, une perspective intéressante de modélisation consiste à représenter un nouveau locuteur, non plus de façon absolue, mais relativement à un ensemble de modèles de locuteurs bien appris. Chaque locuteur est représenté par sa localisation dans un espace de locuteurs de référence. C'est cette perspective que nous avons explorée dans cette thèse. Au cours de ce travail, nous avons recherché le meilleur espace de représentation et la meilleure localisation dans cet espace. Nous avons utilisé le regroupement hiérarchique et la sélection d'un sous-ensemble pour construire cet espace. Les locuteurs sont ensuite localisés par la technique des modèles d'ancrage. Il s'agit de calculer un score de vraisemblance par rapport à chaque locuteur de référence. Ainsi, la proximité entre les locuteurs est évaluée par l'application des distances entre leurs vecteurs de coordonnées.
Nous avons proposé ensuite une nouvelle représentation des locuteurs basée sur une distribution de distances. L'idée est de modéliser un locuteur par une distribution sur les distances mesurées dans l'espace des modèles d'ancrage. Cela permet d'appliquer une mesure statistique entre l'occurrence de test et les modèles des locuteurs à reconnaître (au lieu d'une mesure géométrique).
Ainsi, si nous avons approfondi la modélisation d'un locuteur par sa position dans un espace de locuteurs de référence, nous avons également étudié comment cette position pouvait permettre une meilleure estimation du modèle GMM du locuteur, par exemple en fusionnant les modèles de ses plus proches voisins. Finalement, en complément à la modélisation GMM-UBM, nous avons étudié des algorithmes de fusion de décisions avec les différentes approches proposées.
37

Arcile, Johan. "Conception, modélisation et vérification formelle d’un système temps-réel d’agents coopératifs : application aux véhicules autonomes communicants." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLE029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est motivée par la question de la validation de propriétés dans un système composé de plusieurs agents mobiles prenants individuellement des décisions en temps réel.Chaque agent a une perception de l'environnement qui lui est propre et peut communiquer avec les autres agents à proximité.L'application qui a été choisie comme cas d'étude est celle des véhicules autonomes, qui du fait du large nombre de variables impliquées dans la représentation de tels systèmes, rend impossible des approches naïves.Les problématiques traitées concernent, d'une part, la modélisation d'un tel système, notamment le choix du formalisme et du niveau d'abstraction du modèle, et d'autre part, la mise en place d'un protocole d'évaluation de la prise de décision des véhicules.Ce dernier point inclut la question de l'efficacité de l'exploration de l'espace d'états du modèle.La thèse présente un ensemble de travaux, pouvant être complémentaires, visant à traiter ces problématiques.Tout d'abord, le système, composé des véhicules autonomes et de leur environnement, est défini avec précision.Il permet notamment d'observer l'impact des communications entre véhicules sur leur comportement.Le cadre logiciel VerifCar dédié à l'analyse de prise de décision de véhicules autonomes communicants est ensuite présenté.Il inclut un modèle paramétrique d'automates temporisés offrant la possibilité de vérifier des propriétés de logique temporelle.Une méthodologie d'analyse utilisant ces propriétés est présentée.On propose également une approche complémentaire permettant dans certains cas une meilleure efficacité et une plus grande expressivité.Elle est fondée sur le formalisme des MAPTs (Multi-Agent with timed Periodic Tasks), qui a été conçu pour la modélisation de systèmes temps réel d'agents coopératifs.Des algorithmes permettant une exploration dynamique des états de ce type de modèles (c'est à dire sans que l'espace d'états ne doive être préalablement construit) sont présentés.Enfin, une méthode combinée alliant la simulation aux outils de vérification de modèle afin de contrôler le niveau de réalisme est décrite et appliquée au cas d'étude
This thesis is motivated by the question of the validation of properties in a system composed of several mobile agents individually making decisions in real time.Each agent has a perception of their own environment and can communicate with other agents nearby.The application that has been chosen as a case study is that of autonomous vehicles, which because of the large number of variables involved in the representation of such systems, makes naive approaches impossible.The issues addressed concern, on the one hand, the modeling of such a system, in particular the choice of the formalism and the level of abstraction of the model, and on the other hand, the implementation of an evaluation protocol of decision making of vehicles.This last point includes the question of the efficiency of the exploration of the state space of the model.The thesis presents a set of works, which can be complementary, aiming to treat these problems.First, the system, consisting of autonomous vehicles and their environment, is precisely defined.It allows in particular to observe the impact of communications between vehicles on their behavior.The VerifCar software framework dedicated to decision-making analysis of communicating autonomous vehicles is then presented.It includes a parametric model of timed automata with the ability to check temporal logic properties.An analysis methodology using these properties is presented.A complementary approach is also proposed, which in some cases allows for greater efficiency and greater expressiveness.It is based on the formalism of MAPTs (Multi-Agent with Timed Periodic Tasks), which was designed for modeling real-time systems of cooperative agents.Algorithms allowing a dynamic exploration of the states of this type of model (that is to say without the state space having to be built beforehand) are presented.Finally, a combined method combining simulation and model verification tools to control the level of realism is described and applied to the case study
38

Lafon, Philippe. "Méthodes de vérification de bases de connaissances." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1991. http://tel.archives-ouvertes.fr/tel-00520738.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous présentons dans cette thèse les travaux réalisés concernant la vérification automatique de Bases de Connaissances de Systèmes Experts. Cette étude comporte un panorama des systèmes existants, puis deux parties indépendantes. La première traite de la Cohérence de bases de règles d'ordre Zéro Plus. Nous présentons le système MELOMIDIA, qui fournit, quand elles existent, les bases de faits initiales conduisant à des déductions contradictoires. Le système permet aussi d'améliorer l'exploitation de la base de règles analysée (élimination des règles inutiles, filtrage de la base de faits initiale), et de visualiser les contradictions qu'elle contient (traceur d'incohérences). La seconde concerne la vérification de bases de règles d'ordre Un. Elle consiste à s'assurer que la base respecte des spécifications exprimées sous la forme de propriétés attachées aux prédicats présents dans la base de règles. Ces propriétés sont fournies suivant un modèle qui distingue quatre niveaux de description des prédicats : les niveaux syntaxique, physique, mathématique et fonctionnel.
39

Azzoune, Hamid. "Les types en Prolog : un système d'inférence de type et ses applications." Phd thesis, Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00332314.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Contribution à l'approche inferentielle pour l'introduction de la notion de type en Prolog. Cette approche consiste à déduire automatiquement d'un programme les types des prédicats. Le programmeur peut ainsi s'assurer de la conformité du programme à ses intentions. Une méthode d'inférence de type pour Prolog est présentée. Elle se base sur une simulation de l'unification et une simulation de la résolution, avec un traitement particulier sur les appels récursifs
40

Cellier, Peggy. "DeLLIS : débogage de programmes par localisation de fautes avec un système d’information logique." Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/cellier.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La localisation de fautes consiste à donner des indices qui vont mener à la correction des fautes liées à des défaillances. La première contribution de cette thèse est une nouvelle structure de données pour la localisation de fautes: un treillis contenant des informations sur les traces d'exécution. Il est obtenu en combinant la recherche de règles d'association et l'analyse formelle de concepts, deux techniques de fouille de données. Le treillis permet d'ordonner partiellement les informations des traces d'exécution en échec. Ainsi les dépendances entre les éléments des traces sont pris en compte ce que ne font pas les autres méthodes de localisation de fautes. La deuxième contribution est un algorithme de parcours du treillis pour localiser plusieurs fautes en une seule exécution d'une suite de tests du programme. L'approche proposée ne fait aucune supposition a priori sur le nombre de fautes. Les expériences montrent que tout en ayant l'avantage de pouvoir traiter plusieurs fautes à la fois, l'approche n'est pas pénalisée en nombre de lignes à inspecter pour le cas d'un programme contenant une seule faute comparé aux meilleures méthodes localisant une seule faute. Une étude de la méthode en fonction des dépendances entre les fautes démontre que seul un cas, parmi les quatre cas de dépendances identifiés, ne peut être traité. La troisième contribution est un algorithme de recherche de règles d'association. Sa particularité est qu'il permet de traiter des taxonomies, comme la hiérarchie contenue dans l'arbre de syntaxe abstraite, en évitant les redondances. Il est utilisé pour générer les règles d'association dont est issu le treillis pour la localisation de fautes
When testing a program, some executions can fail. Fault localization gives clues to locate the faults that cause those failures. The first contribution of this thesis is a new data structure for fault localization: a lattice that contains information from execution traces. The lattice is computed thanks to the combination of association rules and formal concept analysis, two data mining techniques. The lattice computes all differences between execution traces and, at the same time, gives a partial ordering on those differences. Unlike existing work, the method takes into account the dependencies between elements of the traces thanks to the lattice. The second contribution of this thesis is an algorithm that traverses the lattice in order to locate several faults in one pass of a test suite of the program. Experiments show that while the method takes into account multiple faults, it is not penalized, compared to existing work, when the program contains only one fault (in terms of number of lines to inspect). In addition, the study of the impact on the method of the dependences between faults shows that in three out of the four identified cases of dependency the faults can be located. The third contribution is an algorithm to compute association rules. The particularity of that algorithm is that it can take into account taxonomies, such as the hierarchy of the abstract syntax tree, without redundancy. It is used to generate association rules to build the lattice for fault localization
41

Karfoul, Hazem. "L'efficacité du système de contrôle interne et le seuil optimal du risque opérationnel : un modèle d'équilibre de l'allocation des ressources pour l'organisation bancaire." Bordeaux 4, 2010. http://www.theses.fr/2010BOR40089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les études sur la mesure du risque opérationnel (Rop), et l’estimation du capital économique y alloué (CaRop) ont considérablement proliférés dans les dernières années. Toutefois, la prise en compte de la qualité du système de contrôle interne (SCI) dans le processus du calcul est encore effe- ctuée de manière implicite et restreinte. Cette déficience aboutit en effet à des estimations biaisées et non cohérentes avec le profil réel de Rop des banques. Alors, pour aligner l’estimation du CaRop avec le profil de Rop de la banque, nous proposons, dans ce travail, un cadre d’analyse adapté à la spéci- ficité de ce type de risque, au sein duquel la qualité du SCI est explicitement évaluée. Les résultats de l’analyse empirique démontrent que, pour chaque banque il existe un SORO (seuil optimal du risque opérationnel), au-delà duquel le CaRop ne répond plus aux améliorations apportées au SCI. La loi de « l’efficacité décroissante » semble expliquer bien le théorème de SORO. Compte tenu des problèmes d’asymétrie d’information, difficilement vérifiés par les superviseurs bancaires, nous proposons également un modèle d’équilibre de l’allocation des ressources sous contrainte (i. E. , les préférences du management de la banque et les exigences règlementaires). Le SORO, traité essentiellement comme problème d’optimisation dynamique, a pour effet de rendre plus efficient le processus d’allocation des ressources à travers la réduction du CaRop réglementaire et la réorientation de certains montants vers d’autres canaux d’investissement plus rentable, tout en restant en conformité avec les exigences réglementaires. De surcroît, grâce au concept du SORO, une formule d’estimation de la prime de Rop est fournie
Operational risk measurement models, aiming to meet regulatory capital requirements (ORC), have seen a great proliferation lately. Nonetheless, accounting for the effectiveness of internal control system (ICS) in these models is still carried out in an implicit manner. Such failure may lead to biased estimations of ORC which are inconsistent with the effective operational risk profile of the bank. In this work, we endeavor to overcome this pitfall through a direct and explicit measure of the internal control system’s quality. Our findings show that ORC is negatively related to ICS. However, each bank has a given threshold beyond which his operational risk capital does not respond to additional improvements brought into his ICS (i. E. , optimal threshold for operational risk, OTOR). We argue that, the so-called “law of decreasing effectiveness” seems explain well the theorem of OTOR. Taking into account the information asymmetry problems, arguably hard to be verified by banking supervisors, we provide as well an equilibrium model for resources allocation subject to regulatory constraints and management preferences. The introduction of OTOR, as an optimization problem, will affect the bank’s decision about how the scarce resources should be allocated. Accordingly, sharing out the resources becomes more efficient. While reducing the ORC charge, the bank’s management can shift more resources to be invested in higher return-generating activities, keeping up, meantime, in compliance with regulatory requirements. Furthermore, by means of OTOR, a simple formula for pricing the “operational risk premium” is provided
42

Bellefeuille, Sylvain. "Proposition d'un modèle de système d'aide à la vérification de la cohérence dans les bases de règles." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ60612.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Khoury, Raphaël. "Détection du code malicieux : système de type à effets et instrumentation du code." Thesis, Université Laval, 2005. http://www.theses.ulaval.ca/2005/23250/23250.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire traite en premier lieu des avantages et des désavantages des différentes approches visant à assurer la sûreté et la sécurité des logiciels. En second lieu, il présente une nouvelle approche pour combiner l'analyse statique et l'analyse dynamique afin de produire une architecture de sécurité plus puissante. Les premiers chapitres du mémoire comportent une revue analytique des différentes approches statiques, dynamiques et hybrides qui peuvent être utilisées afin de sécuriser le code potentiellement malicieux. L'exposé identifie alors les avantages et les inconvénients de chaque approche ainsi que le champ des politiques de sécurité dans lesquels on peut l'appliquer. Le dernier chapitre traite de la possibilité de combiner l'analyse statique et l'analyse dynamique par une nouvelle approche hybride. Cette approche consiste à instrumenter le code seulement là où c'est nécessaire pour assurer satisfaire une politique de sécurité définie par l'usager et exprimée en un ensemble de propriétés exprimées μ-calcul modal. Cette instrumentation est guidée par une analyse statique effectuée à priori et basée sur un système de type à effets. Les effets représentent les accès aux ressources protégées du système.
The purpose of this thesis is twofold. In the first place it presents a comparative study of the advantages and drawbacks of several approaches to insure software safety and security. It then focuses more particularly on combining static analyses and dynamic monitoring in order to produce a more powerful security architecture. The first chapters of the thesis present an analytical review of the various static, dynamic and hybrid approaches that can be used to secure a potentially malicious code. The advantages and drawbacks of each approach are thereby analyzed and the field of security properties that can be enforced by using it are identified. The thesis then focuses on the possibility of combining static and dynamic analysis through a new hybrid approach. This approach consists in a code instrumentation, that only alters those parts of a program where it is necessary to do so to insure the respect of a user-defined security policy expressed in a set of modal μ-calculus properties. this instrumentation is guided by a static analysis based on a type and effect system. The effects represent the accesses made to pretested system ressources.
44

Dang, Thi Xuan Thao. "Vérification et synthèse des systèmes hybrides." Phd thesis, Grenoble INPG, 2000. https://theses.hal.science/tel-00006738.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes hybrides sont des systèmes qui combinent des dynamiques discrètes et continues. Cette thèse propose des techniques algorithmiques de vérification et de synthèse pour ces systèmes Le manque de méthodes pour calculer les ensembles atteignables des dynamiques continues est l'obstacle principal vers une méthodologie algorithmique de vérification. Nous développons deux techniques d'atteignabilité approximatives pour les systèmes continus basées sur une méthode efficace pour représenter des ensembles et une combinaison des techniques de la simulation, de la géométrie algorithmique, de l'optimisation, et de la commande optimale. La première technique d'atteignabilité est spécialisée pour les systèmes linéaires et étendue aux systèmes avec entrée incertaine, et la seconde peut être appliquée aux systèmes non-linéaires. En appliquant ces techniques nous développons un algorithme de vérification des propriétés de sûreté pour une large classe des systèmes hybrides avec des dynamiques continues arbitraires et des dynamiques discrètes assez générales. Nous étudions ensuite le problème de la synthèse de contrôleurs de sûreté pour les systèmes hybrides. Nous présentons un algorithme de synthèse des contrôleurs par commutation basé sur le calcul de l'ensemble d'invariance maximal et les techniques d'analyse d'atteignabilité. Nous avons implanté les algorithmes développés dans un outil appelé "d/dt", qui permet la vérification et la synthèse automatique pour les systèmes hybrides avec des inclusions différentielles linéaires. En dehors de nombreux exemples académiques, nous avons appliqué avec succès l'outil pour analyser quelques systèmes pratiques
This thesis proposes a practical framework for the verification and synthesis of hybrid systems, that is, systems combining continuous and discrete dynamics. The lack of methods for computing reachable sets of continuous dynamics has been the main obstacle towards an algorithmic verification methodology for hybrid systems. We develop two effective approximate reachability techniques for continuous systems based on an efficient representation of sets and a combination of techniques from simulation, computational geometry, optimization, and optimal control. One is specialized for linear systems and extended to systems with uncertain input, and the other can be applied for non-linear systems. Using these reachability techniques we develop a safety verification algorithm which can work for a broad class of hybrid systems with arbitrary continuous dynamics and rather general switching behavior. We next study the problem of synthesizing switching controllers for hybrid systems with respect to a safety property. We present an effective synthesis algorithm based on the calculation of the maximal invariant set and the approximate reachability techniques. Finally, we describe the experimental tool "d/dt" which provides automatic safety verification and controller synthesis for hybrid systems with linear differential inclusions. Besides numerous academic examples, we have successfully applied the tool to verify some practical systems
45

Johnen, Colette. "Analyse algorithmique des réseaux de Petri : vérification d'espace d'accueil, systèmes de réécriture." Paris 11, 1987. http://www.theses.fr/1987PA112481.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La motivation essentielle de cette thèse est la conception de techniques d'analyse automatique des réseaux de Petri. Elle est articulée autour de deux thèmes : la vérification de la propriété d'espace d'accueil et l'usage des techniques liées aux systèmes de réécriture. Un espace d'accueil est un ensemble de marquages toujours accessible quelle que soit l'évolution du système. Cette propriété permet, par exemple, de vérifier que l'état d'inactivité des processus est toujours accessible. Elle permet aussi de valider des propriétés comportementales (telle la vivacité). Dans la première partie de cette thèse, nous démontrons que la propriété "la réunion finie d'ensembles linéaires ayant mêmes périodes est un espace d'accueil" est décidable. Un algorithme de semi-décision vérifiant un espace d'accueil est présenté dans la deuxième partie. Un traitement par ensemble de marquages permet d'obtenir des résultats particulièrement probants. En une seule étape, on vérifie que l'espace d'accueil est accessible à partir de tous les éléments d'un même ensemble. Pour cela, une classe d'ensembles de marquages facilement caractérisables est définie: les ensembles délimités. Le texte résultant de l'analyse est court, il indique cependant avec précision comment atteindre l'espace d'accueil à partir d'un marquage donné. La troisième partie lie les réseaux de Petri et l'approche des types abstraits algébriques. Une représentation des réseaux de Petri en un ensemble d'équations est établie. Certaines propriétés (caractère borné, confluence) sont reliées directement au système de réécriture obtenu après complétion des équations "à la Knuth-Bendix". D'autres propriétés (quasi­ vivacité, terminaison finie, accessibilité d'un marquage. . . ) peuvent être prouvées par la convergence du système de réécriture auquel est ajoutée l'équation traduisant la propriété à valider. Des preuves nécessitant d'ordinaire l'élaboration manuelle d'un principe d'induction peuvent être ainsi automatiquement effectuées
The main motivation of this thesis is the conception of automatic analysis techniques of Petri nets. The thesis deals with two themes: verification of home space, application of techniques based on rewriting systems. A home space is a always reachable set of markings whatever the evolution of the system may be. This property allows, for instance, verifying that idle state of process is always accessible. It also allows validating behavioural properties (such as liveliness). In the first part, we prove that the property "a finite union of linear sets having the same periods is a home space" is decidable. A semi-decision algorithm checking a home space is presented in the second part. An approach using marking sets leads to especially efficient results. In one stage, it verifies that the home space is reachable from all the markings of a marking set. A class of marking sets which can be easily manipulated is defined (delimited sets). The resulting text is short; nevertheless it precisely indicates how to reach the home space from a given marking. The third part links Petri nets and abstract data types. A representation of Petri nets into a set of equations is established. Some properties (boundless, confluence) are directly related to properties of the rewriting system obtained by completion "à la Knuth-Bendix" of the equations. Some other properties (quasi-liveliness, finite termination, accessibility of a marking. . . ) can be validated by the convergence of the rewriting system obtained by adding the equation corresponding to the property to be proved. Proofs which usually require manual elaborated induction principles can be automatically completed this way
46

Geffroy, Thomas. "Vers des outils efficaces pour la vérification de systèmes concurrents." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0848/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse cherche à résoudre en pratique le problème de couverture dans les réseaux de Petri et les systèmes de canaux à pertes (LCS). Ces systèmes sont intéressants à étudier car ils permettent de modéliser facilement les systèmes concurrents et les systèmes distribués. Le problème de couverture dans un système de transitions consiste à savoir si on peut, à partir d’un état initial arriver à un état plus grand qu’un état cible. La résolution de ce problème dans les systèmes de transitions bien structurés (WSTS) sera le sujet d’études de la première partie. Les réseaux de Petri et les LCS sont des WSTS. On donnera dans la première partie une méthode générale pour le résoudre rapidement en pratique. Cette méthode utilise des invariants de couverture, qui sont des sur-approximations de l’ensemble des états couvrables. La seconde partie sera consacrée aux réseaux de Petri. Elle présentera diverses comparaisons théoriques et pratiques de différents invariants de couverture. Nous nous intéresserons notamment à la combinaison de l’invariant classique de l’inéquation d’état avec une analyse de signe simple. Les LCS seront le sujet d’études de la troisième partie. On présentera une variante de l’inéquation d’état adaptée aux LCS ainsi que deux invariants qui retiennent des propriétés sur l’ordre dans lequel les messages sont envoyés. La thèse a mené à la création de deux outils, ICover et BML, pour résoudre le problème de couverture respectivement dans les réseaux de Petri et dans les LCS
The goal of this thesis is to solve in practice the coverability problem in Petri nets and lossy channel systems (LCS). These systems are interesting to study because they can be used to model concurrent and distributed systems. The coverability problem in a transition system is to decide whether it is possible, from an initial state, to reach a greater state than a target state. In the first part, we discuss how to solve this problem for well-structured transition systems (WSTS). Petri nets and LCS are WSTS. In the first part, we present a general method to solve this problem quickly in practice. This method uses coverability invariants, which are over-approximations of the set of coverable states. The second part studies Petri nets.We present comparisons of coverability invariants, both in theory and in practice. A particular attention will be paid on the combination of the classical state inequation and a simple sign analysis. LCS are the focus of the third part. We present a variant of the state inequation for LCS and two invariants that compute properties for the order in which messages are sent. Two tools, ICover and BML, were developed to solve the coverability problem in Petri nets and LCS respectively
47

Djelouah, Redouane. "Vérification et réparation interactive de bases de connaissances : le système ICC de traitement des incohérences et des incomplétudes." Angers, 2004. http://www.theses.fr/2004ANGE0031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour pouvoir utiliser un système à base de connaissances, nous devons nous assurer de sa qualité en vérifiant s'il ne contient ce qu'on peut appeler une anomalie. Dans cette thèse, nous nous intéressons aux bases de connaissances qui sont des bases de règles. Deux types d'anomalies relevant de graves erreurs dans la base sont étudiés : les incohérences et les incomplétudes. Une incomplétude révèle la nécessité de compléter la connaissance contenue dans la base afin de couvrir tout le domaine étudié. Une incohérence révèle la nécessité de réduire la connaissance contenue dans la base afin d'éliminer les déductions de connaissances contradictoires. La première phase de notre travail appelée vérification de la base consiste, d'une part, en une caractérisation formelle de l'incohérence et de l'incomplétude d'une base de règles, et d'autre part, en la proposition d'algorithmes permettant de détecter ces anomalies. Dans cette phase, une nouvelle caractérisation formelle de la cohérence d'une base de règles nommée C_Cohérence est proposée, celle-ci améliore les caractérisations proposées par ailleurs. La seconde phase de notre travail appelée réparation de la base, propose une nouvelle méthode de réparation du contenu de la base de règles permettant d'éliminer les incohérences et les incomplétudes détectées lors de la phase précédente. Cette réparation se fait en interaction avec un expert : nous proposons des modifications du contenu de la base de règles à l'expert qui décide alors de les appliquer une à une. Les deux phases de vérification et de réparation ont été implémentées dans un système nommé ICC (Interaction pour la Cohérence et la Complétude)
To use a knowledge base we must verify its quality by ensuring it does not contain what we call an anomaly. In this thesis, we use knowledge bases which are rule bases. Two types of anomalies revealing serious errors are studied : incoherencies and incompleteness. An incompleteness shows the necessity to complete the knowledge in the base so as to cover the whole area studied. An incoherence shows the need to reduce the knowledge in the base so as to eliminate the contradictory deductions. In the first phase of our work called verification of the base we propose, on the one hand, a formal characterization of incoherency and incompleteness of a rule base, on the other hand, we propose algorithms to detect these anomalies. Here we propose a new formal characterization of a rule base called C_Cohérence, this improves characterizations found in other studies. The second phase of our work called reparation of the base offers a new method of repairing the contents of a rule base which eliminates the incoherencies and incompleteness detected in the first phase. This repair takes place with interaction with an expert : we suggest modifications of the base contents to the expert who then decides whether to apply them one by one. The two phases of verification and reparation were implemented in a system called ICC
48

Prat, Sophie. "Intégration de techniques de vérification par simulation dans un processus de conception automatisée de contrôle commande." Thesis, Lorient, 2017. http://www.theses.fr/2017LORIS476/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Aujourd’hui, la conception ne porte plus sur de simples objets, mais sur des systèmes complexes, sociotechniques et ouverts. Les systèmes de conduite de procédés font partie de ce type de systèmes, où les performances du système reposent sur l’optimisation conjointe des composantes humaines et techniques. Afin de limiter la détection d’erreur tardive, il devient alors important de pouvoir effectuer des tests tout au long de la conception, sans augmenter les coûts et les délais de conception. L’objectif de nos travaux est de faciliter l’intégration de techniques de vérification par simulation, dès le début de la conception, pour des systèmes de conduite de procédés de type gestion de fluide. Pour tenir compte du caractère adaptable du système et de son évolution dans un environnement dynamique, une première contribution porte sur la démarche de vérification, basée sur la formalisation et la contextualisation des propriétés à vérifier. Puis, afin de faciliter l’obtention des modèles de simulation du procédé nécessaires à la mise en œuvre des vérifications tout au long de la conception, nous proposons une approche de génération automatisée des modèles de simulation du procédé dans le langage Modelica (modélisation multi-domaine), à partir d’un schéma P&ID (représentation de l’architecture fonctionnelle du procédé) et d’une bibliothèque d’éléments (contenant les modèles de simulation des éléments). L’implémentation de cette approche dans le cadre du flot de conception automatisée de contrôle- commande d’Anaxagore permet d’apporter une preuve de concept et une preuve d’usage de nos propositions
Nowadays, engineers have to design open, complex and sociotechnical systems. The process control systems belong to this class of systems, in which the system performance relies on the joint optimisation of technical components and human components. To avoid the late discovery of design errors, it is necessary to perform tests throughout the design without adding design costs and delays. The aim of this work is therefore to facilitate the integration of checking by simulation, from early design stage, for process control systems such as fluid management systems. Regarding the adaptable feature of the system and its evolution in a dynamic environment, a first contribution focusses on the verification approach, by modelling the requirements within the context. Then, to facilitate the obtaining of the process simulation models required for checking throughout the design, we propose an automatic generation approach of simulation models in Modelica language (multi-domain modelling), from a P&ID model (modelling of the functional architecture of the process) and a library of elements (containing the simulation models of elements). To provide a proof of concept and a proof of use of our proposals, this approach has been implemented into Anaxagore, an automated design flow for monitoring and control
49

Baro, Sylvain. "Conception et implémentation d'un système d'aide à la spécification et à la preuve de programmes ML." Phd thesis, Université Paris-Diderot - Paris VII, 2003. http://tel.archives-ouvertes.fr/tel-00008416.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pouvoir vérifier la conformité d'un programme avec sa spécification représente un enjeu important. On peut utiliser un assistant de preuve : un logiciel permettant la description du problème, la construction des preuves et leur vérification. Nous avons implémenté un système où l'utilisateur décrit la spécification du programme dans un formalisme logique ad hoc, donne le programme dans le sous-ensemble fonctionnel de ML (comprenant filtrage, définitions récursives et fonctions partielles), puis construit interactivement les preuves de correction nécessaires pour prouver la validité du programme.
50

Nguyen, Le-Vinh. "Technique de programmation par contraintes pour la vérification bornée des programmes : une stratégie non-séquentielle appliquée à un système embarqué critique." Nice, 2011. http://www.theses.fr/2011NICE4042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la vérification bornée des programmes à l’aide de la technique de programmation par contraintes. Plus précisément, sur la stratégie d’exploration incrémentale des chemins exécutables pour la vérification et pour la génération automatique de contre-exemples d’applications. Cela est fait en utilisant les solveurs de contraintes comme les solveurs CP, LP, MIP, SMT. Nous avons utilisé dans ces travaux les méthodes de vérification formelles incomplètes ou Bounded Model Checking (BMC). Ces méthodes traitent uniquement des chemins d’une taille bornée dans les programmes. Dans cette thèse, nous proposons DPVS (Dynamic Postcondition-Variables driven Strategies), une nouvelle stratégie basée sur la génération dynamique d’un système de contraintes lors de l’exploration du graphe de flot de contrôle d’un programme. DPVS utilise une technique de recherche ascendante guidée par les variables liées à la propriété à prouver. Cette stratégie a été évaluée sur des exemples académiques et sur des applications réelles. Les expérimentations sur un contrôleur industriel qui gère les clignotants d’une voiture ont montré que notre système est bien plus performant que CPBPV (une approche proposée au sein de notre équipe) ainsi qu’un outil de model checking de premier plan comme CBMC. Nous avons également développé un prototype en COMET qui utilise la stratégie DPVS pour la vérification de programmes et pour la génération automatique des contre-exemples. Ce prototype utilise plusieurs techniques classiques pour simplifier le graphe de flot de contrôle : calcul de bornes de variables, technique de slicing, technique de propagation de constantes. Grâce à DPVS, nous avons trouvé des contre-exemples pour l’application temps-réel Gestionnaire des clignotants qui est fournie par Gensoft, un partenaire industriel du projet de recherche TESTEC
This thesis is devoted to program verification using the constraint programming technique. In particular, it focus on the incremental exploration strategy of executable paths of a program for verification and automatic counterexample generation using constraint solvers such as CP, LP, MIP, SMT. The context of this work is the Bounded Model Checking (BMC), an incomplete formal verification method, which only deals with paths of a bounded length in programs. In this thesis, we propose DPVS (Dynamic Postcondition-Variables driven Strategies), a new strategy based on the dynamic generation of a system of constraints in during the exploration of the control flow graph of the program. DPVS uses a backward search technique guided by the variables related to the property to prove. This strategy was evaluated on academic examples and real applications. Experiments on an industrial controller which manages the flashing lights of a car show that our system is more efficient than CPBPV, our previous approach, and than CBMC, a-state-of-the-art bounded model checker. We have developed a prototype in COMET that uses the DPVS strategy for program verification and automatic generation of counterexamples. This prototype uses many classical techniques to simplify the control flow graph such as calculating bounds of variables, slicing, propagation of constants. DPVS was successful in finding a counter–example of a real application, the Flasher Manager, that was provided by Gensoft, an industrial partner of the research project TESTEC

To the bibliography