Littérature scientifique sur le sujet « Calcul – Authentification »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Calcul – Authentification ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Calcul – Authentification"

1

Nabeneza, Serge, Vincent Porphyre et Fabrice Davrieux. « Caractérisation des miels de l’océan Indien par spectrométrie proche infrarouge : étude de faisabilité ». Revue d’élevage et de médecine vétérinaire des pays tropicaux 67, no 3 (27 juin 2015) : 130. http://dx.doi.org/10.19182/remvt.10181.

Texte intégral
Résumé :
Le miel est traditionnellement consommé dans les îles de l’océan Indien et utilisé également pour ses propriétés cosmétiques et thérapeutiques. Ce produit, issu du nectar de fleurs ou de miellat d’insectes, est collecté et transformé par les abeilles produisant ainsi un miel unique caractéristique de la flore de chaque île. A l’issue de la récolte, l’apiculteur doit nor­malement veiller à ce que le miel soit conforme et respecte des caractéristiques physico-chimiques spécifiques selon les recom­mandations du Codex alimentarius. De plus, il doit indiquer des informations, comme l’origine botanique et géographique, sur chaque pot de miel vendu. En pratique il est toutefois très diffi­cile de vérifier l’exactitude de ces informations, d’autant qu’elles sont mises en avant comme argument de vente.La spectrométrie dans le proche infrarouge (SPIR), basée sur les propriétés physiques d’absorption de la lumière par les com­posés organiques, peut être un outil de contrôle et de traçabi­lité des miels mis sur le marché (1, 3). L’objectif principal de cette étude a été d’évaluer la faisabilité d’un contrôle qualité (authentification de l’origine botanique et/ou géographique et détection d’adultération) des miels commerciaux produits dans l’océan Indien. Les perspectives de cette méthode de laboratoire sont importantes dans le cadre du développement des filières apicoles, notamment lorsqu’elles sont orientées vers les marchés d’exportation et vers la promotion de leur qualité auprès de consommateurs désireux de profiter de produits d’excellence et fortement attachés à des territoires insulaires uniques.Au total, 625 miels des pays de l’océan Indien (tableau I) ayant diverses origines botaniques (tableau II) ont été mesurés sans ajustement à 30 °C et après ajustement à 70 °Brix avec de l’eau distillée (3). La mesure a été réalisée en réflexion diffuse à l’aide d’une cellule ronde avec un fond réflecteur doré (trajet optique 0,1 mm) sur un spectromètre FOSS NIRSystem 5000 (1 100–2 500 nm, 2 nm). En parallèle, les mesures du degré Brix, de l’humidité et de la conductivité des miels bruts ont été réalisées au laboratoire. Après l’analyse en composantes prin­cipales (ACP) de la base spectrale des 625 miels et le calcul des distances H de Mahalanobis, 83 miels ont été identifiés comme spectralement atypiques et retirés du jeu de données (tableau I). Sur la base des distances spectrales (H, Mahalanobis), 64 miels représentatifs des 542 miels retenus ont été sélectionnés, ajustés à 70 °Brix, puis adultérés avec du sirop de sucre de canne du commerce (Mascarin®) à 25 et à 10 p. 100 par pesée.Les modèles prédictifs des teneurs en humidité, Brix et conducti­vité ont été établis en utilisant la régression modified partial least square (M-PLS) du logiciel WinISI 3 (Infrasoft, Port Mathilda, PA, Etats-Unis). Les modèles PLS ont été réalisés sur la base des dérivées premières des spectres normalisés (SNV) et corri­gés pour la ligne de base (Detrend). Pour expliquer les critères géographiques et botaniques, nous avons utilisé une méthode non supervisée de discrimination (Cluster Analysis, Unscrumbler 10.3, CAMO, Oslo, Norvège), qui constitue des groupements naturels, sur la base des distances spectrales. Les spectres des miels non adultérés ont servi de base pour définir un espace multidimensionnel (ACP centrée, non réduite sur dérivée seconde des spectres bruts). La projection des spectres (dérivée seconde des spectres bruts) des miels adultérés sur cet espace a permis d’identifier un plan factoriel (CP1–CP7) expliquant 65 p. 100 de la variance totale, sur lequel les miels adultérés étaient nettement séparés des miels non adultérés. Les modèles d’étalonnage obtenus par régression PLS pour le degré Brix, l’humidité et la conductivité ont été performants avec des R² de l’ordre de 0,92 et des erreurs de validation croisée acceptables (tableau III) (figure 1).Les essais de groupement des individus sur la base de leur spectre (recherche de clusters), de même que l’utilisation d’autres méthodes mathématiques, comme l’analyse discrimi­nante linéaire (LDA) et la classification support vecteur machine (SVM) à partir des origines géographiques et botaniques n’ont pas donné de résultats satisfaisants (tableau IV). Cette impossi­bilité de discriminer les miels de l’océan Indien serait peut-être due à une identification botanique imprécise des miels. Sans analyses polliniques des échantillons de miels, les origines bota­niques ne peuvent être certifiées, en particulier les miels dits monofloraux. Plusieurs hypothèses peuvent expliquer l’impos­sibilité de discriminer les miels de l’océan Indien en fonction de leur origine géographique et/ou botanique. Parmi elles, les différences chimiques caractéristiques de l’origine géographique et/ou botanique correspondent à des classes de composés (aro­matiques par exemple) qui n’impactent pas suffisamment les empreintes spectrales, ne permettant pas de trouver des fac­teurs discriminants. La projection des miels adultérés à 25 p. 100 (figure 2), sur la base de miels non adultérés montre une sépara­tion nette des populations. En revanche, pour un niveau d’adul­tération à 10 p. 100, la séparation n’est pas évidente (figure 3).Les résultats obtenus montrent que la spectrométrie dans le proche infrarouge peut être utilisée pour prédire certains para­mètres physico-chimiques des miels. Ces premiers résultats montrent que la constitution d’une base spectrale de miels adultérés à différents niveaux au laboratoire, associée à des méthodes de régression ou de discrimination devrait permettre l’identification de miels non-conformes, comme montré précé­demment par Rios-Corripio et coll. (2).Ces résultats ne permettent pas, dans l’état actuel, de différencier l’origine géographique et botanique des miels collectés dans le commerce. La limite de détection des miels adultérés par du sucre de canne devra être déterminée. Elle se trouve entre 10 et 25 p. 100. Les fraudeurs adultérant fréquemment les miels avec du glucose, il serait important de poursuivre les essais avec ce produit. Il est donc possible de détecter, par la technique SPIR, des altérations importantes du miel par ajout de sucre de canne.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Calcul – Authentification"

1

Varrette, Sébastien. « Sécurité des architectures de calcul distribué : authentification et certification de résultats ». Grenoble INPG, 2007. http://www.theses.fr/2007INPG0103.

Texte intégral
Résumé :
Depuis leur avènement dans les années 90, les plates-formes distribuées de type grille ont suscité un intérêt croissant. Cette thèse aborde les problèmes d'authentification et d'intégrité sur ces architectures. Sur le premier volet, nous décrivons la construction d'un système d'authentification adapté aux grilles de grappes et validé depuis 2005 sur la plate-forme Grid'5000. Notre contribution sur le plan de l'intégrité concerne la certification des résultats délivrés par une exécution. Une représentation abstraite de l'exécution parallèle appelée graphe de flot de données est utilisée pour étendre les approches par duplication partielle. Divers algorithmes de certification probabiliste sont proposés, particulièrement efficaces sur certains graphes fréquemment rencontrés comme les arbres ou les graphes « Fork-Join » représentant les exécutions d'algorithmes de type diviser pour régner. Nos contributions sont finalement confrontées dans une application médicale d'aide au diagnostic
Since their advent in the 90s, distributed computing platforms known as grids focus more and more research interests. This phD thesis deals with authentication and integrity issues on such architectures. Coneerning the fiist tapie, we deseribe and justify the construction of an authentication system adapted to cluster grids and validated sin ce 2005 on the Grid'5000 platform. Our contribution in the field of integrity is related to the correctness certification of parallel executions through result checking. Using an abstract representation of a parallel execution called macro-dataflow graph, partial duplication mechanisms are extended to provide probabilistic certification algorithms that are particularly efficient on trees and Fork-Join graphs. Such graphs appear frequently met in distributed computing as they represent the execution of Divide & Conquer algorithms. Our contributions are finally confronted in a medical application of image-based computer assisted diagnosis
Styles APA, Harvard, Vancouver, ISO, etc.
2

Keuffer, Julien. « Calcul vérifiable et vérification biométrique ». Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS156.

Texte intégral
Résumé :
Cette thèse s'articule autour de la notion de calcul vérifiable, dont le but est de joindre au résultat d'un calcul une preuve que ce calcul est correct. De plus, vérifier la preuve du calcul doit être plus efficace que de l'exécuter. Il devient alors possible de déléguer des calculs à une entité sans hypothèse de confiance. La première partie de la thèse présente les éléments nécessaires à la compréhension des protocoles de calcul vérifiable et explicite les constructions des différents systèmes à l'état de l'art. Les nombreux systèmes de calcul vérifiable proposés depuis 2012 ont permis de s'approcher d'une utilisation pratique du calcul vérifiable. Même s'il existe des protocoles très efficaces adaptés à un type particulier de calcul, il semble nécessaire au contraire de considérer des protocoles capables de vérifier une grande classe de problèmes pour ne pas avoir à accumuler des preuves pour chaque partie d'un problème complexe. Dans la seconde partie de cette thèse, nous présentons un protocole de calcul vérifiable non-interactif qui s'appuie sur la composition de preuves pour obtenir un prouveur plus efficace, sans que le système obtenu ne perde en expressivité. Certaines des constructions de systèmes de calcul vérifiable permettent d'obtenir une preuve de calcul à divulgation nulle de connaissances avec un effort de calcul supplémentaire négligeable pour le prouveur. Pour finir, nous présentons deux applications qui utilisent cette propriété pour définir de nouvelles primitives, la première permettant de modifier un document signé tout en gardant une forme d’authenticité, la seconde permettant de réaliser une authentification biométrique respectant la vie privée
This thesis deals with the notion of verifiable computation, which aims at adding a proof of correctness to the result of a computation. Besides, verifying the proof should be more efficient than executing it. Verifiable computation protocols pave the way for delegation of computations to an untrusted party. The first part of this thesis introduces the background required to understand the most important verifiable computation protocols and describes their construction. Many protocols have been proposed since 2012 and some are nearly practical, but the prover often lacks efficiency. Even though several specialized protocols are very efficient, it seems more appropriate to consider protocols that can verify a large class of computations, in order to avoid the multiplications of proofs for each sub-computation. In the second part of this thesis, we leverage proof composition to obtain a non-interactive verifiable computation protocol with a more efficient prover while keeping the expressiveness of the scheme. Some of the existing verifiable computation systems reach additional properties and provide zero-knowledge for the proof with little overhead for the prover. We propose two applications that leverage this property to design new primitives. This first one enables to modify a signed document while keeping a form of authenticity. The second one allows for a privacy-preserving biometric authentication
Styles APA, Harvard, Vancouver, ISO, etc.
3

Kourjieh, Mounira. « Analyse logique et vérification des protocoles cryptographiques ». Toulouse 3, 2009. http://thesesups.ups-tlse.fr/781/.

Texte intégral
Résumé :
Cette thèse est développée dans le cadre de l'analyse symbolique des protocoles cryptographiques. Les contributions de cette thèse peuvent être divisées en trois parties principales : 1- Nous analysons les trois classes des protocoles cryptographiques qui utilisent respectivement des fonctions de hachage vulnérables à la collision, des schémas de signature vulnérables à la substitution des clés, et des primitives cryptographiques représentées par des théories équationnelles convergentes ayant la propriété de variante finie. A- Nous conjecturons que le problème de vérification de la première classe des protocoles peut être réduit au problème de vérification de la classe des protocoles cryptographiques qui utilisent un symbole associatif de la concaténation, et nous montrons la décidabilité du problème de vérification de la dernière classe. B- Nous montrons la décidabilité du problème de vérification des deux dernières classes des protocoles. 2- Nous montrons la décidabilité du problème de déduction clos pour un nouveau fragment de la logique du premier ordre, et nous montrons l'application de ce résultat sur le problème de vérification des protocoles cryptographiques. 3- Nous analysons les protocoles de vote électronique, et nous donnons une définition formelle pour la propriété de vérifiabilité de vote. Nous montrons également que certains protocoles de vote électronique satisfont cette propriété
This thesis is developed in the framework of symbolic analysis of cryptographic protocols. The contributions of this thesis can be split into three mains parts: 1- We analyse the three classes of cryptographic protocols using respectively collision vulnerable hash functions, key substitution vulnerable digital signature schemes, and cryptographic primitives represented by convergent equational theories having the finite variant property. A- We conjecture that the verification problem of the first class of protocols can be reduced to the verification problem of the class of cryptographic protocols using an associative symbol of concatenation, and we show the decidability of the verification problem for the last class. B- We show the decidability of the verification problem for the second two classes of protocols. 2- We show the decidability of the ground entailment problem for a new fragment of first order logic, and we show the application of this result on the verification problem of cryptographic protocols. 3- We analyse the electronic-voting protocols, and we give a formal definition for the voter-verifiability property. We also show that some well-known electronic voting protocols satisfy this property
Styles APA, Harvard, Vancouver, ISO, etc.
4

Leurent, Gaëtan. « Construction et Analyse de fonctions de Hachage ». Paris 7, 2010. http://www.theses.fr/2010PA077124.

Texte intégral
Résumé :
Les fonctions de hachage sont des fonctions cryptographiques qui se comportent comme une fonction aléatoire. Ce sont des primitives essentielles en cryptographie, qui sont utilisées dans de nombreux standards et protocoles : pour des schémas de signatures, des codes d'authentification, où pour la dérivation de clef. Les fonctions de hachage sont un sujet particulièrement actif actuellement, à cause de la compétition SHA-3 organisée par le NIST. Cette a été organisée après des attaques dévastatrices sur les fonctions les plus utilisées actuellement (MD4, MD5, SHA-1), et vise à standardiser une nouvelle fonction de hachage. Mon travail de doctorat s'est articulé autour de cette compétition. Dans une première partie, j'ai travaillé sur les nouvelles attaques de Wang et. Al. Contre MD4 et MD5. J'ai proposé des améliorations de ces attaques et des nouvelles applications contre certains MACs. Dans une deuxième partie, j'ai construit un candidat pour la compétition SHA-3. J'ai utilisé ma connaissance de la famille de MD4 pour construire une fonction qui résiste aux principaux types d'attaques. Mon candidat, SIMD, a été accepté pour le deuxième tour de la compétition SHA-3. Enfin, dans une troisième partie, j'ai développé de nouvelles attaques contre certains candidats dans la compétition SHA-3. Ces attaques utilisent de nouvelles techniques qui s'appliquent à plusieurs fonctions de hachage ou schéma de chiffrement par bloc. J'ai donc abordé les deux principaux aspects de la cryptographie symétrique : la construction et l'analyse
Hash fonctions are cryptographic fonctions with no structural properties. It is an essential primitive in modem cryptography, used in many protocols and standards, including signature schemes, authentication codes, and key derivation. Hash fonction study is a very active topic currently because of the SHA-3 competition. This competition is organised by NIST to select a new hash fonction standard, after devastating attacks against the most widely used hash fonction : MD4, MD5, and SHA-1. My work has been organized around this competition. In the part, I studied the new attacks of Wang et. Al. Against MD4 and MD5. 1 describe some improvements of these attacks, and new applications to higher-level constructions. In the second part, I describe a new hash fonction, SIMD, which has been submitted to NIST for the SHA-3 competition. The design of SIMD follows ideas from the MD4 family, but I used my knowledge of this family to make it resistant to most attacks. Finally, in the third part, I describe new attacks against SHA-3 candidates. I describe new attacks techniques which are general enough to apply to several hash fonctions or block ciphers. Thus, this thesis covers the two main realms of symmetric cryptography: design and analysis
Styles APA, Harvard, Vancouver, ISO, etc.
5

Hussein, Soran. « Lightweight Security Solutions for LTE/LTE-A Networks ». Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112366/document.

Texte intégral
Résumé :
Récemment, le 3GPP (3rd Generation Partnership Project) a standardisé les systèmes LTE/LTE-A (Long Term Evolution/LTE-Advanced) qui ont été approuvés par l'UIT (Union Internationale des Télécommunications) comme des réseaux de télécommunications mobiles de 4éme génération. La sécurité est l'une des questions essentielles qui doivent être traitées avec soin pour protéger les informations de l'opérateur et des utilisateurs. Aussi, le 3GPP a normalisé plusieurs algorithmes et protocoles afin de sécuriser les communications entre les différentes entités du réseau. Cependant, l'augmentation du niveau de sécurité dans ces systèmes ne devrait pas leur imposer des contraintes lourdes telles qu’une grande complexité de calcul ou encore une forte consommation d'énergie. En effet, l'efficacité énergétique est devenue récemment un besoin critique pour les opérateurs afin de réduire l’empreinte écologique et les coûts opérationnels de ces systèmes. Les services de sécurité dans les réseaux mobiles tels que l'authentification, la confidentialité et l'intégrité des données sont le plus souvent effectués en utilisant des techniques cryptographiques. Toutefois, la plupart des solutions standardisées déjà adoptées par le 3GPP dépendent des algorithmes de chiffrement qui possèdent une grande complexité, induisant une consommation énergétique plus élevée dans les différentes entités communicantes du réseau. La confidentialité des données, qui se réfère principalement au fait de s'assurer que l'information n'est accessible qu'à ceux dont l'accès est autorisé, est réalisée au niveau de la sous-couche PDCP (Packet Data Convergence Protocol) de la pile protocolaire de LTE/LTE-A par l'un des trois algorithmes normalisés (EEA1, EEA2 et EEA3). Or, chacun des trois algorithmes exige une forte complexité de calcul car ils reposent sur la théorie de chiffrement de Shannon qui utilise les fonctions de confusion et de diffusion sur plusieurs itérations. Dans cette thèse, nous proposons un nouvel algorithme de confidentialité en utilisant le concept de substitution et de diffusion dans lequel le niveau de sécurité requis est atteint en un seul tour. Par conséquent, la complexité de calcul est considérablement réduite ce qui entraîne une réduction de la consommation d'énergie par les fonctions de chiffrement et de déchiffrement. De plus, la même approche est utilisée pour réduire la complexité des algorithmes 3GPP d'intégrité des données (EIA1, EIA2 et EIA3) dont le concept de chiffrement repose sur les mêmes fonctions complexes. Enfin, nous étudions dans cette thèse le problème d'authentification dans le contexte du paradigme D2D (Device to Device communications) introduit dans les systèmes 4G. Le concept D2D se réfère à la communication directe entre deux terminaux mobiles sans passer par le cœur du réseau. Il constitue un moyen prometteur pour améliorer les performances et réduire la consommation d'énergie dans les réseaux LTE/LTE-A. Toutefois, l'authentification et la dérivation de clé entre deux terminaux mobiles dans le contexte D2D n’ont pas fait l’objet d’études. Aussi, nous proposons un nouveau protocole léger d’authentification et de dérivation de clé permettant d’authentifier les terminaux D2D et de dériver les clés nécessaires à la fois pour le cryptage et pour la protection de l'intégrité des données
Recently, the 3rd Group Project Partnership (3GPP) has developed Long Term Evolution/ Long Term Evolution-Advanced (LTE/LTE-A) systems which have been approved by the International Telecommunication Union (ITU) as 4th Generation (4G) mobile telecommunication networks. Security is one of critical issues which should be handled carefully to protect user's and mobile operator's information. Thus, the 3GPP has standardized algorithms and protocols in order to secure the communications between different entities of the mobile network. However, increasing the security level in such networks should not compel heavy constrains on these networks such as complexity and energy. Indeed, energy efficiency has become recently a critical need for mobile network operators for reduced carbon emissions and operational costs. The security services in mobile networks such as authentication, data confidentiality and data integrity are mostly performed using cryptographic techniques.However, most of the standardized solutions already adopted by the3GPP depend on encryption algorithms which possess high computational complexity which in turn contributes in consuming further energy at the different network communication parties.Data confidentiality which mainly refers to the protection of the user’s information privacy is achieved at the Packet Data Convergence Protocol (PDCP) sub-layer in the LTE/LTE-A protocol stack by one of the three standardized algorithms (EEA1, EEA2 and EEA3). However, each of the three algorithms requires high computational complexity since they rely on Shannon’s theory of encryption algorithms by applying confusion and diffusion for several rounds. In our thesis we propose a novel confidentiality algorithm using the concept of substitution and diffusion in which the required security level is attained in only one round. Consequently the computational complexity is considerably reduced which in return results in reducing the energy consumption during both encryption and decryption procedures. Similarly, the same approach is used to reduce the complexity of 3GPP data integrity algorithms (EIA1, EIA2 and EIA3) which the core cipher rely on the same complex functions. Finally, we investigate in this thesis the authentication issue in Device to Device paradigms proposal in 4G systems. Device to Device communications refer to direct communications between two mobile devices without passing through the core network. They constitute a promising mean to increase the performance and reduce energy consumptions in LTE/LTE-A networks. In such context, the authentication and key derivation between two mobile devices have not been well investigated. Thus, a novel lightweight authentication and key derivation protocol is proposed to authenticate two communicating devices during session establishments as well as deriving necessary keys for both data encryption and integrity protection
Styles APA, Harvard, Vancouver, ISO, etc.
6

Peyrin, Thomas. « Analyse de fonctions de hachage cryptographiques ». Versailles-St Quentin en Yvelines, 2008. http://www.theses.fr/2008VERS0010.

Texte intégral
Résumé :
Les fonctions de hachage se situent parmi les primitives les plus utilisées en cryptographie, par exemple pour l’authentification ou l’intégrité des messages. Bien que nous nous soyons aussi attachés à la partie conception durant ces années de recherche, dans ce mémoire nous nous intéressons principalement à la cryptanalyse des fonctions de hachage. Premièrement, nous étudions et étendons les attaques récentes sur les fonctions de hachage de la famille SHA, fonctions standardisées et de loin les plus utilisées en pratique. Nous présentons les deux meilleures attaques pratiques connues à ce jour contre SHA-0 et SHA-1. Ensuite, nous décrivons la première attaque calculant des collisions pour la famille de fonctions de hachage GRINDAHL, un nouveau candidat reposant sur des principes de conception assez novateurs. Enfin, nous étudions la fonction de hachage FORK-256 et montrons que ce schéma ne peut être considéré comme cryptographiquement sûr
Hash functions are one of the most useful primitives in cryptography, for example in authentication or message integrity solutions. Even if we also sat ourselves in the design side during this research time, we will mostly concentrate on hash functions cryptanalysis in this thesis. Firstly, we study and extend recent attacks on the standardized hash functions from the SHA family, by far the most utilized candidate in practice. We present the best known practical attacks against SHA-0 and SHA-1. Then, we describe the first algorithm that finds collisions for the GRINDAHL family of hash functions, a new candidate based on innovative design concepts. Finally, we analyse the hash function FORK-256 and show that it can not be considered as cryptographically strong
Styles APA, Harvard, Vancouver, ISO, etc.
7

Zimmer, Sébastien. « Mécanismes cryptographiques pour la génération de clefs et l'authentification ». Phd thesis, Ecole Polytechnique X, 2008. http://pastel.archives-ouvertes.fr/pastel-00004271.

Texte intégral
Résumé :
Etablir un canal garantissant l'authentification de façon efficace requiert l'utilisation de nombreux outils cryptographiques. Dans ce mémoire, nous nous intéressons à la sécurité de plusieurs d'entre eux, présents à différentes étapes dans le protocole de mise en place du canal. Dans un premier temps, nous abordons l'analyse de deux protocoles qui, mis bout à bout, assurent la mise en place d'un canal authentifié, confidentiel et intègre : un algorithme d'échange de clefs authentifié et un algorithme de chiffrement authentifié. Le premier algorithme permet de générer des clefs en alliant plusieurs moyens d'authentification (biométrie, mot de passe, carte à puce). Le second est un algorithme normalisé appelé CCM. Dans un second temps, nous nous intéressons plus particulièrement à la phase d'extraction de clefs, étape charnière entre l'échange de clefs et son utilisation pour établir un canal sécurisé. Nous présentons une méthode simple pour extraire une clef symétrique d'un élément Diffie-Hellman, puis nous analysons l'utilisation d'HMAC comme fonction d'extraction de clefs. Dans un troisième temps, nous concentrons notre attention sur les fonctions de hachage, très utilisées à plusieurs niveaux du protocole. Plus précisément, nous analysons la sécurité d'un mode opératoire basé sur un algorithme de chiffrement par bloc dont on fixe la clef, puis, nous examinons des modes opératoires qui cherchent à garantir une sécurité en seconde préimage optimale.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie