Dissertations / Theses on the topic 'Techniques d'identification et d'authentification'

To see the other types of publications on this topic, follow the link: Techniques d'identification et d'authentification.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 19 dissertations / theses for your research on the topic 'Techniques d'identification et d'authentification.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Nastasiu, Dragos-Florin. "Développement de solutions pour l’identification (THID) et l’authentification par des approches non intrusives dans le domaine THz." Electronic Thesis or Diss., Chambéry, 2024. http://www.theses.fr/2024CHAMA007.

Full text
Abstract:
L'imagerie THz est un domaine émergent depuis les avancées technologiques en termes d'émission de rayonnement THz et d'équipement de détection. L'objectif principal de la thèse est de contribuer et d'améliorer les systèmes d'imagerie THz, de la reconstruction et de l'analyse d'images aux tâches de classification d'images. Dans la première partie de la thèse, nous nous attaquons au défi de l'estimation de l'amplitude dans des conditions de bruit idéal et multiplicatif. Le bruit multiplicatif déforme la phase et introduit des artefacts complexes, tels que la perte d'information sur les contours et la dégradation du contraste, qui ne peuvent être éliminés à l'aide des techniques de reconstruction d'image les plus récentes. À cet égard, nous présentons cinq nouvelles méthodes de reconstruction qui exploitent la représentation du diagramme de phase des signaux. Deux de ces méthodes sont basées sur le filtrage du diagramme de phase pour estimer l'amplitude dans les deux conditions. Deux autres méthodes utilisent le concept de déformation temporelle dynamique (DTW) pour augmenter la capacité à modéliser le type de bruit multiplicatif. Enfin, nous exploitons la dynamique de la trajectoire de phase décrite par les courbures pour reconstruire l'image. Parmi le grand nombre de méthodes, nous évaluons tout au long de la thèse que la méthode basée sur les courbures reconstruit efficacement l'image dans des contextes idéaux et bruités. Après une reconstruction efficace de l'image, la deuxième partie de la thèse, nous étudions les méthodes d'analyse et de classification d'images en tenant compte des instabilités des systèmes d'imagerie du monde réel, telles que les translations et les rotations. Dans ce sens, nous proposons d'utiliser des décompositions de paquets d'ondelettes invariantes par rapport à la translation et à la rotation, qui fournissent une représentation unique et optimale d'une image, indépendamment de la translation ou de la rotation de l'image. Sur la base des représentations d'images invariantes, de nouvelles techniques d'extraction de caractéristiques sont introduites, telles que les cadres verticaux, horizontaux, N-directionnels et N-zonaux. En outre, deux structures de caractéristiques sont introduites, qui prennent en compte le partitionnement en fréquence de la décomposition en ondelettes et sont adaptées pour fonctionner avec des réseaux neuronaux graphiques (GNN) et des classificateurs ML classiques tels que les k-voisins les plus proches (k-NN), les machines à vecteurs de support (SVM), etc. Dans l'ensemble, les approches que nous proposons augmentent la précision de tous les classificateurs
THz imaging is an emerging field since the technological advances in terms of THz radiation emission and detection equipment. The main objective of the thesis is to contribute and to improve THz imaging systems, from image reconstruction and analysis to image classification tasks. In the first part of the thesis, we tackle the amplitude estimation challenge under ideal and multiplicative noise conditions. The multiplicative noise deforms the phase and introduces complex artefacts, such as contour information loss and contrast degradation, that cannot be eliminated using state-of-the-art image reconstruction techniques. In this regard, we introduce five novel reconstruction methods which exploit the phase diagram representation of signals. Two of the methods are based on phase-diagram match filtering to estimate the amplitude in both conditions. Another two methods use the concept of dynamic time warping (DTW) to increase the capability to model the multiplicative type of noise. Lastly, we exploit the dynamic of the phase trajectory described by the curvatures to reconstruct the image. From the large pool of methods, we evaluate throughout the thesis that the curvature-based method efficiently reconstructs the image in both ideal and noisy contexts. After an efficient image reconstruction, the second part of the thesis, we study image analysis and classification methods considering the instabilities of real-world imaging systems, such as translations and rotations. In this sense, we propose to use translation and rotation invariant wavelet packet decompositions, that provide a unique and optimal representation of an image, regardless if the image is translated or rotated. Based on the invariant image representations, novel feature extraction techniques are introduced such as vertical, horizontal, N-directional and N-zonal frameworks. Additionally, two feature structures are introduced and that consider the frequency partitioning of the wavelet decomposition and are adapted to work with Graph Neural Networks (GNNs) and classic ML classifiers such as k-nearest neighbors (k-NN), support vector machine (SVM), etc. Overall, our proposed approaches increase the accuracy of all classifiers
APA, Harvard, Vancouver, ISO, and other styles
2

Etrog, Jonathan. "Cryptanalyse linéaire et conception de protocoles d'authentification à sécurité prouvée." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0025.

Full text
Abstract:
Cette thèse, restreinte au cadre de la cryptologie symétrique, s'intéresse à deux aspects séparés de la cryptologie : la protection des messages à l'aide d'algorithmes chiffrement et la protection de la vie privée à travers des protocoles d'authentification. La première partie concerne l'étude de la cryptanalyse linéaire et la seconde la conception de protocoles d'authentification à sécurité prouvée garantissant une forme forte d'intraçabilité. Dans la première partie, nous nous intéressons à la cryptanalyse linéaire qui bien qu'introduite au début des années 90 a connu récemment un nouvel essor dû au développement de nouvelles variantes. Nous nous sommes à la fois intéressés à son aspect pratique et théorique. Dans un premier temps, nous présentons une cryptanalyse d'une version réduite de SMS4, algorithme utilisé dans le chiffrement du WiFi chinois puis nous introduisons la cryptanalyse multilinéaire et décrivons une nouvelle forme de cryptanalyse multilinéaire. La deuxième partie concerne l'étude de protocoles d'authentification RFID respectant la vie privée. Nous définissons un modèle d'attaquant permettant de formaliser les notions de sécurité relatives à ces protocoles. Nous proposons ensuite deux protocoles réalisant chacun un compromis entre l'intraçabilité forte et la résistance aux attaques par déni de service et admettant des implantations à bas coût et établissons des preuves de sécurité dans le modèle standard pour ces deux protocoles
This Ph. D, devoted to symmetric cryptography, addresses two separate aspects of cryptology. First, the protection of messages using encryption algorithms and, second, the protection of privacy through authentication protocols. The first part concerns the study of linear cryptanalysis while the second is devoted to the design of authentication protocols with proven security. Although introduced in the early 90s, linear cryptanalysis has recently experienced a revival due to the development of new variants. We are both interested in its practical and theoretical aspects. First, we present a cryptanalysis of a reduced version of SMS4, the encryption algorithm used in WiFi in China then, second, we introduce multilinear cryptanalysis and describe a new form of multilinear cryptanalysis. The second part of the thesis concerns the study of RFID authentication protocols respecting privacy. We define a model to formalize the notions of security for these protocols. Then we propose two protocols, each one performing a compromise between strong unlinkability and resistance to denial of service attacks, which allow low-cost implementations. We establish security proofs in the standard model for these two protocols
APA, Harvard, Vancouver, ISO, and other styles
3

Dejean, Marie. "Nouvelles techniques de protection et d'authentification d'imprimés de valeur." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0181.

Full text
Abstract:
La sécurité des documents de valeur (billets de banque) est primordiale pour lutter contre la contrefaçon. Des techniques optiques, garantissant protection et authentification de ces documents par des effets visuels induits par le mouvement de parallaxe de l’observateur, ont été étudiées. Nous nous sommes intéressés à la multiscopie utilisant un réseau 2D de microlentilles et un réseau de micro-images. D’une part, nous avons développé un système de protection par encryptage spatial d’un réseau de lentilles de Fresnel décentrées. Les micro-images sont alors adaptées afin qu’un symbole apparaisse sous un certain angle. La protection résulte du caractère indissociable des deux réseaux. D’autre part, nous avons développé de nouveaux effets visuels basés sur des mouvements 3D non-monotones : leur cinétique caractéristique est une façon d’authentifier les documents tout en les rendant attractifs visuellement. Le dimensionnement des systèmes multiscopiques amène à des obstacles quant à leur miniaturisation, en raison de la très haute résolution nécessaire des micro-images. Des solutions pour revenir à des résolutions abordables, et respectant le cahier descharges, ont été proposées. Du fait des limites technologiques rencontrées, un autre type de système basé sur le phénomène de réflexion spéculaire a été étudié. Des micro-structures réfléchissantes créent des effets de contraste lumineux et de mouvements grâce au mouvement de parallaxe. Cela permet de créer des mouvements simples mais très fluides contrairement à la multiscopie qui permet des mouvements complexes mais saccadés. Enfin, nous présentons les avantages et inconvénients des différentes techniques explorées
The security of valuable documents (banknotes) is essential to prevent counterfeiting. In this context, we have developed optical techniques that guarantee protection and authentication of valuable documents by creating visual effects induced by the observer’s motion parallax. In particular, we have focused on multiscopy using a two-dimensional microlens array and micro-images. First, we have developed a protection system by applying spatialen cryption through the use of off-center Fresnel lenses. The micro-images are adapted accordingly, so that a symbol appears at a precise angle. The protection results from the necessary association of both arrays (microlenses and micro-images). Second, we have developed new visual effects, based on non monotonic motion-in-depth. The kinetics of the seeffects is very characteristic and is a way to authenticate the documents thanks to impressive effects. The multiscopic systems scaling leads to a barrier to miniaturizing these systems, since they require a very high resolution for the micro-images. Solutions have been proposed to use accessible resolutions while satisfying the specifications. Because of the encountered technological difficulties, we have also explored a completely different type of system, only based on the phenomenon of specular reflection. Reflective micro-structures create luminous contrast and movement effects also thanks to parallax motion. This technique allows to create simple but very fluid movements unlike microlenses that allow complex movements and objects but jerky trajectories. Finally, we present a comparison between the various technique with the advantages and disadvantages of each one
APA, Harvard, Vancouver, ISO, and other styles
4

Dousteyssier, Buvat Hélène. "Sur des techniques déterministes et stochastiques appliquées aux problèmes d'identification." Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00346058.

Full text
Abstract:
Ce travail porte sur les aspects numériques de la résolution de problèmes inverses non linéaires gouvernés par des équations aux dérivées partielles, à l'aide des techniques du contrôle optimal. Nous nous sommes limités dans cette thèse à l'étude de deux problèmes: identification du coefficient de diffusion de la chaleur, identification de sources non linéaires dans des e. D. P. Elliptiques. Ces deux problèmes sont résolus numériquement à l'aide d'une approche lagrangienne, les fonctions sont identifiées par leurs coefficients dans une base de B-splines cubiques. Ces problèmes étant mal posés, on étudie des techniques de choix du paramètre de régularisation de Tikhonov, comme les méthodes de validation croisée. On résout ensuite ces deux problèmes dans une base d'ondelettes, ce qui nous permet, par le biais d'un changement de base approprié, de réduire le caractère mal posé de ces problèmes, et de mener à bien l'identification sans terme de régularisation. Dans les problèmes réels, la solution exacte étant généralement inconnue, lorsqu'on dispose d'un estimateur, il n'est a priori pas possible de savoir s'il s'agit d'un «bon» estimateur. On peut remédier à ce problème à l'aide des courbures de la surface des réponses, qui nous permettent de quantifier le degré de non linéarité de la surface au voisinage de l'estimateur obtenu et de justifier l'usage des méthodes séquentielles quadratiques utilisées pour l'identification
APA, Harvard, Vancouver, ISO, and other styles
5

Dousteyssier, Buvat Hélène Blum J. "Sur des techniques déterministes et stochastiques appliquées aux problèmes d'identification." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00346058.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Dolveck-Guilpart, Bénédicte. "Deux problèmes de représentation et d'identification d'un milieu à partir de sondages." Montpellier 2, 1989. http://www.theses.fr/1989MON20222.

Full text
Abstract:
Deux problemes de representation et d'identification d'un milieu a partir de sondages sont abordes. L'un concerne la reconstruction du potentiel dans le probleme de schrodinger a une dimension, lorsque les coefficients de reflexion sont des fractisons rationnelles exactes. Un algorithme efficace est propose. Nous traitons aussi de la modelisation des milieux discontinus a une dimension et particulierement des homogeneisations couramment pratiquees pour modeliser ces milieux. L'autre probleme porte sur la reconstruction pratique d'images tomographiques a partir d'un jeu de donnees incomplet. Deux techniques sont presentees et testees en milieux reels
APA, Harvard, Vancouver, ISO, and other styles
7

Hilal, Alaa. "Système d'identification à partir de l'image d'iris et détermination de la localisation des informations." Thesis, Troyes, 2013. http://www.theses.fr/2013TROY0021/document.

Full text
Abstract:
Le système d’identification d’iris est considéré comme l’une des meilleures technologies biométriques. Toutefois, des problèmes liés à la segmentation de l’iris et à la normalisation de la texture de l’iris sont généralement signalés comme principales origines des reconnaissances incorrectes. Dans notre travail, trois contributions principales sont proposées pour améliorer le système d’identification d’iris. Une nouvelle méthode de segmentation est développée. Elle détecte la frontière externe de l’iris par un contour circulaire et la pupille, d’une manière précise, à l’aide d’un modèle de contour actif. Ensuite, une nouvelle méthode de normalisation est proposée. Elle assure une représentation plus robuste et un meilleur échantillonnage de la texture de l’iris comparée aux méthodes traditionnelles. Enfin en utilisant le système d’identification d’iris proposé, la localisation des caractéristiques discriminantes dans une région d’iris est identifiée. Nous vérifions que l’information la plus importante de la région de l’iris se trouve à proximité de la pupille et que la capacité discriminante de la texture diminue avec la distance à la pupille. Les méthodes de segmentation et de normalisation développées sont testées et comparées à un système de référence sur une base de données contenant 2639 images d’iris. Une amélioration des performances de reconnaissance valide l’efficacité du système proposé
Iris identification system is considered among the best biometric technologies. However problems related to the segmentation of the iris and to the normalization of iris templates are generally reported and induce loss of recognition performance. In this work three main contributions are made to the progress of the iris identification system. A new segmentation method is developed. It approximates the outer iris boundary with a circle and segments accurately the inner boundary of the iris by use of an active contour model. Next, a new normalization method is proposed. It leads to a more robust characterization and a better sampling of iris textures compared to traditional normalization methods. Finally using the proposed iris identification system, the location of discriminant characteristics along iris templates is identified. It appears that the most discriminant iris characteristics are located in inner regions of the iris (close to the pupil boundary) and that the discriminant capabilities of these characteristics decreases as outer regions of the iris are considered. The developed segmentation and normalization methods are tested and compared to a reference iris identification system over a database of 2639 iris images. Improvement in recognition performance validates the effectiveness of the proposed system
APA, Harvard, Vancouver, ISO, and other styles
8

Poisson, Olivier. "Nouvelles techniques du traitement du signal et d'identification pour l'analyse des perturbations de la tension." Paris 6, 1998. http://www.theses.fr/1998PA066595.

Full text
Abstract:
Cette these est consacree a l'application des nouvelles techniques du traitement du signal et d'identification pour l'analyse des perturbations de la tension. L'analyse de la qualite de la tension implique, entre autres, la mesure des creux de tensions, des phenomenes transitoires, des surtensions, des distorsions harmoniques et des variations rapides de la tension. A chaque perturbation correspond une methode de mesure specifique dont la precision influence la fiabilite des resultats. Les nouvelles techniques de traitement du signal - transformees en ondelettes, analyses multiresolution et distributions d'energie - presentent de fortes potentialites d'analyse. Cette etude expose les proprietes des representations temps-frequence fournies par chacune de ces methodes, ainsi que les liens entre les differents formalismes. Leur application a des perturbations caracteristiques de la tension determine la methode la plus appropriee pour ce type d'analyse. Un algorithme de detection et de caracterisation des perturbations, base sur une transformee en ondelettes continues, est developpe. La robustesse de cette procedure d'identification est evaluee sur des simulations. Puis, cette procedure est validee experimentalement par comparaison - pour une base de plus de 1500 enregistrements provenant des reseaux htb, hta et bt - des performances de la transformee en ondelettes avec celles de methodes classiques. Les resultats mettent en evidence les bonnes performances de la transformee en ondelettes pour l'analyse des perturbations. Un logiciel et une interface homme/machine facilitent l'utilisation de cette methode pour le depouillement de campagnes de mesure. Un prototype d'appareil de mesure detectant les creux de tension, surtensions et phenomenes transitoires est egalement mis au point.
APA, Harvard, Vancouver, ISO, and other styles
9

Grivel, Éric. "Contribution au rehaussement du signal de parole par filtrage de Kalman : reformulation de techniques d'identification et modèles harmoniques." Bordeaux 1, 2000. http://www.theses.fr/2000BOR10510.

Full text
Abstract:
Ce memoire porte sur le rehaussement par filtrage de kalman de signaux de parole perturbes par un bruit additif blanc ou colore. En proposant une nouvelle formulation de differents resultats etablis dans le domaine de l'identification, nous mettons en uvre plusieurs solutions nouvelles. Dans un premier temps, nous avons retenu l'hypothese ou le signal de parole pouvait etre modelise par un processus autoregressif avec une excitation blanche. Palliant les difficultes de mise en uvre rencontrees dans les methodes deja existantes (approches iteratives et/ou utilisation d'un detecteur d'activite vocale), nous considerons le rehaussement de la parole en tant que probleme de realisation dans le contexte de l'identification. Deux nouveaux algorithmes reposant sur un filtrage (ou lissage) de kalman conventionnel sont presentes dans le cas du bruit blanc, et sont ensuite etendus au cas colore. Nous detaillons ensuite des approches alternatives. Leur principal avantage reside dans le fait que le calcul du gain ne necessite plus la connaissance explicite des variances de l'excitation et du bruit de mesure: le premier traitement est une reformulation pour le rehaussement de signal de la methode en sous-espaces pour l'identification elaboree par p. Van overschee et al. Deux autres algorithmes sont ensuite developpes et sont les fruits d'une cooperation de deux approches differentes: d'un cote, les travaux menes dans le contexte de l'identification par r. K. Mehra et de b. Carew et p. R. Belanger ; de l'autre, les methodes en sous-espaces pour l'identification que m. Verhaegen a concues. Dans une derniere partie du document, le traitement de restauration met en jeu des modeles harmoniques pour le signal de parole. Ce dernier est modelise par une somme de sinusoides dont les amplitudes sont reelles et evoluent selon un processus autoregressif. Le probleme de rehaussement apparait alors tel la resolution d'un probleme d'estimation bayesienne ou les parametres (amplitudes des composantes et phases) sont assimiles a des variables aleatoires. Differents modeles d'evolution sont proposes et nous proposons des traitements de debruitage correspondants.
APA, Harvard, Vancouver, ISO, and other styles
10

Lampron, Cinthia. "La métaphore comme outil d'identification et de suivi des perceptions subjectives face à une démarche de changement." Sherbrooke : Université de Sherbrooke, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
11

Sudarno, Wiharjo. "Amélioration des méthodes d'identification de type moindres carrés appliquées à la commande adaptative et à la reconnaissance de formes." Toulouse 3, 1996. http://www.theses.fr/1996TOU30048.

Full text
Abstract:
Des méthodes d'identification de type moindres carrés (MC) sont trés utilisées dans la pratique car elles sont faciles à mettre en oeuvre. Cependant, ces algorithmes nécessitent une condition d'excitation persistante du signal d'entrée. L'objectivité de ce travail est de proposer un algorithme qui ne demande plus cette condition d'excitation persistante. En effet, le calcul recursif de la pseudo inverse de la matrice de mesures tient compte du fait qu'elle est de rang plein ou non. Cette modification est étendue aux méthodes d'identification sans biais et des paramètres non constants. La première application de cette méthode améliorée concerne la commande adaptative. En boucle fermée, L'analyse de convergence d'algorythme d'identification montre que la condition d'excitation persistante reste nécessaire. L'algorythme MC amélioré permet de contourner ce problème. Une deuxième application est dans le domaine de la reconnaissance de formes, pour une détection des paramètres de contours. Comparée à la méthode de Hough, elle a l'avantage d'être beaucoup plus rapide et efficace
APA, Harvard, Vancouver, ISO, and other styles
12

Mouhadjer, Hassan. "Étude et réalisation d'un système automatique d'identification et de comptage de colonies cancéreuses dans des boîtes de Petri." Nancy 1, 1990. http://www.theses.fr/1990NAN10533.

Full text
Abstract:
Le système de comptage de colonies cancéreuses a été séparé en deux grandes parties : l'acquisition et le traitement d'une part, la gestion des déplacements du capteur d'autre part, afin de mettre en évidence l'indépendance de ces deux parties. En effet, la possibilité de brancher trois caméras sur les entrées vidéo présentes sur la carte de numérisation, permet d'effectuer d'autres traitements pour d'autres applications qui ne nécessitent pas le système de gestion des déplacements (exemple : traitement d'images appliqué à des cellules cultivées dans des flacons de cultures de formes quelconques, détection des calcifications mamographiques sur des clichés. . . )
APA, Harvard, Vancouver, ISO, and other styles
13

Goulet, Sylvain. "Techniques d'identification d'entités nommées et de classification non-supervisée pour des requêtes de recherche web à l'aide d'informations contenues dans les pages web visitées." Mémoire, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5387.

Full text
Abstract:
Le web est maintenant devenu une importante source d’information et de divertissement pour un grand nombre de personnes et les techniques pour accéder au contenu désiré ne cessent d’évoluer. Par exemple, en plus de la liste de pages web habituelle, certains moteurs de recherche présentent maintenant directement, lorsque possible, l’information recherchée par l’usager. Dans ce contexte, l’étude des requêtes soumises à ce type de moteur de recherche devient un outil pouvant aider à perfectionner ce genre de système et ainsi améliorer l’expérience d’utilisation de ses usagers. Dans cette optique, le présent document présentera certaines techniques qui ont été développées pour faire l’étude des requêtes de recherche web soumises à un moteur de recherche. En particulier, le travail présenté ici s’intéresse à deux problèmes distincts. Le premier porte sur la classification non-supervisée d’un ensemble de requêtes de recherche web dans le but de parvenir à regrouper ensemble les requêtes traitant d’un même sujet. Le deuxième problème porte quant à lui sur la détection non-supervisée des entités nommées contenues dans un ensemble de requêtes qui ont été soumises à un moteur de recherche. Les deux techniques proposées utilisent l’information supplémentaire apportée par la connaissance des pages web qui ont été visitées par les utilisateurs ayant émis les requêtes étudiées.
APA, Harvard, Vancouver, ISO, and other styles
14

Ahmed, Mosabbah Mushir. "Authentification de puces électroniques par des approches RF et THz non intrusives." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT005.

Full text
Abstract:
L'avènement du dispositif à l'échelle nanométrique ou la réduction des circuits intégrés (CI) est devenu une bénédiction pour la civilisation humaine. De nos jours, il est devenu très courant de trouver des appareils électroniques dans différentes applications et instruments de divers secteurs. Les circuits intégrés ne se limitent plus aux ordinateurs et aux téléphones portables, ils font également partie intégrante de notre vie quotidienne. On les trouve dans nos cuisines (micro-ondes, four), dans les hôpitaux (ECG, IRM, etc.), dans les banques, dans l'espace, dans les télécommunications, la défense, etc. Cela nous a bien évidemment simplifié la vie. Cependant, tout a un prix.Les mutations économiques dues à l'intégration de l'électronique dans différents domaines ont exercé une pression supplémentaire sur les entreprises et les fabricants pour qu'ils produisent leur produit dans des contraintes de coût et de temps plus strictes. Cela a conduit des entreprises à étayer leurs unités de fabrication dans des fonderies indépendantes de leur volonté. En raison de cet avènement de petites fonderies non fiables ont vu le jour. L'augmentation du nombre d'usines de fabrication ou de fonderies est à l'origine du phénomène de la contrefaçon de composants électroniques, en particulier de circuits intégrés. Pour les petites fonderies qui ne répondent pas à toutes les spécifications, si elles se familiarisent avec la conception du circuit, elles peuvent produire un circuit intégré similaire à celui développé par les fabricants de composants d'origine (OCM) et les vendre sur le marché sans l'autorisation préalable d'OCM. sans effectuer des tests standardisés. En outre, les fonderies malveillantes ou non fiables peuvent copier et cloner la liste des périphériques et vendre sous le nom d’OCM. Cependant, en raison de l’absence de techniques efficaces de détection et d’évitement, beaucoup plus d’instances de CI contrefaits échappent à la détection que celles détectées. Au cours des dernières années, l’augmentation du nombre d’incidents de contrefaçon de circuits intégrés a poussé le concepteur et les chercheurs à mettre au point diverses méthodes d’essai et de normalisation en place. Cependant, beaucoup de ces méthodes peuvent être lourdes et avoir des implications énormes et des coûts importants pour leur mise en œuvre. Cela peut décourager les utilisateurs et les MCO d'appliquer ces méthodes dans leur produit.Dans cette thèse, nous avons travaillé sur la mise en œuvre d'une méthodologie pouvant être utilisée pour générer des empreintes digitales ou des signatures à partir des CI pouvant être utilisés aux fins de leur authentification. La méthode adoptée dans ce travail est basée sur l'idée d'exploiter les variations de processus induites par la fabrication en mettant en oeuvre les ondes électromagnétiques (EM). La variabilité de la fabrication des divers dispositifs testés a été exploitée par l’utilisation des ondes électromagnétiques. Les effets de variation de processus exploités ont été soumis à des traitements mathématiques pour quantifier la réponse de manière statistique.Les tâches suivantes ont été implémentées dans ce travail:• Étude de pointe sur la contrefaçon et le clonage de circuits intégrés (à la fois sur le risque et les techniques d’atténuation).• Configuration de la mesure: choix des composants, développement des mesures sur carte.• Configuration du circuit pour maximiser la sensibilité de mesure.• Campagnes de mesure utilisant différentes approches (RF).• Exploitation des mesures afin d’extraire les informations d’authentification de la mesure.Ces travaux ont principalement porté sur l’utilisation de deux dispositifs à semi-conducteurs différents, à savoir le FPGA et les microcontrôleurs. Ce sont des appareils très utilisés et trouvent leur application dans divers domaines. Le calcul statistique après traitement mathématique des réponses donne le taux d'erreur qui détermine l'efficacité des méthodologies adoptées
The advent of nano-scale device or shrinking of integrated circuits (IC) has become a blessing for the human civilization. Nowadays it has become very much common to find piece of electronic devices in different applications and instruments of various sectors. ICs now are not only confined to computers and mobiles but they are integral part of our everyday life. They can be found in our kitchens (in microwaves, oven), in hospitals (instruments such as ECG, MRI etc.),banks, space, telecom, defense etc. It has of course made our lives easier. However everything comes with a price.The change in economy due to the integration of electronics in different domains have put an extra pressure on companies and manufacturers to produce their product in tighter constraints in terms of cost and time. This has led to companies of shoring their manufacturing units to foundries beyond their direct control. Due to this advent of small and untrusted foundries have been on rise. The rise in various manufacturing units or foundries has given rise to the phenomenon of counterfeiting of electronic components especially ICs. For smaller foundries who do not meet all the specification, if they get hand to the design of the circuit layout, they can produce the IC similar to the one developed by original component manufacturers (OCMs) and sell them into market without consent of OCM and without performing standardized tests. Also, the malicious or untrusted foundries can copy and clone the netlist of devices and sell under the name of OCM. Various types of counterfeit ICs – recycled, remarked, overproduced, out-of-spec/defective, cloned, forged documentation, and tampered – have made the supply chain vulnerable to various attacks. However, due to the lack of efficient detection and avoidance techniques, many more instances of counterfeit ICs evade detection than those that are actually detected. Over last few years the rise in the incidents of IC counterfeit has propelled the designer and researchers to develop various testing and standardization methods in place. However, many of these methods can be cumbersome and have huge implications and costs for their implementations. This can be discouraging for the users and OCMs to implement these methods in their product.In this dissertation, we have worked on the implementation of methodology that can be used to generate fingerprints or signatures form the ICs which can be used for the purpose of their authentication. The method adopted in this work is based on the idea of exploiting the manufacturing induced process variations by implementing the electromagnetic (EM) waves. The manufacturing variability of various devices under test have been exploited through use of EM waves. The use of EM waves have been studied in detail along with the various implications of using and generating them in the IC. This dissertation uses two methodologies to utilize EM wave for the exploitation of the process variation effects. The exploited process variation effects have been subjected to mathematical treatments to quantify the response statistically.The following tasks have been implemented in this work:• State of the art study of IC counterfeiting and IC cloning (on both risk and mitigation techniques).• Measurement set-up: Component choices, board measurement development.• Circuit configuration to maximize the measurement sensitivity.• Measurement campaigns using different approaches (RF).• Measurement Exploitation in order to extract authentication information from the measurement.This work has focused on using two different semiconductor devices i.e. FPGA and microcontrollers. These are highly used devices and find their application in various domains. The statistical computation after mathematical treatment of responses, gives the error rate which determines the efficiency of the methodologies adopted
APA, Harvard, Vancouver, ISO, and other styles
15

Mozef, Eril. "Conception et étude d'une architecture parallèle à réseau linéaire de processeurs et mémoires CAM pour le traitement d'image." Nancy 1, 1997. http://www.theses.fr/1997NAN10116.

Full text
Abstract:
Les travaux sur l'extraction des caractéristiques d'objets d'une image nous ont amenés à la conception d'une architecture dédiée à l'étiquetage. Ce dernier, par ses propriétés à la fois locales et globales, représente une opération particulièrement coûteuse en temps d'exécution pour une approche séquentielle. Dans le cadre d'une approche parallèle, il a été montré que la complexité d'étiquetage est inversement proportionnelle au nombre de processeurs et que de nombreuses solutions existantes utilisent un nombre important de processeurs pour réduire cette complexité. Pour concevoir une architecture parallèle optimale, il faut tenir compte du critère produit "Processeur x Temps" notamment si l'implantation VLSI de l'architecture est envisagée. L'objectif de la première partie de ce travail a été d'aboutir à une architecture parallèle dédiée à l'étiquetage à faible produit et bon compromis "Processeur x Temps". Pour ce faire, nous avons adapté l'algorithme de Maresca implanté sur une structure 2D de processeurs, Polymorphic-Torus. Le résultat nous a conduit à une structure 1D de processeurs à mémoire CAM. [. . . ]
The works on characterization of objects in an image incited the design of a dedicated architecture for connected-component labeling. Due to both local and global properties, this operation is extremely time costly when a sequential approach is applied. In the case of a parallel approach, it has been demonstrated that the labeling complexity is inversely proportional to the number of processors. In order to reduce the complexity, many of the existing solutions require a large number of processors. However, the "Processor-Time" product has to be considered to obtain an optimal architecture particularly if VLSI implementation is envisaged. The primary objective of this work was to design a parallel dedicated architecture for labeling with both weak product and good tradeoff of "Processor-Time". For this, a Maresca algorithm, implemented in a 2-D array of processors, Polymorphic-Torus was adapted. The structure obtained has a 1-D array of processors with CAM memories. [. . . ]
APA, Harvard, Vancouver, ISO, and other styles
16

Renvoisé, Aurélie. "Applicabilité de la PCR "universelle" 16S comme outil d'identification et de détection bactérienne en laboratoire hospitalier de bactériologie." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM5016/document.

Full text
Abstract:
La PCR universelle ciblant le gène codant pour l'ARNr 16S à l'aide d'amorces universelles, a d'abord été développée pour des études phylogénétiques. En effet ce gène est universellement retrouvé chez les bactéries et sa fonction est conservée. Ainsi, il peut servir d'« horloge moléculaire » pour mesurer les distances phylogénétiques entre les différentes espèces bactériennes. La PCR universelle a ensuite été appliquée en microbiologie clinique dans deux domaines distincts : la détection et l'identification bactériennes. Dans ce travail, nous avons évalué l'applicabilité de la PCR « universelle » 16S comme outil diagnostique dans un centre hospitalier universitaire (hôpital la Timone, Marseille, France). Tout d'abord, nous avons décrit comment la PCR universelle permet l'identification de souches bactériennes mal identifiées par les techniques phénotypiques conventionnelles. Puis, nous avons montré que la PCR universelle peut être utilisée pour détecter l'ADN bactérien dans des prélèvements à culture négative, soit parce que le patient a reçu une antibiothérapie préalable, soit parce que le microorganisme responsable est de croissance difficile. Enfin, nous avons montré que la PCR 16S utilisée pour l'identification permet de mettre en évidence des souches susceptibles de représenter de nouvelles espèces et/ou de nouveaux genres bactériens. Ainsi, la PCR universelle est applicable dans un laboratoire de bactériologie de routine dans les trois objectifs ci-dessus. Elle permet une identification précise des souches bactériennes et l'amélioration du diagnostic des infections associées à des cultures négatives et, par là-même, l'amélioration de la prise en charge des patients
Broad-range 16S rDNA PCR using universal primers was first developed for phylogenetic purpose since 16S rRNA gene is found in every bacterial species with a conserved function; consequently 16S rRNA gene can be used as a molecular clock for assessing bacterial phylogeny. Broad-range PCR was then applied to medical microbiological diagnosis in two distinct fields: molecular detection and bacteria identification. In the present work, we evaluated the applicability of broad-range PCR as a diagnostic tool in a teaching hospital (Timone Hospital, Marseilles, France). First, we showed that broad-range PCR allows identification of bacteria obtained in culture but misidentified by conventional phenotypic methods. Second, we showed that universal PCR permits bacterial detection in culture-negative infection. Third, we exemplified that using broad-range PCR is a valuable tool to identify new bacterial species and/or genera. Consequently, universal PCR is applicable in routine laboratories in the three above fields; it allows a more accurate identification of bacterial strains and permits to diagnose culture-negative bacterial infections, thus improving patient's management. It also improves our knowledge of infectious diseases together with bacterial diversity and phylogeny. Although universal PCR presents certain limitations (discussed in this work), it remains today the gold-standard for molecular identification and detection in routine laboratories
APA, Harvard, Vancouver, ISO, and other styles
17

PEKPE, Komi Midzodzi. "Identification par les techniques des sous-espaces - application au diagnostic." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2004. http://tel.archives-ouvertes.fr/tel-00008649.

Full text
Abstract:
Dans ce document, les problèmes d'identification, de détection et d'isolation de défauts de capteurs des systèmes dynamiques MIMO sont abordés à l'aide des méthodes des sous-espaces. Dans un premier temps, l'identification des systèmes dynamiques linéaires est abordé. Après une présentation des méthodes classiques des sous-espaces basées sur l'estimation de la matrice d'observabilité étendue et/ou l'estimation de la matrice des séquences d'état, une nouvelle approche basée sur l'utilisation d'un modèle FIR est proposée. Cette approche s'appuie sur l'estimation des paramètres de Markov ce qui permet d'obtenir une réalisation minimale et équilibrée à l'aide de l'algorithme ERA. Trois méthodes d'identification basées sur cette approche sont établies pour l'identification des systèmes linéaires en présence de bruits colorés. En ce qui concerne l'identification des systèmes à commutations, une modélisation multimodèle avec des modèles locaux complètement découplés et des fonctions de pondération binaires est utilisée. Deux méthodes sont proposées pour résoudre le problème d'identification non supervisé : la première réalise la classification des données à l'aide des techniques de détection de ruptures de modèle tandis que cette classification est réalisée dans la seconde méthode par la détermination d'hyperplans représentant les modèles locaux dans l'espace des sorties et des entrées. Après estimation des fonctions de pondération, une réalisation minimale et équilibrée de chaque modèle local est déterminée dans l'une ou l'autre méthode à l'aide de la méthode des moindres carrés pondérés. Le problème d'identification des systèmes non-linéaires est ensuite abordé avec l'approche multi-modèle et une méthode supposant les fonctions de pondération connues est proposée pour identifier une réalisation minimale et équilibrée de chaque modèle local. Finalement, le problème de détection et d'isolation de défauts de capteurs sur les systèmes linéaires dans le cas où le modèle de ce dernier n'est pas connu est traité. Une méthode basée uniquement sur la connaissance des entrées et sorties est proposée. La méthode proposée s'affranchit des incertitudes paramétriques du fait qu'aucun modèle explicite ou implicite n'est estimé. Pour obtenir un résidu structuré, la méthode supprime l'influence de l'état par une pondération à l'aide des puissances élevées de la matrice d'état stable, puis annule l'influence des entrées par une projection orthogonale. Les conditions d'existence et de sensibilité du résidu aux défauts de capteurs sont établies.
APA, Harvard, Vancouver, ISO, and other styles
18

Hopkins, Jestlan. "Les identifiants uniques dans le monde physique : Les enjeux sociaux, techniques et politiques de l’identification par radiofréquence (RFID) dans les arènes citoyens et consommateurs." Thesis, Paris 2, 2011. http://www.theses.fr/2011PA020056.

Full text
Abstract:
L’identification par radiofréquence, RFID, est une technologie qui transforme la façon dont les gouvernements identifient leurs citoyens, dont les entreprises tracent leurs produits et surveillent le comportement des consommateurs, et la manière dont les individus s’identifient et effectuent des transactions commerciales et sociales. Les étiquettes, ou « tags » RFID, existent sous plusieurs formes : elles peuvent être aussi petites qu’un grain de riz et aussi épaisse qu’une feuille de papier. Lors d’une lecture par un lecteur RFID, l’objet à qui le tag est assigné, peut être identifié. Contrairement au système de code à barres, la communication entre les tags et lecteurs ne dépend pas d’une ligne directe de visibilité. Les tags RFID peuvent être donc incorporés dans virtuellement tous les biens de consommation. Dans cette thèse, nous explorons le jour où la RFID sera omniprésente (ubiquitous). Nous soutenons qu’au sein de cette ère d’ubiquitous RFID (uRFID) qui s’ouvre à nous, la traçabilité humaine dans les arènes des citoyens et des consommateurs fleurira. Pour assurer une transition en douceur, nous proposons un modèle conceptuel constitué de quatre constructions théoriques pouvant influencer de manière favorable l’usage par le public des environnements uRFID. Ces constructions sont l’intimité/la vie privée (privacy), la sensibilisation (awareness), la maîtrise (control) et la confiance (trust) (ou PACT). Nous postulons que si les opérateurs, les ingénieurs, les gouvernements et les industriels font preuve d’éthique et de sérieux pour intégrer ces constructions au sein des systèmes RFID, alors l’approbation par le public suivra
Radio Frequency Identification, or RFID, is a technology that is transforming the way governments identify citizens, companies track products and monitor the behavior of consumers, and the way individuals carry out identification processes and commercial and social transactions. RFID tags come in a host of form factors : they can be as small as a grain of rice and as flat as a sheet of paper. When read by an RFID interrogator (or reader), the asset to which the tag is assigned can be identified. Unlike barcode systems, the communication process between RFID tags and readers do not require a direct line-of-sight; as a result, RFID tags can be embedded in clothing, signage, identification credentials, and virtually all consumer goods in existence. In this thesis, we speak of environments in which RFID technology will be ubiquitous, akin to the state of the printed barcode today. We argue that in this period of ubiquitous RFID (or uRFID), human monitoring in consumer and citizen arenas will flourish. If not properly integrated, several risks could affect both the end-user and the RFID operator. Herein, we propose a conceptual model consisting of four theoretical constructs that we believe could favorably influence end-users to accept uRFID environments. We refer to these constructs as PACT; that is, privacy, awareness, control and trust. We hold that if RFID operators, system designers, government and industry make a conscious, ethical, and active effort to integrate these constructs in RFID systems, public acceptance will follow
APA, Harvard, Vancouver, ISO, and other styles
19

Dousteyssier-Buvat, Hélène. "Sur des techniques déterministes et stochastiques appliquées aux problèmes d'identification." Phd thesis, 1995. http://tel.archives-ouvertes.fr/tel-00346058.

Full text
Abstract:
Ce travail porte sur les aspects numériques de la résolution de problèmes inverses non linéaires gouvernés par des équations aux dérivées partielles, à l'aide des techniques du contrôle optimal. Nous nous sommes limités dans cette thèse à l'étude de deux problèmes: identification du coefficient de diffusion de la chaleur, identification de sources non linéaires dans des e.d.p. elliptiques. Ces deux problèmes sont résolus numériquement à l'aide d'une approche lagrangienne, les fonctions sont identifiées par leurs coefficients dans une base de B-splines cubiques. Ces problèmes étant mal posés, on étudie des techniques de choix du paramètre de régularisation de Tikhonov, comme les méthodes de validation croisée. On résout ensuite ces deux problèmes dans une base d'ondelettes, ce qui nous permet, par le biais d'un changement de base approprié, de réduire le caractère mal posé de ces problèmes, et de mener à bien l'identification sans terme de régularisation. Dans les problèmes réels, la solution exacte étant généralement inconnue, lorsqu'on dispose d'un estimateur, il n'est a priori pas possible de savoir s'il s'agit d'un «bon» estimateur. On peut remédier à ce problème à l'aide des courbures de la surface des réponses, qui nous permettent de quantifier le degré de non linéarité de la surface au voisinage de l'estimateur obtenu et de justifier l'usage des méthodes séquentielles quadratiques utilisées pour l'identification
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography