Tesi sul tema "Informatique omniprésente – Dispositifs de sécurité"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Informatique omniprésente – Dispositifs de sécurité.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-38 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Informatique omniprésente – Dispositifs de sécurité".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Trabelsi, Oualid. "Méthodes pour la modélisation des injections de fautes électromagnétiques". Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAT021.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les attaques par injection de faute représentent une menace considérable pour les systèmes cyber-physiques. Dès lors, la protection contre ces attaques est une nécessité pour assurer un haut niveau de sécurité dans les applications sensibles comme l'internet des objets, les téléphones mobiles ou encore les voitures connectées. Élaborer des protections demande au préalable de bien comprendre les mécanismes d'attaque afin de proposer des contre-mesures efficaces. En matière de méthodes d'injection de faute, celle par interférence électromagnétique s'est vu être une source de perturbation efficace, en étant moins intrusive et avec une configuration à faible coût. Outre l'ajustement des paramètres d'injection, l’efficacité de cette méthode réside dans le choix de la sonde qui génère le rayonnement électromagnétique. L'état de l'art propose déjà des travaux par rapport à la conception et la caractérisation de ce type d'injecteur. Cependant, les résultats correspondant rapportent une différence entre ceux issus de la simulation et ceux à partir des tests expérimentaux.La première partie de la thèse aborde la question de l'efficacité des sondes magnétiques, en mettant l'accent sur l'implication de leurs propriétés. Afin de comparer les sondes, nous proposons d'observer l'impact des impulsions électromagnétiques au niveau logique, sur des cibles particulières de type FPGA.La caractérisation est aussi établie suivant la variation des paramètres d'injection comme l'amplitude et la polarité de l'impulsion, le nombre d'impulsions ou encore l'instant de l'injection. Ces résultats ont permis de converger sur les paramètres optimaux qui maximisent l'effet des sondes magnétiques. La caractérisation est par la suite étendue au niveau architecture sur des cibles de type microcontrôleur. L'objet de la seconde contribution consiste à présenter une démarche d'analyse, basée sur trois méthodes génériques, qui servent à déterminer les vulnérabilités des microcontrôleurs sur les instructions ou les données. Ces méthodes portent sur l'identification des éléments vulnérables au niveau architecture, l'analyse des modèles de faute au niveau bit, et enfin la définition de l'état des fautes, à savoir transitoire ou semi-persistent.Le travail de dresser les modèles de faute, ainsi que le nombre d'instructions ou données impactées, est un jalon important pour la conception de contre-mesures plus robustes. Concernant ce dernier point, des contre-mesures au niveau instruction ont été proposées contre les modèles de faute logiciels. Actuellement, le mécanisme le plus répandu se résume à appliquer une redondance dans l'exécution du programme à protéger. Toutefois, ce type de contre-mesure est formulé sur l'hypothèse qu'une injection de faute équivaut un seul saut d'instruction. Vis-à-vis de nos observations, ces contre-mesures basées sur de la duplication au niveau instructions présentent des vulnérabilités, que nous identifions, puis corrigeons
Fault injection attacks represent a considerable threat to cyber-physical systems.Therefore, protection against these attacks is required to ensure a high level of security in sensitive applications such as the Internet of Things, smart devices or connected cars.Developing protection requires a good understanding of the attack mechanisms in order to propose effective countermeasures.In terms of fault injection methods, electromagnetic interference has proven to be an effective source of disruption, being less intrusive and with a low cost setup.Besides the adjustment of the injection parameters, the effectiveness of this attack mean lies in the choice of the probe that generates the electromagnetic radiation.The state of the art already proposes many works related to the design and characterization of this type of injector.However, the corresponding results point out to some difference between those from simulation and those from experimental tests.The first part of the thesis addresses the question of the efficiency of magnetic probes, with a focus on their properties.In order to compare the probes, we propose to observe the impact of electromagnetic pulses at the logic level, on particular targets such as FPGA.The characterization is also established according to the variation of the injection parameters such as the amplitude and the polarity of the pulse, the number of pulses or the injection time.These results allowed to converge on the optimal parameters that maximize the effect of the magnetic probes.The characterization is then extended to the architecture level on microcontroller targets.The purpose of the second contribution is to present an analysis approach, based on three generic methods, which are used to determine the vulnerabilities of microcontrollers with respect to instructions or data.These methods concern the identification of vulnerable elements at the architecture level, the analysis of fault models at the bit level, and finally the definition of the temporal fault status, i.e. transient or semi-persistent.Establishing the fault patterns, as well as the number of the impacted instructions or data, is an important milestone for the design of more robust countermeasures.Regarding the latter, instruction-level countermeasures have been proposed against software fault models.Currently, the most common mechanism is to apply a redundant execution of the program to be protected.However, this type of countermeasure is based on the assumption that a fault injection imply a single instruction jump.With respect to our observations, these countermeasures based on instruction-level duplication present vulnerabilities, which we identify and then correct
2

He, Ruan. "Architecture et mécanismes de sécurité pour l'auto-protection des systèmes pervasifs". Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00579773.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un système pervasif est un environnement dans lequel l'homme peut interagir avec des équipements qui ont des capacités de calcul et de communication. Dans cette thèse, un système pervasif correspond à un réseau (composé de terminaux) qui est :1- distribué et décentralisé: les terminaux sont physiquement distribués dans une région et sont reliés entre eux par des connexions sans fil. Quelque soit leur localisation physique, la communication sans fil les rend connectés entre eux. En plus, cette architecture distribuée demande souvent une coordination décentralisée des terminaux. 2- dynamique et ouvert : les terminaux, en particulier les terminaux mobiles, peuvent rejoindre et quitter un réseau pervasif à tout moment. Cette ouverture rend l’architecture du système dynamique : c'est-à-dire que la topologie du système évolue au cours du temps pendent l’exécution. Ce caractère dynamique de l'architecture nécessite une modélisation du système très flexible pour décrire les topologies variantes du système. 3 - complexe et de grande taille : l’échelle de ces systèmes peut atteindre des centaines voire des milliers de terminaux. La coordination de ces terminaux qui gère non seulement ces terminaux, mai également leurs connexions est d’un niveau de complexité élevé. Au lieu de solutions traditionnellement centralisées qui gèrent un petit nombre de terminaux, les systèmes pervasifs à grande échelle devraient appliquer une solution plus efficace
In this thesis, we propose: - A three-layer abstract architecture: a three-layer self-protection architecture is applied to the framework. A lower execution space provides running environment for applications, a control plane controls the execution space, and an autonomic plane guides the control behavior of the control plane in taking into account system status, context evolution, administrator strategy and user preferences. - An attribute-based access control model: the proposed model (Generic Attribute-Based Access Control) is an attribute-based access control model which improves both the policy-neutrality to specify other access control policies and exibility to enable fine-grain manipulations on one policy. - A policy-based framework for authorization integrating autonomic computing: the policy-based approach has shown its advantages when handling complex and dynamic systems. In integrating autonomic functions into this approach, an Autonomic Security Policy Framework provides a consistent and decentralized solution to administer G-ABAC policies in large-scale distributed pervasive systems. Moreover, the integration of autonomic functions enhances user-friendliness and context-awareness. - A terminal-side access control enforcement OS: the distributed authorization policies are then enforced by an OS level authorization architecture. It is an effcient OS kernel which controls resource access through a dynamic manner to reduce authorization overhead. On the other hand, this dynamic mechanism improves the integrability of di_erent authorization policies. - An adaptation policy specifcation Domain Speci_c Language (DSL) for adaptation policy specification
3

Abi-char, Pierre. "A dynamic trust-based context-aware secure authentication framework for pervasive computing environments". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2010. http://www.theses.fr/2010TELE0006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La prise en considération des exigences en matière de sécurité, de vie privée et de confiance au sein des environnements pervasifs (ubiquitaires) est indispensable à la fourniture des services personnalisés aux utilisateurs. L’objectif de cette thèse est de disposer d’une architecture souple et évolutive intégrant l’authentification des utilisateurs, la préservation de leur vie privée et la gestion de la confiance en vue d’optimiser la stratégie de contrôles d’accès aux services personnalisés. La première contribution porte sur la proposition d’un protocole d’authentification mutuelle construit à partir de schémas cryptographiques robustes d’établissement de clés basés sur les courbes elliptiques (MaptoPoint/Curve algorithm, Weil Pairing) et d’un modèle dynamique basé sur les attributs issus des données contextuelles. La seconde contribution porte sur la conception d’une nouvelle architecture bâti sur un modèle basé sur les attributs et organisée autour de 3 couches : la couche de contrôle de le vie privée qui assure la protection de la vie privée des utilisateurs en contrôlant leurs données personnelles, la couche d’accès associant les processus d’authentification et de contrôles d’accès en intégrant des mécanismes dédiés à la gestion des paramètres de confiance et la couche de service pour la gestion des accès aux services selon le profil de l’utilisateur et de son environnement. La troisième contribution porte sur le développement et la mise en œuvre d’un prototype au sein de la plateforme dédiée à la fourniture de services du laboratoire Handicom de Telecom SudParis
To provide personalized services to users in pervasive environments, we should consider both user's privacy, trust and security requirements. Traditional authentication and access control mechanisms are not able to adapt their security policies to a changing context while insuring privacy and trust issues. This thesis introduces a new global vision for the protection of pervasive environments, based on context-aware principle. The aim of this thesis is to get a flexible and scalable framework including user authentication, user privacy preserving and trust management in order to optimize the access control strategy to personalized services. The first contribution include the proposal of a mutual authentication protocol supported by both robust key establishment schemes based on elliptic curves (MaptoPoint/Curve algorithm, Weil Pairing) and a dynamic model based on attributes issued from contextual data. The second contribution include the design of a new architecture built on an attribute based model and organized over 3 layers: the privacy control layer which insure the protection of the user private life by controlling their personal data, the access layer which associate authentication and access control processes while providing mechanisms dedicated to trust parameters management , and finally the service layer for service access management according to the user profile and his environment. The third contribution the implementation and the deployment of a prototype within the service delivery platform in Handicom lab of Telecom & Management SudParis
4

Saadi, Rachid. "The Chameleon : un système de sécurité pour utilisateurs nomades en environnements pervasifs et collaboratifs". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0040/these.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’avènement de l’informatique pervasive permet la mise en place d’environnements intelligents et communicants offrant à l’utilisateur la possibilité de faire interagir ses équipements avec son environnement de manière aisée et transparente. La mobilité de l’utilisateur et la multiplication des dispositifs légers et autonomes accentuent et rendent plus complexes les problèmes de sécurité. En effet, la mise en place d’environnements pervasifs permet à l’utilisateur nomade de solliciter ou de communiquer avec d’autres utilisateurs, des ressources ou des services au sein d’environnements ou de domaines qui lui sont inconnus et réciproquement. Les mécanismes et les solutions existants sont inadéquats pour pallier les nouveaux challenges issus principalement des problèmes d’authentification, de contrôle d’accès et de protection de la vie privée. Dans un système aussi fortement distribué et imprédictible, l’existence d’une autorité centralisatrice n’est en effet pas possible. Il est donc nécessaire de rendre la décision d’accès plus autonome et donc répartie. Dans cette thèse, nous défendons l’idée que l’implémentation d’un système de sécurité basé sur la confiance constitue une solution particulièrement adaptée aux environnements pervasifs. Notre travail à conduit à l’élaboration d’une architecture générique de sécurité prenant en charge l’utilisateur depuis l’identification jusqu’à l’attribution de droits d’accès dans des milieux inconnus. Nommée «Chameleon», celle-ci prend en charge les problèmes issus de l’authentification et du contrôle d’accès dans les environnements mobiles et ubiquitaires. La mise en place de notre approche a nécessité l’implémentation d’un nouveau format de certification « X316 » adaptable au contexte de l’utilisateur, ainsi que la définition d’un modèle de confiance inter-organisations (T2D) dont le but est d’étendre le champ d’accès des utilisateurs mobiles aux ressources environnantes
While the trust is easy to set up between the known participants of a communication, the evaluation of trust becomes a challenge when confronted with unknown environment. It is more likely to happen that the collaboration in the mobile environment will occur between totally unknown parties. An approach to handle this situation has long been to establish some third parties that certify the identities, roles and/or rights of both participants in a collaboration. In a completely decentralized environment, this option is not sufficient. To decide upon accesses one prefer to rely only on what is presented to him by the other party and by the trust it can establish, directly by knowing the other party or indirectly, and vice-versa. Hence a mobile user must for example present a set of certificates known in advance and the visited site may use these certificates to determine the trust he can have in this user and thus potentially allow an adapted access. In this schema the mobile user must know in advance where she wants to go and what she should present as identifications. This is difficult to achieve in a global environment. Moreover, the user likes to be able to have an evaluation of the site she is visiting to allow limited access to her resources. And finally, an user does not want to bother about the management of her security at fine grain while preserving her privacy. Ideally, the process should be automatized. Our work was lead to define the Chameleon architecture. Thus the nomadic users can behave as chameleons by taking the "colors" of their environments enriching their nomadic accesses. It relies on a new T2D trust model which is characterized by support for the disposition of trust. Each nomadic user is identified by a new morph certification model called X316. The X316 allows to carry out the trust evaluation together with the roles of the participants while allowing to hide some of its elements, preserving the privacy of its users
5

Abi-char, Pierre. "A dynamic trust-based context-aware secure authentication framework for pervasive computing environments". Thesis, Evry, Institut national des télécommunications, 2010. http://www.theses.fr/2010TELE0006/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La prise en considération des exigences en matière de sécurité, de vie privée et de confiance au sein des environnements pervasifs (ubiquitaires) est indispensable à la fourniture des services personnalisés aux utilisateurs. L’objectif de cette thèse est de disposer d’une architecture souple et évolutive intégrant l’authentification des utilisateurs, la préservation de leur vie privée et la gestion de la confiance en vue d’optimiser la stratégie de contrôles d’accès aux services personnalisés. La première contribution porte sur la proposition d’un protocole d’authentification mutuelle construit à partir de schémas cryptographiques robustes d’établissement de clés basés sur les courbes elliptiques (MaptoPoint/Curve algorithm, Weil Pairing) et d’un modèle dynamique basé sur les attributs issus des données contextuelles. La seconde contribution porte sur la conception d’une nouvelle architecture bâti sur un modèle basé sur les attributs et organisée autour de 3 couches : la couche de contrôle de le vie privée qui assure la protection de la vie privée des utilisateurs en contrôlant leurs données personnelles, la couche d’accès associant les processus d’authentification et de contrôles d’accès en intégrant des mécanismes dédiés à la gestion des paramètres de confiance et la couche de service pour la gestion des accès aux services selon le profil de l’utilisateur et de son environnement. La troisième contribution porte sur le développement et la mise en œuvre d’un prototype au sein de la plateforme dédiée à la fourniture de services du laboratoire Handicom de Telecom SudParis
To provide personalized services to users in pervasive environments, we should consider both user's privacy, trust and security requirements. Traditional authentication and access control mechanisms are not able to adapt their security policies to a changing context while insuring privacy and trust issues. This thesis introduces a new global vision for the protection of pervasive environments, based on context-aware principle. The aim of this thesis is to get a flexible and scalable framework including user authentication, user privacy preserving and trust management in order to optimize the access control strategy to personalized services. The first contribution include the proposal of a mutual authentication protocol supported by both robust key establishment schemes based on elliptic curves (MaptoPoint/Curve algorithm, Weil Pairing) and a dynamic model based on attributes issued from contextual data. The second contribution include the design of a new architecture built on an attribute based model and organized over 3 layers: the privacy control layer which insure the protection of the user private life by controlling their personal data, the access layer which associate authentication and access control processes while providing mechanisms dedicated to trust parameters management , and finally the service layer for service access management according to the user profile and his environment. The third contribution the implementation and the deployment of a prototype within the service delivery platform in Handicom lab of Telecom & Management SudParis
6

Hourdin, Vincent. "Contexte et sécurité dans les intergiciels d'informatique ambiante". Nice, 2010. http://www.theses.fr/2010NICE4076.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En informatique ambiante, le contexte joue un rôle capital. Les applications informatiques étendent leurs interactions avec 'environnement: de nouvelles entrées et sorties sont utilisées, telles que des capteurs et d'autres dispositifs mobiles d'interaction avec l'environnement réel et physique. Les intergiciels, créés pour masquer la complexité des couches inférieures en informatique distribuée, se voient alors chargés de nouvelles préoccupations, comme la prise en compte du contexte, l'adaptation des applications ou la sécurité. Une représentation en couches intergicielles de ces préoccupations ne permet pas d'exprimer toutes leurs interdépendances. En informatique ambiante, la distribution est nécessaire pour obtenir les informations contextuelles, mais il est aussi nécessaire de prendre en compte le contexte dans la distribution, par exemple pour limiter les interactions aux entités d'un contexte défini. De plus, les interactions asynchrones utilisées dans les nouveaux environnements informatiques nécessitent une attention particulière lors de la prise en compte du contexte. De même, la sécurité intervient à la fois dans les couches intergicielles de distribution et de prise en compte du contexte. Dans cette thèse nous présentons un modèle de prise en compte du contexte dans la sécurité et la distribution. Le contrôle d'accès doit évoluer pour intégrer une autorisation dynamique et réactive, basée sur des informations liées à l'environnement et plus simplement sur l'authentification des entités. Les informations contextuelles évoluent suivant une dynamique indépendante des applications. Il est aussi nécessaire de détecter les changements de contexte pour réévaluer l'autorisation. Nous expérimentons cette prise en compte du contexte dans le contrôle des interactions avec la plate-forme expérimentale WComp, issue du modèle SLCA/AA (Service Lightweight Component Architecture / Aspects of Assembly). SLCA permet de concevoir des intergiciels et des applications dynamiques dont le découpage fonctionnel n'est pas traduit en couches, mais par un entrelacement de fonctionnalités. Les aspects d'assemblage sont un mécanisme d'adaptation compositionnelle d'assemblages de composants. Nous les utilisons pour exprimer nos préoccupations non-fonctionnelles et pour les composer avec les applications existantes de façon déterministe et réactive. Nous introduisons pour cela des règles de contrôle d'interactions contextualisées. L'intergiciel permet ainsi d'adapter en fonction du contexte nos préoccupations non-fonctionnelles et le comportement de l'application
In ubiquitous computing, context is key. Computer applications are extending their interactions with the environment: new inputs and outputs are used, such as sensors and other mobile devices interacting with the physical environment. Middlewares, created in distributed computing to hide the complexity of lower layers, are then loaded with new concerns, such as taking into account the context, adaptation of applications or security. A middleware layer representation of these concerns cannot express all heir interdependencies. In pervasive computing, distribution is required to obtain contextual information, but it is also necessary to take into account the context in distribution, for example to restrict interactions between entities in a defined context. In addition,asynchronous interactions used in those new environments require special attention when taking into account the context. Similarly, security is involved both in the middleware layers of distribution and context-sensitivity. In this thesis we present a model taking into account the context both in security and distribution. Access control must evolve to incorporate a dynamic and reactive authorization, based on information related to environment or simply on the authentication information of entities. Contextual information evolve with their own dynamic, independent of applications. It is also necessary to detect context changes to reenforce the authorization. We are experimenting this context-awareness targetting interaction control with the experimental framework WComp, derived from the SLCA/AA (Service Lightweight Component Architecture / Aspects of Assembly) model. SLCA allows to create dynamic middlewares and applications for which functional cutting is not translated into layers but into an interleaving of functionalities. Aspects of assembly are a mechanism for compositional adaptation of assemblies of components. We use them to express our non-functional concerns and to compose them with existing applications in a deterministic and reactive manner. For this purpose, we introduce context-aware interaction control rules. The middleware thus allows to adapt, according to context, our non-functional concerns and the behavior of the application
7

Courtès, Ludovic. "Sauvegarde coopérative de données pour dispositifs mobiles". Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2007. http://tel.archives-ouvertes.fr/tel-00196822.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les dispositifs informatiques mobiles tels que les ordinateurs portables, assistants personnels et téléphones portables sont de plus en plus utilisés. Cependant, bien qu'ils soient utilisés dans des contextes où ils sont sujets à des endommagements, à la perte, voire au vol, peu de mécanismes permettent d'éviter la perte des données qui y sont stockées. Dans cette thèse, nous proposons un service de sauvegarde de données coopératif pour répondre à ce problème. Cette approche tire parti de communications spontanées entre de tels dispositifs, chaque dispositif stockant une partie des données des dispositifs rencontrés. Une étude analytique des gains de cette approche en termes de sûreté de fonctionnement est proposée. Nous étudions également des mécanismes de stockage réparti adaptés. Les problèmes de coopération entre individus mutuellement suspicieux sont également abordés. Enfin, nous décrivons notre mise en oeuvre du service de sauvegarde coopérative.
8

Lanternier, Brice. "Retour d'expérience et fiabilité prévisionnelle : mise en oeuvre de modèles et détermination des facteurs influant la fiabilité pour le calcul de taux de défaillance des matériels mécaniques utilisés en tant que dispositifs de sécurité". Saint-Etienne, 2007. http://www.theses.fr/2007STET4011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les exigences d'évaluation en sécurité fonctionnelle nécessitent une quantification du niveau de sûreté d'un matériel par une analyse qualitative et quantitative. Certains industriels n'ayant pas de retour d'expérience (REX) spécifique à leurs activités, ont des difficultés pour fournir des résultats fiables et pertinents. Les concepteurs des bases de données de fiabilité des composants électroniques ont défini des modèles permettant de calculer les taux de défaillance en fonction des paramètres d'utilisation. Il n'existe rien dans le domaine des matériels mécaniques. Cette recherche a donc pour objectif de développer une méthodologie permettant d'améliorer les prédictions de fiabilité des matériels mécaniques et électromécaniques. Ces travaux mettent ainsi en oeuvre des modèles qui permettent d'affiner la prédiction de fiabilité en prenant en compte la spécificité des matériels mécaniques et les facteurs influant la fiabilité. Nous proposons une méthode d'analyse pour différents REX en fonction de la qualité et de la quantité d'informations. Cette étude s'appuie uniquement sur du REX de matériels en exploitation afin de prendre en compte les facteurs d'influence dans la fiabilité, objet de la thèse. Ainsi, afin de traiter de manière optimale le REX issu des bases de données génériques actuelles, nous proposons l'utilisation conjointe de techniques bayésiennes et de pondération des différentes données d'entrées en fonction de facteurs prédéfinis. Le second modèle proposé, entièrement paramétrique, s'appuie sur un modèle à hasard proportionnel qui permet d'obtenir une fonction environnementale traduisant l'impact des facteurs sur la fiabilité. Enfin, une modélisation par des réseaux de neurones pour les REX conséquents en quantité et en qualité est proposée
Functional safety assessment requires a safety level quantification of equipments by a qualitative and quantitative analysis. Some industrials whose have no specific feedback for their activities experience difficulties to provide reliable and relevant results. Designers of reliability databases for electronic components have defined models for calculating failure rates depending on the parameters of use. There is nothing in the field of mechanical equipment. This research aims to develop a methodology to improve the predictions reliability of mechanical and electromechanical equipment. Thus, this work implements models that allow accurate prediction reliability taking into account mechanical equipment specificity and influential factors reliability. We propose an analysis method for different feedback based on the quality and quantity of information. This study is only based on operating feedback equipment to take into account influencing factors reliability, the subject of this thesis. Thus, in order to deal with efficiently operating feedback resulting from generic databases, the use of bayesian techniques and weighting of various input data according to pre-defined factors is proposed. The second approach, fully parametric, is based on proportional hazard model to get an environmental function reflecting the impact of factors on reliability. Finally, a neural networks mode is available for numerous operating feedback in quantity and quality
9

Papoulias, Nikolaos. "Le Débogage à Distance et la Réflexion dans les Dispositifs à Ressources Limitées". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2013. http://tel.archives-ouvertes.fr/tel-00932796.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La construction de logiciels pour des appareils qui ne peuvent pas accueillir localement des outils de développement peut être difficile. Ces appareils soit ont une puissance de calcul trop limitée pour exécuter un IDE (par exemple, smartphones), ou manquent d' interfaces d'entrée / sortie appropriées (écran, clavier , souris) pour la programmation (par exemple, les robots mobiles) ou sont tout simplement inaccessibles pour des développements locaux (par exemple cloud - serveurs). Dans ces situations, les développeurs ont besoin d'une infrastructure appropriée pour développer et déboguer des applications distantes. Des solutions de débogage à distance sont parfois délicates à utiliser en raison de leur nature distribuée. Les études empiriques nous montrent que, en moyenne 10,5 minutes par heure de codage (plus de cinq semaines de travail de 40 heures par an) sont passées pour le re-déploiement d'applications pour corriger les bugs ou améliorer leur fonctionnalité [ZeroTurnAround 2011]. En plus, les solutions courantes manquent des aménagements qui seraient autrement disponibles dans un contexte local, car c'est difficile de les reproduire à distance (par exemple débogage objet-centré [Ressia 2012b]). Cet état influe sur la quantité d' expérimentation au cours d'une session de débogage à distance - par rapport à un contexte local. Dans cette thèse, afin de surmonter ces problèmes, nous identifions d'abord quatre propriétés désirables qu'une solution idéale pour le débogage à distance doit présenter : l'interactivité, l'instrumentation, la distribution et la sécurité. L'interactivité est la capacité d'une solution de débogage à distance de mise à jour incrémentale de toutes les parties d'une application sans perdre le contexte de d'exécution (sans arrêter l'application). L'instrumentation est l'aptitude d'une solution de modifier la sémantique d'un processus en cours en vue d'aider le débogage. La distribution est la capacité d'une solution de débogage à adapter son cadre alors que le débogage d'une cible à distance. Enfin la sécurité fait référence à la disponibilité de conditions préalables pour l'authentification et la restriction d'accès. Compte tenu de ces propriétés, nous proposons Mercury, un modèle de débogage à distance et une architecture pour des langues réflexifs à objets. Mercury ouvre (1) l'interactivité grâce à un méta-niveau à distance miroir basé sur un lien de causalité avec sa cible, (2) l'instrumentation à travers une intercession réflective basée sur la réification de l'environnement d'exécution sous-jacent, (3) la distribution grâce à un middleware adaptable et (4) la sécurité par la décomposition et l'authentification de l'accès aux aspects réflexifs. Nous validons notre proposition à travers un prototype dans le langage de programmation Pharo à l'aide d'un cadre expérimental diversifié de multiples dispositifs contraints. Nous illustrons des techniques de débogage à distance supportées par les propriétés de Mercury, tels que le débogage agile distant et l'instrumentation objet à distance et montrons comment ils peuvent résoudre dans la pratique, les problèmes que nous avons identifiés.
10

Schnepf, Nicolas. "Orchestration et vérification de fonctions de sécurité pour des environnements intelligents". Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0088/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les équipements intelligents, notamment les smartphones, sont la cible de nombreuses attaques de sécurité. Par ailleurs, la mise en œuvre de mécanismes de protection usuels est souvent inadaptée du fait de leurs ressources fortement contraintes. Dans ce contexte, nous proposons d'utiliser des chaînes de fonctions de sécurité qui sont composées de plusieurs services de sécurité, tels que des pare-feux ou des antivirus, automatiquement configurés et déployés dans le réseau. Cependant, ces chaînes sont connues pour être difficiles à valider. Cette difficulté est causée par la complexité de ces compositions qui impliquent des centaines, voire des milliers de règles de configuration. Dans cette thèse, nous proposons l'architecture d'un orchestrateur exploitant la programmabilité des réseaux pour automatiser la configuration et le déploiement de chaînes de fonctions de sécurité. Il est important que ces chaînes de sécurité soient correctes afin d’éviter l'introduction de failles de sécurité dans le réseau. Aussi, notre orchestrateur repose sur des méthodes automatiques de vérification et de synthèse, encore appelées méthodes formelles, pour assurer la correction des chaînes. Notre travail appréhende également l'optimisation du déploiement des chaînes dans le réseau, afin de préserver ses ressources et sa qualité de service
Smart environments, in particular smartphones, are the target of multiple security attacks. Moreover, the deployment of traditional security mechanisms is often inadequate due to their highly constrained resources. In that context, we propose to use chains of security functions which are composed of several security services, such as firewalls or antivirus, automatically configured and deployed in the network. Chains of security functions are known as being error prone and hard to validate. This difficulty is caused by the complexity of these constructs that involve hundreds and even thousands of configuration rules. In this PhD thesis, we propose the architecture of an orchestrator, exploiting the programmability brought by software defined networking, for the automated configuration and deployment of chains of security functions. It is important to automatically insure that these security chains are correct, before their deployment in order to avoid the introduction of security breaches in the network. To do so, our orchestrator relies on methods of automated verification and synthesis, also known as formal methods, to ensure the correctness of the chains. Our work also consider the optimization of the deployment of chains of security functions in the network, in order to maintain its resources and quality of service
11

Razafindralambo, Tiana. "Security of micro-controllers : From smart cards to mobile devices". Thesis, Limoges, 2016. http://www.theses.fr/2016LIMO0087/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Afin de pouvoir profiter de services sécurisés, efficaces et rapides (ex: paiement mobile, agenda, télécommunications, vidéos, jeux, etc.), de nos jours nos téléphones embarquent trois différents microcontrôleurs. Du plus sécurisé vers le plus générique nous avons, la carte SIM qui n’est autre qu’une carte à puce sécurisé chargée de garder de manière sûr au sein de sa mémoire des données sensibles. Ensuite, nous avons le processeur à bande de base qui est le seul à pouvoir discuter avec la carte SIM, et s’occupe de se charger des fonctions radio du téléphone (ex: le réseau GSM/3G/4G/LTE). Et enfin, nous avons le processeur applicatif, qui se charge d’exécuter tous les autres programmes sur le téléphone. Ce qui rend ces microcontrôleurs plus particuliers, c’est le fait qu’ils sont chacun contrôlés par un système d’exploitation totalement indépendant. Néanmoins, chacun peut avoir son influence, direct ou indirect sur l’autre/les autres. La sécurité de ces trois plateformes dépendent non seulement de leur implémentations matérielles, mais aussi de l’implémentation logicielle de leur système d’exploitation. Cette thèse s’intéresse à la sécurité logicielle, et en partie, matérielle de ces trois plateformes, afin de comprendre dans quelle mesure, une carte à puce telle que la carte SIM, est-elle résistante aux attaques logicielles dans le contexte d’un environnement multi-applicatif offert par les appareils mobiles. Nous nous intéressons aussi, à la sécurité du processeur applicatif face à une famille particulière d’attaque qui exploite le mécanisme de mémoire cache. Nous partons alors de l’étude et de l’application en pratique des attaques logiques sur carte à puce. Après avoir étudié les différents moyens qui permettent d’atteindre la carte SIM dans un mobile et ainsi d’étudier la surface d’attaque, nous poursuivons vers une étude par rétro-conception de l’implémentation de l’interface logicielle qui communique directement avec la SIM au niveau du processeur de bande de base. Ceci afin de comprendre le fonctionnement de cette partie très peu documentée. Finalement, nous étudions les effets du mécanisme de cache sur l’exécution d’un programme dans un téléphone mobile. Enfin, nous avons commencé à étudier l’attaque de Bernstein, qui consiste à exploiter les variations de temps induits par différents mécanismes de cache, en mesurant le temps global de l’exécution d’une implémentation particulière de l’algorithme cryptographique AES (Advanced Encryption Standard). Plus particulièrement, par une mise en pratique, nous essayons de déterminer ce qui exacerbe ou non la réalisation de sa technique dans le contexte d’un téléphone mobile réel
Nowadays, in order to provide secure, reliable and performant services (e.g: mobile payments, agenda, telecommunication, videos, games, etc.), smartphones embed three different micro-controllers. From the most secure to the most general purpose one, we have the SIM card which is a secure smart card that has to prevent anyone by any means to exfiltrate sensitive assets from its internal memories. Furthermore, we also have the baseband processor, which is the only one that directly talks with the SIM card. It essentially manages all the "phone" parts (e.g: GSM/3G/4G/LTE networks) inside a mobile device. Finally, we have the application processor which runs all the general user applications. What is interesting to note for those three micro-controllers is that they are controlled by different and independent operating systems. However, one may affect the behavior of the other(s). The security of these three platforms depend on their hardware and software implementations. This thesis is concerned with the security of these three microcontrollers that are managed by independent OSs within mobile devices. We particularly focused on understanding to what extent a smart card such as SIM cards can be resistant to software attacks in the context of a multi-application environment provided by mobile devices. We were also interested in a specific family of, so-called cache attacks, namely time-driven one, as this kind of technique essentially exploits the hardware implementation of the different cache memories and the mechanisms that enable to manage them. We decided to first study and experimentally perform so-called logical attacks on smart cards. In a second step, in order to understand the attack surface, we have studied the different means to reach the SIM card from both the baseband processor and the application processor. Then, by means of reverse engineering, we tried to understand how was implemented the SIM interface from the baseband side. Finally, we have studied the cache effects on the execution speed of a program on real mobile devices, and we experimentally studied Bernstein’s time-driven cache attack in order to understand what possible events/mechanisms exacerbate (or not) the achievement of the latter on an actual mobile device
12

Crémona, Patrick. "Traitement du signal d'un radar FMCW à visée inclinée pour l'automobile". Toulouse, INPT, 1996. http://www.theses.fr/1996INPT032H.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La securite routiere reste une des preoccupations majeures de notre societe, et a l'aube du xxi siecle on espere beaucoup de l'electronique embarquee. Ces travaux de recherche montrent qu'avec un radar anticollision, dont la fonction principale est la detection d'obstacles presentant un danger imminent, on peut aussi envisager une caracterisation de la cible route, ce qui renforcerait considerablement la securite automobile. Le but de cette these est donc la mesure de la vitesse absolue du vehicule sur sol et la reconnaissance automatique de l'etat de la route (route seche / route mouillee) pour une meilleure appreciation de la distance de securite a conserver entre deux vehicules. Le manuscrit decrivant cette etude debute par une description des particularites requises pour un radar anticollision automobile, afin de justifier notre choix de developper un radar a ondes continues et a modulation lineaire de frequence (fmcw). Dans la seconde partie, on s'interesse a la cible route pour mieux cerner les mecanismes de reflexions qui interviennent dans le signal radar. On montre que la forme de la densite spectrale de puissance de l'echo radar change avec le type de revetement. La troisieme partie se consacre a la mesure vitesse sur sol du vehicule. On s'est attache a etudier diverses techniques d'analyse spectrale parametrique afin de mettre en evidence les methodes qui assurent une mesure vitesse fiable. Enfin dans la quatrieme et derniere partie, avec l'aide des methodes classiques de classification bayesienne et non bayesienne associees a un pretraitement de compression ou de dilatation spectrale pour compenser l'effet doppler, on reussit a reconnaitre divers revetements de routes
13

Liu, Pengfei. "Intégration de politiques de sécurité dans les systèmes ubiquitaires". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00799284.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Lors du développement des applications ubiquitaires, il est essentiel de définir des politiques de sécurité et de développerdes mécanismes de sécurité pour assurer la confidentialité et l'intégrité des applications. De nombreux langages de spécification de politiques se concentrent uniquement sur leur puissance d'expression. Les défis émergents dans les systèmes ubiquitaires ne peuvent pas être résolus par ces approches. Par exemple, la sensibilité au contexte est un élément central des systèmes ubiquitaires. Les approches existantes tiennent rarement compte des informations contextuelles dans leurs langages. Cette thèse propose une approche générative pour spécifier et implanter les politiques de sécurité dans les applications ubiquitaires. Pour définir une politique de sécurité, nous proposons un langage de spécification qui tient compte des informations contextuelles. Il permet aux développeurs de spécifier les règles de la politique et les entités requises (e.g. la description spatiale, les rôles, le contexte). Les politiques sont implémentés par des systèmes de réécriture, ce qui offre une grande puissance de vérification. Pour appliquer une politique, nous proposons une architecture qui intègre les concepts importants des politiques de sécurité (sujet, contexte, objet) dans des applications ubiquitaires. Pour mettre en oeuvre notre approche, nous avons enrichi une approche existante pour le développement des applications ubiquitaires. La spécification de la politique de sécurité et la description de l'application ubiquitaire enrichie sont utilisées pour générer un canevas de programmation qui facilite l'implémentation des mécanismes de sécurité, tout en séparant les aspects sécurités de la logique applicative.
14

Evrot, Dominique. "Contribution à la vérification d'exigences de sécurité : application au domaine de la machine industrielle". Phd thesis, Université Henri Poincaré - Nancy I, 2008. http://tel.archives-ouvertes.fr/tel-00344890.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'introduction des nouvelles technologies de l'information et de la communication dans les systèmes automatisés entraîne un accroissement de la complexité des fonctions qu'ils supportent. Cet accroissement de la complexité a un impact sur la sécurité des systèmes. En effet, leurs propriétés ne sont plus réductibles aux propriétés de leurs constituants pris isolément mais émergent d'un réseau d'interactions entre ces constituants qui peut être à l'origine de comportements néfastes et difficiles à prévoir.
Notre conviction est que le développement sûr de ces systèmes doit combiner des approches pragmatiques orientées " système ", qui tiennent compte du facteur d'échelle réel d'une automatisation pour appréhender le fonctionnement global du système et son architecture, avec des approches plus formelles qui permettent de s'assurer que les propriétés intrinsèques des constituants contribuent efficacement au respect des exigences " système " formulées par les utilisateurs.
Le travail présenté dans ce mémoire définit donc une approche méthodologique basée sur le formalisme SysML (System Modeling Language) permettant l'identification, la formalisation et la structuration d'exigences globales relatives à un système, puis leur projection, sous forme de propriétés invariantes, sur une architecture de composants. La vérification des exigences de sécurité, repose alors, d'une part, sur un raffinement prouvé (par theroem proving) des exigences " système " permettant d'établir leur équivalence avec un ensemble de propriétés intrinsèques relatives à chacun des composants, et d'autre part, sur la vérification formelle (par model checking) de ces propriétés intrinsèques.
15

Asselin, Eric. "Système de détection d'intrusion adapté au système de communication aéronautique ACARS". Thesis, Toulouse, INPT, 2017. http://www.theses.fr/2017INPT0058.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’aviation civile moderne dépend de plus en plus sur l’interconnexion de tous les acteurs qu’il soit avionneur, équipementier, contrôleur aérien, pilote, membre d’équipage ou compagnie aérienne. Ces dernières années, de nombreux travaux ont été réalisés dans le but de proposer des méthodes pour simplifier la tache des pilotes, de mieux contrôler et optimiser l’espace aérien, de faciliter la gestion des vols par les compagnies aériennes et d’optimiser les taches de maintenance entre les vols. De plus, les compagnies aériennes cherchent non seulement a offrir a ses passagers, de plus en plus exigeants, des services de divertissements, de messagerie et de navigation sur le Web mais également des services de connexion a Internet pour leurs propres appareils. Cette omniprésence de connectivité dans le domaine aéronautique a ouvert la voie a un nouvel ensemble de cyber-menaces. L’industrie doit donc être en mesure de déployer des mécanismes de sécurité qui permettent d’offrir les mêmes garanties que la sûreté de fonctionnement tout en permettant de répondre aux nombreux besoins fonctionnels de tous les acteurs. Malgré tout, il existe peu de solutions permettant l’analyse et la détection d’intrusion sur les systèmes avioniques embarqués. La complexité des mises a jour sur de tel système rend difficile l’utilisation de mécanismes strictement a base de signatures alors il est souhaitable que des mécanismes plus "intelligents", a l’abri de l’évolution des menaces, puissent être développés et mis en place. Cette thèse s’inscrit dans une démarche de mise en place de mécanismes de sécurité pour les communications entre le sol et l’avion, et plus particulièrement un système de détection d’intrusion pour le système de communication aéronautique ACARS visant a protéger les fonctions Air Traffic Control (ATC) et Aeronautical Operational Control (AOC) embarquées dans l’avion. Fonde sur la détection d’anomalie, un premier modèle propose permet de discriminer les messages ACARS anormaux a l’aide d’une technique empruntée a la classification de texte, les n-grammes. Un second modèle propose, également fonde sur la détection d’anomalie, permet de modéliser, a l’aide des chaines de Markov, l’ensemble des messages échanges entre le bord et le sol durant un vol complet permettant de détecter des messages ne faisant pas partie d’une communication normale. Une dernière contribution consiste en une alternative a la courbe ROC pour évaluer les performances d’un système de détection d’intrusion lorsque le jeu de données disponible contient seulement des instances normales
Modern civil aviation is increasingly dependent on the interconnection of all players, be it aircraft manufacturers, air traffic controllers, pilots, crew members or airlines. In recent years, much work has been done to propose methods to simplify the task of pilots, to better control and optimize airspace, to facilitate the management of flights by airlines and to optimize the maintenance tasks between flights. In addition, airlines are seeking not only to provide more demanding passengers with entertainment, messaging and web browsing services, but also Internet connection services for their own devices. This omnipresence of connectivity in the aeronautical field has paved the way for a new set of cyber threats. The industry must therefore be able to deploy security mechanisms inline with safety requirements while allowing the many functional needs of all actors. Despite this, there are few solutions for intrusion detection and analysis on avionics systems. The complexity of updates on such a system makes it difficult to use strictly signature-based mechanisms, so it is desirable that more "smart" mechanisms, threats evolution proof, be developed and deployed. This thesis is part of an approach to put in place security mechanisms for communications between the ground and the airplane, and more particularly an intrusion detection system for the aeronautical communication system ACARS to protect the Air Traffic Control (ATC) and Aeronautical Operational Control (AOC) functions. Based on anomaly detection technique, a first proposed model makes it possible to discriminate the abnormal ACARS messages using a technique borrowed from the text classification, n-grams. A second proposed model, also based on anomaly detection technique, allows to model a sequence of messages, using Markov chains, exchanged between the ground and the airplane during a flight, allowing to detect messages not taking part of a normal communication. The last contribution consists of an alternative to the ROC curve to evaluate the performance of an intrusion detection system when the available data set contains only normal instances
16

Jakob, Henner. "Vers la sécurisation des systèmes d'informatique ubiquitaire par le design : une approche langage". Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14269/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans de multiples domaines, un nombre grandissant d'applications interagissant avec des entités communicantes apparaissent dans l'environnement pour faciliter les activités quotidiennes~(domotique et télémédecine). Leur impact sur la vie de tous les jours des utilisateurs rend ces applications critiques: leur défaillance peut mettre en danger des personnes et leurs biens. Bien que l'impact de ces défaillances puisse être majeur, la sécurité est souvent considérée comme un problème secondaire dans le processus de développement et est traitée par des approches ad hoc.Cette thèse propose d'intégrer des aspects de sécurité dans le cycle de développement des systèmes d'informatique ubiquitaire. La sécurité est spécifiée à la conception grâce à des déclarations dédiées et de haut niveau. Ces déclarations sont utilisées pour générer un support de programmation afin de faciliter l'implémentation des mécanismes de sécurité, tout en séparant ces aspects de sécurité de la logique applicative. Notre approche se concentre sur le contrôle d'accès aux entités et la protection de la vie privée. Notre travail a été implémenté et fait levier sur une suite outillée existante couvrant le cycle de développement logiciel
A growing number of environments is being populated with a range of networked devices. Applications leverage these devices to support everyday activities in a variety of areas (e.g., home automation and patient monitoring). As these devices and applications get woven into our everyday activities, they become critical: their failure can put people and assets at risk. Failures can be caused by malicious attacks and misbehaving applications. Although the impact of such situations can be major, security concerns are often considered a secondary issue in the development process, and treated with ad hoc approaches. This thesis proposes to address security concerns throughout the development lifecycle of a pervasive computing system. Security is addressed at design time thanks to dedicated, high-level declarations. These declarations are processed to implement security mechanisms, and to generate programming support to ease the development of the security logic, while keeping it separate from the application logic. Our approach is studied in the context of access control and privacy concerns. Our work has been implemented and leverages an existing software-design language and a suite of tools that covers the software development lifecycle
17

Leurent, Edouard. "Apprentissage par renforcement sûr et efficace pour la prise de décision comportementale en conduite autonome". Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I049.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse de doctorat, nous étudions comment des véhicules autonomes peuvent apprendre à garantir la sûreté et à éviter les accidents, bien qu'ils partagent la route avec des conducteurs humains dont les comportements sont incertains. Pour prendre en compte cette incertitude, nous nous appuyons sur les observations en ligne de l'environnement pour construire une région de confiance autour de la dynamique du système, qui est ensuite propagée au cours du temps pour borner l'ensemble des trajectoires possibles des véhicules à proximité. Pour assurer la sûreté en présence de cette incertitude, nous avons recours à la prise de décision robuste, qui préconise de toujours considérer le pire cas. Cette approche garantit que la performance obtenue pendant la planification sera également atteinte sur le système réel, et nous montrons dans une analyse de bout en bout que la sous-optimalité qui en résulte est bornée. Nous en fournissons une implémentation efficace, basée sur des algorithmes de recherche arborescente. Une seconde contribution est motivée par le constat que cette approche pessimiste tend à produire des comportements excessivement prudents : imaginez vouloir dépasser un véhicule, quelle certitude avez-vous que ce dernier ne changera pas de voie au tout dernier moment, provoquant un accident ? Ce type de raisonnement empêche les robots de conduire aisément parmi d'autres conducteurs, de s'insérer sur une autoroute ou de traverser une intersection, un phénomène connu sous le nom de « robot figé ». Ainsi, la présence d'incertitude induit un compromis entre deux objectifs contradictoires : sûreté et efficacité. Comment arbitrer ce conflit ? La question peut être temporairement contournée en réduisant au maximum l'incertitude. Par exemple, nous proposons une architecture de réseau de neurones basée sur de l'attention, qui tient compte des interactions entre véhicules pour améliorer ses prédictions. Mais pour aborder pleinement ce compromis, nous nous appuyons sur la prise de décision sous contrainte afin de considérer indépendamment les deux objectifs de sûreté et d'efficacité. Au lieu d'une unique politique de conduite, nous entrainons toute une gamme de comportements, variant du plus prudent au plus agressif. Ainsi, le concepteur du système dispose d'un curseur lui permettant d'ajuster en temps réel le niveau de risque assumé par le véhicule
In this Ph.D. thesis, we study how autonomous vehicles can learn to act safely and avoid accidents, despite sharing the road with human drivers whose behaviors are uncertain. To explicitly account for this uncertainty, informed by online observations of the environment, we construct a high-confidence region over the system dynamics, which we propagate through time to bound the possible trajectories of nearby traffic. To ensure safety under such uncertainty, we resort to robust decision-making and act by always considering the worst-case outcomes. This approach guarantees that the performance reached during planning is at least achieved for the true system, and we show by end-to-end analysis that the overall sub-optimality is bounded. Tractability is preserved at all stages, by leveraging sample-efficient tree-based planning algorithms. Another contribution is motivated by the observation that this pessimistic approach tends to produce overly conservative behaviors: imagine you wish to overtake a vehicle, what certainty do you have that they will not change lane at the very last moment, causing an accident? Such reasoning makes it difficult for robots to drive amidst other drivers, merge into a highway, or cross an intersection — an issue colloquially known as the “freezing robot problem”. Thus, the presence of uncertainty induces a trade-off between two contradictory objectives: safety and efficiency. How to arbitrate this conflict? The question can be temporarily circumvented by reducing uncertainty as much as possible. For instance, we propose an attention-based neural network architecture that better accounts for interactions between traffic participants to improve predictions. But to actively embrace this trade-off, we draw on constrained decision-making to consider both the task completion and safety objectives independently. Rather than a unique driving policy, we train a whole continuum of behaviors, ranging from conservative to aggressive. This provides the system designer with a slider allowing them to adjust the level of risk assumed by the vehicle in real-time
18

Alqasir, Hiba. "Apprentissage profond pour l'analyse de scènes de remontées mécaniques : amélioration de la généralisation dans un contexte multi-domaines". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSES045.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous présentons notre travail sur la sécurité des télésièges par des techniques d'apprentissage profond dans le cadre du projet Mivao, qui vise à développer un système de vision par ordinateur qui acquiert des images de la station d'embarquement du télésiège, analyse les éléments essentiels et détecte les situations dangereuses. Dans ce scénario, nous avons différents télésièges répartis sur différentes stations de ski, avec une grande diversité de conditions d'acquisition et de géométries . Lorsque le système est installé pour un nouveau télésiège, l'objectif est d'effectuer une analyse de scène précise et fiable, étant donné le manque de données labellisées sur ce télésiège.Dans ce contexte, nous nous concentrons principalement sur le garde-corps du télésiège et proposons de classer chaque image en deux catégories, selon que le garde-corps est fermé ou ouvert. Il s'agit donc d'un problème de classification des images avec trois spécificités : (i) la catégorie d'image dépend d'un petit détail dans un fond encombré, (ii) les annotations manuelles ne sont pas faciles à obtenir, (iii) un classificateur formé sur certains télésièges devrait donner de bons résultats sur un nouveau. Pour guider le classificateur vers les zones importantes des images, nous avons proposé deux solutions : la détection d'objets et les réseaux siamois.Nos solutions sont motivées par la nécessité de minimiser les efforts d'annotation humaine tout en améliorant la précision du problème de la sécurité des télésièges. Cependant, ces contributions ne sont pas nécessairement limitées à ce contexte spécifique, et elles peuvent être appliquées à d'autres problèmes dans un contexte multi-domaine
This thesis presents our work on chairlift safety using deep learning techniques as part of the Mivao project, which aims to develop a computer vision system that acquires images of the chairlift boarding station, analyzes the crucial elements, and detects dangerous situations. In this scenario, we have different chairlifts spread over different ski resorts, with a high diversity of acquisition conditions and geometries; thus, each chairlift is considered a domain. When the system is installed for a new chairlift, the objective is to perform an accurate and reliable scene analysis, given the lack of labeled data on this new domain (chairlift).In this context, we mainly concentrate on the chairlift safety bar and propose to classify each image into two categories, depending on whether the safety bar is closed (safe) or open (unsafe). Thus, it is an image classification problem with three specific features: (i) the image category depends on a small detail (the safety bar) in a cluttered background, (ii) manual annotations are not easy to obtain, (iii) a classifier trained on some chairlifts should provide good results on a new one (generalization). To guide the classifier towards the important regions of the images, we have proposed two solutions: object detection and Siamese networks. Furthermore, we analyzed the generalization property of these two approaches. Our solutions are motivated by the need to minimize human annotation efforts while improving the accuracy of the chairlift safety problem. However, these contributions are not necessarily limited to this specific application context, and they may be applied to other problems in a multi-domain context
19

Lavaud, Gael. "Optimisation robuste appliquée au crash automobile". Ecully, Ecole centrale de Lyon, 2007. http://bibli.ec-lyon.fr/exl-doc/TH_T2092_glavaud.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans ce mémoire, nous abordons le problème de la conception robuste des systèmes complexes par simulations numériques. Nous menons une analyse rigoureuse des cycles de développement utilisés chez RENAULT et proposons des voies d’amélioration concrètes. Ces améliorations tirent leur inspiration de la stratégie FIRST DESIGN basée sur l’Ingénierie Système et le concept de robustesse décliné à toutes les étapes du cycle de développement du produit. Cette approche utilise les nouveaux outils de conception, tant statistiques que de modélisation. Cette stratégie permet d’éviter les coûteuses impasses de conception liées à un mauvais déploiement du cahier des charges. Pour étayer notre discours, deux cas concrets de conception en dynamique rapide sont étudiés. Une des particularités de ce domaine physique est le coût important de chaque simulation, ce qui nécessite la mise en place de stratégies d’économie des simulations. La première application concerne l’optimisation de forme d’un capot pour le choc piéton. Dans ce travail, nous développons un outil générique d’optimisation pour les concepteurs et le mettons en oeuvre pour trouver une forme de capot satisfaisant le cahier des charges. Pour réduire le nombre de simulations, nous proposons également un paramétrage adapté au problème et une stratégie de validation progressive des nouvelles géométries. La seconde application concerne la conception robuste en crash frontal. Les méthodes traditionnelles de conception robuste n’apportant pas complète satisfaction, nous développons une approche originale basée sur l’étude des scénarios de crash. En identifiant les éléments instables de la structure, cette méthode permet de stabiliser le comportement global de la structure en ne reconcevant qu’un minimum de pièces. L’ensemble des outils développés au cours de ces travaux vise à tirer le meilleur parti des nouveaux outils de conception, mais également du savoir faire des concepteurs. Les forts gains en prestation et en délai de conception constatés sur les exemples d’application attestent de la nécessité de remettre en cause l’approche traditionnelle de la conception et d’intégrer les nouveaux outils de conception numériques
This PhD thesis deals with robust design of complex systems with numerical simulations. The analysis of RENAULT design strategy suggests us concrete improvements based on the FIRST DESIGN methodology. This strategy relies on Engineering System ant the concept of robustness applied to all design step of the product. It uses all new design tools, as well statistical as modeling. This strategy allows designers to avoid design resource consuming and time demanding iterations. We use two concrete case study to illustrate our work. These cases take place in the context of costly simulations, that is why we will have to save them. First case study is about shape optimization of a pedestrian hood panel. We develop an industrial optimization tool and use it to find a satisfying shape. To save simulations, we also develop a special parameterization and a progressive validation of new shapes. Second case study is about robust design of a frontal crash. As traditional approaches could not fit our problem, we develop an original strategy based on crash scenarios. This method allows designers to identify unstable structural elements and to stabilize their behavior during the crash in the best conditions. All the tools developed along this work tend to take the best advantage of both new simulations tools and designers experience. Improvements of performance and design time on both cases study prove the interest of modifying the traditional design strategy to incorporate new numerical design tools
20

Maghmoumi, Chadi. "Mise en oeuvre des approches de clusterisation dans les réseaux de communication sans fil". Thesis, Mulhouse, 2010. http://www.theses.fr/2010MULH3083.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous avons proposé une approche de clusterisation distribuée en vue de son application au problème de la gestion de groupes dynamiques et pour la sécurisation des échanges. Pour parvenir à cet objectif, une combinaison de critères permettant de sélectionner les noeuds les plus appropriés pour assurer les fonctionnalités de clusterheads a été défini, cette dernière s'appuie sur une topologie virtuelle avec le moins de sauts possible, en évitant ainsi de gaspiller les ressources dans les retransmissions dûes aux collisions. Une fois l'étape de mise au point de l'approche de clusterisation effectuée, une application pour résoudre le problème de la gestion de groupes dynamiques et la sécurisation des échanges a été réalisée. Les performances de notre approche de clusterisation ont été évaluées en terme de messages échangés et d'énergie dépensée par les noeuds du réseau. Les résultats de cette évaluation montrent que notre approche est performante
The proposed clustering approache divides the network into clusters based on affinity relationships between nodes and two types of keys which are generated by a clusterhead. The first one is shared by a clusterhead and its local members and the second one is shared by the clusterhead and its parent cluster. The proposed algorithm is adaptive according to the limitation of the mobile nodes battery power and to the dynamic network topology changes.The performance evaluation and communication overhead analysis of the proposed algorithm are presented using simulation
21

Selmane, Nidhal. "Attaques en fautes globales et locales sur les cryptoprocesseurs : mise en oeuvre et contremesures". Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00565881.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, Nous présentons différents aspects d'attaques physiques sur les implémentations cryptographiques de l'algorithme de chiffrement AES, ainsi qu'une étude sur les contre-mesures possibles. La première méthode d'injection utilisée est basée sur la violation temps de setup. Nous avons démontré pour la première fois que cette méthode globale permet l'injection de fautes exploitables dans les circuits cryptographiques ASIC et FPGA. On a également réalisé une attaque locale sur un microprocesseur ATmega128 en utilisant un laser. Nous présentons aussi dans cette thèse, une nouvelle approche pour contrer les attaques en fautes basée sur la résilience. La résilience n'impose aucune destruction des secrets dans le cas d'une attaque en faute. Dans une implémentation protégée par résilience, quand une faute est injectée avec succès mais n'a pas de conséquence dans le calcul, le circuit ne présente aucune réaction par contre si le circuit est protégé par un système de détection arrête automatiquement le calcul même si la faute n'a pas d'effet. Dans une implémentation résilience même si la faute est injectée lors du calcul l'attaquant ne peut pas exploiter le résultat a fin d'exécuter une attaque DFA. Plusieurs méthodes concrètes pour mettre en oeuvre la résilience pour les chiffrements symétriques sont proposées, parmi lesquelles un mode aléatoire de fonctionnement qui convient pour des cartes à puce a faible coût. Nous proposons d'utiliser les logiques DPL comme méthode de protection. Ces logiques protègent simultanément contre les attaques par observation et par perturbation, et sont moins coûteux que la détection basée sur les codes
Nowadays, embedded systems and smart cards are part of everyday life. With the proliferation of these devices the need for security increases. In order to meet this demand, cryptographic algorithms are applied. However, even if the algorithms on mobile devices are secure from a cryptanalytical point of view, the secret they use can be revealed by attacking the cryptographic implementation. Indeed an adversary with physical access to the device can benefit from its characteristics or influence its behavior. Methods that observe the activity of a device are considered as passive attacks. In contrast, active attacks try to manipulate the computation and benefit from the erroneous results. These last methods are also called fault injection attacks. This thesis deals with fault attacks. It focuses on practical validations of theoretical attack on symmetric cryptographic algorithm using non-invasive attack. First a new global method to inject fault called setup time violation attack on both ASICs and FPGAs has been studied and carried out on different AES implementations. Then local and semi-invasive optical fault attacks by means of laser beam have been performed on a software implementation. Beside this analysis work, some countermeasures have been investigated. It has been notably shown that Differential with Precharge Logics, already good countermeasure against passive attacks, provide excellent resilience properties against fault attacks. We have demonstrated theoretically and shown practically that information hiding (such as WDDL) makes it difficult to mount fault attacks, since faulty outputs reveal no information about the keys
22

Ouoba, Jonathan. "Communications multi-niveaux sécurisées dans une flotte de terminaux mobiles". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00948990.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les matériels mobiles actuels, et les téléphones mobiles en particulier, sont équipés de différentes technologies sans fil qui augmentent et diversifient leurs capacités de communication. L'utilisation combinée et efficace de ces technologies offre des possibilités variées et accrues en termes de services et d'applications. Néanmoins elle requiert la réalisation d'analyses fines en matières de sécurité et de choix du mode de communication à utiliser en fonction de critères dépendant du contexte : coût énergétique, coût financier, préférences des entités impliquées, préservation de la vie privée, etc. Cette problématique est apparue comme une question clé au sein du projet Smart Urban Spaces dans le cadre duquel s'inscrit cette thèse. Notre contribution à ce projet est la création d'applications collaboratives qui utilisent de façon appropriée la gamme des technologies sans fil disponibles sur les matériels considérés. En d'autres termes, on cherche à utiliser les moyens de transmission les plus appropriés (au sens des critères indiqués plus haut) que deux ou plusieurs équipements mobiles peuvent utiliser pour réaliser leurs échanges, qui plus est, sans que cela ne nécessite de connaître leurs positions respectives. La transparence de la localisation des cibles devient ainsi une règle. On peut synthétiser la question centrale que nous avons choisie d'étudier de la manière suivante : comment faire communiquer un ensemble de terminaux mobiles (des téléphones portables en particulier) de façon sécurisée en utilisant la technologie la plus adaptée en fonction du contexte ? Notre objectif est de proposer une réponse à cette question en définissant une plate-forme multi-niveaux prenant en compte les différentes technologies disponibles sur les équipements considérés. Il s'agit en particulier d'identifier l'ensemble des éléments à prendre en compte dans la conception de la plate-forme, de les modéliser, de développer des applications de référence et de valider la pertinence des solutions proposées par des tests, ainsi que des évaluations qualitatives et quantitatives.
23

Niang, Mohamed. "Vérification formelle et Simulation pour la Validation du système de contrôle commande des EALE (Équipements d'Alimentation des Lignes Électrifiées)". Thesis, Reims, 2018. http://www.theses.fr/2018REIMS021/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La SNCF cherche à mettre en place des solutions innovantes permettant d’améliorer la sécurité et les conditions de travail des chargés d’études lors des travaux d’automatisation. En partant de l’étude théorique du projet jusqu’à sa validation sur site, en passant par la mise en œuvre des programmes, du câblage des armoires, et de leur vérification sur plateforme et en usine, ces différentes tâches s’avèrent souvent être longues, complexes, et répétitives, ce qui a pour effet d’augmenter la charge de travail des chargés d’études. En vue d’améliorer les conditions de travail des chargés d’études, ce projet de recherche vise principalement à améliorer leurs méthodologies de vérification des programmes API (aspects fonctionnels et sécuritaires) et du câblage des armoires électriques. Ce projet intitulé « Vérification formelle et simulation pour la validation des programmes API des EALE » se décompose en deux axes :  la vérification hors ligne des programmes API : basée sur une approche formelle, la méthode s’appuie sur une modélisation de l’installation électrique, des programmes API et du cahier de recette dans le model-checker Uppaal. Le principe consiste à vérifier automatiquement si les programmes satisfont aux tests du cahier de recette.  la vérification en ligne du câblage des armoires de contrôle/commande/ protection grâce à un simulateur de partie opérative interfacé avec les armoires de contrôle/commande/protection (via une armoire de test). La vérification se fera de manière automatique et en ligne, toujours avec les tests du cahier de recette, et permettra de valider le câblage des armoires et les réglages des appareils de protection numérique
In order to keep its leadership in French rail market and to improve working conditions of its systems engineers during automation projects, the SNCF (French acronym for National Society of French Railways) wants to develop solutions increasing the productivity. One of these improvements focuses on the current methodology used by the systems engineers to verify and validate the control command system of electrical installations. This task remains one of the most important during an automation project because it is supposed to ensure installations safety, but it should be optimized. Through an industrial thesis financed by SNCF, the aim of this research project is to improve this method and reduce time validation of control command system by providing tools which will help systems engineers to verify and validate quickly and automatically the control command system during any automation project. It is composed of two axes : - Offline verification of PLC programs with model checking - Online validation of electrical cabinets with virtual commissioning
24

Lacroix, Julien. "Vers un cloud de confiance : modèles et algorithmes pour une provenance basée sur les contrôles d'accès". Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4365.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce document constitue l'aboutissement de trois années de thèse. Après avoir introduit et dégagé la problématique générale se rapportant à mon sujet de thèse, à savoir « comment utiliser les données de provenance pour favoriser un Cloud de confiance ? », je présente une description des concepts, modèles et langages se rapportant à ma thèse et l'état de l'art qui peut répondre en partie à cette problématique. En second lieu, je présente la solution basée sur la provenance que j'apporte aux contrôles d'accès, dans les systèmes distribués comme le Cloud : PBAC². Elle repose sur un système combinant à la fois des modèles de provenance (PROV-DM) et de contrôles d'accès (règles génériques de type RBAC avec des politiques d'embrigadement ou de réglementation). Ce système utilise un moteur d'exécution central appelé le médiateur pour renforcer la sécurité et favoriser la confiance dans le Cloud, via la vérification de règles sur une partie du graphe de provenance rétrospective qu'il a reçue. Par ailleurs, je décris l'étude que j'ai faite de trois extensions de PBAC² : (1) l'intégration de l'ontologie PROV-O et ses avantages et inconvénients quant à la taille du (sous-)graphe de provenance reçu par le médiateur ; (2) la construction de l'adaptation de PBAC² avec l'approche de sécurité qu'est la réglementation; (3) la traduction des règles PBAC² en contraintes PROV-CONSTRAINTS. De plus, PBAC² est appliqué sur un exemple réaliste propre au secteur médical. Un prototype de PBAC² et une démonstration sur des exemples concrets avec une machine locale et un système de Cloud réel illustrent la portée de ce travail. En conclusion de la thèse, je propose quatre perspectives de ce travail
This document is the culmination of three years of thesis. Having introduced and cleared the general issue related to my thesis subject, i.e. « how to use provenance data to enforce trust in the Cloud? », I present a description of the concepts, models and languages related to my thesis and the state of the art that can partially address this issue. Secondly, I present the solution based on provenance that I bring to access controls, in distributed systems such as the Cloud: PBAC². It is based on a system combining both provenance models (PROV-DM) and access controls (generic rules of RBAC type with regimentation and regulation policies). This system uses a central execution engine denoted the mediator to enforce security and foster trust in the Cloud, via rule checking over a part of the retrospective provenance graph it received. Furthermore, I describe the study I made of three PBAC² extensions: (1) the integration of the PROV-O ontology and its pros and cons regarding the size of the (sub)graph received by the mediator; (2) the construction of the PBAC² adaptation with the regulation security approach; (3) the translation of PBAC² rules into PROV CONSTRAINTS constraints. Moreover, PBAC² is applied to a realistic example that belongs to the healthcare sector. A PBAC² prototype and a demonstration on some practical examples with a local machine and a real Cloud system illustrate the scope of this work. In conclusion of the thesis, I propose four perspectives of this work
25

Issoufaly, Taher. "Physical Tracking : menaces, performances et applications". Thesis, La Réunion, 2019. http://www.theses.fr/2019LARE0017/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La récente émergence des smartphones et des objets connectés a révolutionné le mode de vie des utilisateurs. Ces dispositifs ubiquitaires et équipés de plusieurs interfaces sans fil de communication, sont rapidement devenus indispensables dans la vie quotidienne des utilisateurs avec une utilisation intensive. Les interfaces sans fil de ces objets connectés émettent périodiquement des informations, certaines sont spécifiques aux utilisateurs et permettent par effet de bord d’identifier et de suivre leur déplacements. Le suivi des utilisateurs via les informations fortuitement émises par leurs périphériques sans fil se nomme le Wireless Physical Tracking. Les possibilités offertes par le Wireless Physical Tracking ont suscité un fort intérêt. Plusieurs applications se sont développés et ont permis d’apporter de l’innovation dans plusieurs domaines. Des sociétés de marketing l’utilisent afin de proposer à leurs clients de la publicité ciblée en fonction de leurs parcours dans leur zone d’activité. À une échelle plus grande, les villes intelligentes, ou smart-cities analysent le mouvement des utilisateurs afin d’apporter des services pour le confort des habitants. Enfin, dans le domaine de la recherche, les réseaux Ad-Hoc mobiles et autres DTN nécessitent de s’intéresser à cette pratique car l’étude de la mobilité des utilisateurs représentent un élément clé pour améliorer les performances de ce type de réseau. Cependant, la collecte de ces informations sans le consentement des utilisateurs ou sans qu’elles soient correctement protégées représentent un risque réel pour leur vie privée. C’est autour de ce contexte que s’articule cette thèse divisée en deux parties. La première présente les technologies PAN et WAN, l’état de l’art des méthodes de Wireless Physical Tracking et les contre mesures adoptés. La deuxième partie présentent les contributions de la thèse qui visent à proposer de nouvelles méthodes de suivi, analyser les performances de celles-ci face aux méthodes existantes et dans le cas particulier de l’application de crowd-localisation, à proposer des méthodes de suivi respectueuse de la vie privée
The recent rise of smart-phones and connected objects has a deep impact its users lifestyle. In 2017, more than a billion and a half smart-phones were sold around the world. These ubiquitous devices, equipped with several wireless communication interfaces, have quickly become essential in the daily life of users with an intensive use. The wireless interfaces of these connected objects periodically transmit information on the network, some of which are user-specific and allow to identify and track their mobility. Tracking users by collecting the information generated by their wireless devices is called Wireless Physical Tracking. The opportunities offered by the Wireless Physical Tracking raised a lot of interest. Several applications have been developed and have brought innovation in several areas. Marketing companies use it to offer to their customers targeted advertising based on their movements in their area of activity. On a larger scale, Smart Cities or smart-cities analyse the movement of users in order to provide services for their inhabitants. Finally, in the field of research in mobile Ad-Hoc networks and DTNs, users mobility is a key element which need to be collected and analysed. However, the collection of this information without the consent of the users or without being properly protected induce a real risk to their privacy. It is around this context that this thesis is focused on. It’s divided into two parts. The first presents the PAN and WAN technologies, the state of the art of Wireless Physical Tracking methods and the adopted counter measures. The second part presents the contributions of the thesis which aims at developing new methods for Physical Tracking and analysing their performances compared to the existing methods. We first present an evaluate BPM, a bluetooth passive monitoring that allows to track the users of Classic Bluetooth device with a detection delay significantly lower than the methods previously used. We then focus on Bluetooth Low Energy and propose the use of a BLEB, a botnet of users tracking BLE objects with their smart-phones. Finally, we also focus on preserving users privacy through the proposal of PPCL, a privacy preserving crowdlocalisation method which allow to track users assets without being trackable
26

Mtita, Collins. "Lightweight serverless protocols for the internet of things". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2016. http://www.theses.fr/2016TELE0010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les avancées technologiques permettent d'intégrer des capteurs et des modules de communication dans les objets du quotidien pour les rendre intelligents et faciliter leur intégration sur l'Internet. L'Internet du futur sera sans nul doute celui des objets connectés. Les objets connectés génèrent, collectent, stockent et partagent des informations entre eux et aussi avec les serveurs d'authentification centralisés. La plupart des informations collectées doivent être protégées pendant le stockage et le transfert. Par le passé, divers protocoles assurant une sécurité robuste basés sur la cryptographie asymétrique et d’autres sur la cryptographie symétrique ont été proposés dans la littérature. Du fait que les objets connectés possèdent de faibles capacités de calcul, de mémoire et d'énergie, et que l'accès au medium radio est très consommateur en ressources, les protocoles cryptographiques traditionnels ne sont pas adaptés aux objets connectés. Il y a lieu donc d'adapter ou de concevoir des protocoles propres et conformes à leurs exigences. Dans cette thèse, nous abordons les défis de sécurité et de vie privée pertinents aux systèmes pervasifs avec des contraintes de ressources strictes. Nous regardons les protocoles d'authentification serverless, qui sont des mécanismes d'authentification qui ne nécessitent pas la présence du serveur central au cours de la phase d'authentification entre deux objets connectés. Tout d'abord, nous fournissons les caractéristiques et les besoins pour les protocoles serverless. Grâce à ces besoins et caractéristiques, nous avons fait des recherches, des analyses complètes et des comparaisons des protocoles serverless existants en termes de sécurité, de vie privée et de performances. Nous examinons leurs capacités à résister à diverses attaques et leurs aptitudes à minimiser l’usage des ressources. Après quoi, notre objectif est de proposer des protocoles de sécurité serverless permettant aux objets de s’authentifier tout en garantissant efficacité, passage à l’échelle et efficacité énergétique, l'énergie étant une ressource très critique qui a une influence directe sur la durée de vie d’un objet connecté. Trois nouvelles contributions sont proposées dans cette thèse. Notre première contribution est un protocole léger serverless d'authentification mutuelle pour les objets connectés hétérogènes. La première contribution fournit trois avantages par rapport aux protocoles existants. Cette contribution répond aux exigences des systèmes pervasifs. La validation de notre proposition a été faite en utilisant l'outil AVISPA et la validation informelle en utilisant sécurité et de vie privée des jeux. Notre deuxième contribution comprend deux protocoles complémentaires dans le domaine des technologies RFID. Le premier protocole vise à l'authentification de masse entre un lecteur RFID et un groupe d'étiquettes tandis que le deuxième protocole effectue une recherche sécurisée pour une étiquette cible parmi un groupe d'étiquettes dans le voisinage du lecteur. Les deux protocoles proposés tiennent compte des contraintes de ressources des étiquettes RFID. Après une étude approfondie des protocoles serverless, nous avons proposé une troisième contribution, un guide pour la conception des protocoles serverless sécurisé et efficaces pour les systèmes pervasifs. Le guide contient six principes et six meilleures pratiques en vue d'élaborer des protocoles serverless. Le guide est destiné à aider à la conception de protocoles serverless efficaces, sécurisés et simples en évitant des erreurs couramment faites dans les protocoles existants
This thesis addresses the security and privacy challenges relevant to the resource constrained devices in the era of pervasive computing. Pervasive computing, a term coined by Schechter to describe the idea of computing services available anytime, anywhere and on demand, is characterized by seamless interactions between heterogeneous players in the Internet. This phenomenon allows intelligent chips, sensors or microcontrollers to be embedded into everyday objects to enable them generate, communicate and share information. Pervasive computing accelerates technological evolution by integrating small and resource constrained devices to the Internet arena, eventually opening doors to new services requiring seamless interactions and integrations with the existing technologies, infrastructures and services. The nature of the information generated, stored and shared by resource constrained devices may require proper security and privacy guarantees. Towards that end, the classical security solutions are not ideal candidates to solve the security and privacy challenges in pervasive systems for two reasons. First, classical security protocols require a lot of resources from the host devices while most of the pervasive devices have very strict resource constraints. Second, most classical security solutions work in a connected mode, which requires constant communication between devices and centralized servers for authentication and authorization purposes. However, pervasive devices may be working in isolated areas with intermittent network coverage and connectivity. Thus, it is ideal to come up with alternative solutions suitable for heterogeneous pervasive devices to smoothly interact, authenticate and securely share information. One of the suitable alternative solutions is the serverless protocols. The term “serverless protocol” refers to the mechanism of enabling centrally controlled devices to autonomously authenticate one another, or other heterogeneous devices, without an active participation of the centralized authentication or authorization servers. Serverless protocols prioritize on securing proximity communication between heterogeneous devices while optimizing on the little resources available. In this thesis, we tackle the challenges of pervasive systems by proposing lightweight and efficient serverless protocols for authenticating heterogeneous pervasive devices during proximity communication. Our proposed protocols derive their originality from the fact that they do not require the communicating parties to have prior relationships with each other, nor to have any previously shared authentication information with each other. Moreover, our proposed solutions incorporate context information to enforce automatic parameter expiry. This property is not supported by most of the earlier versions of the serverless protocol schemes, hence making them vulnerable to different attacks. Three novel contributions are proposed in this thesis. First, we propose a serverless lightweight mutual authentication protocol for heterogeneous devices. The first contribution includes a formal validation using the AVISPA tool. Second, we propose two complementing protocols using RFID (Radio-Frequency Identification) as a core technology. The first protocol performs mass authentication between an RFID reader and a group of tags and the second protocol performs a secure search for a target tag among a group of tags. The second contribution includes two formal validations; one is done using the AVISPA tool and the other is done using the CryptoVerif tool. After a thorough study of serverless protocols, we propose our third contribution, a concise guide on how to develop secure and efficient serverless protocols relevant to the pervasive systems
27

Bouazzouni, Mohamed Amine. "Processus sécurisés de dématérialisation de cartes sans contact". Phd thesis, Toulouse, INPT, 2017. http://oatao.univ-toulouse.fr/19488/1/BOUAZZOUNI_MohamedAmine.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Au fil des années, la technologie sans contact NFC s'est imposée dans notre quotidien au travers des différents services proposés. Les cas d'utilisation sont nombreux allant des cartes de fidélité, des cartes de transport, des cartes de paiement sans contact jusqu'aux cartes de contrôle d'accès. Cependant, les premières générations des cartes NFC ont une sécurité minimale reposant sur l'hypothèse de leur non-clonabilité. De multiples vulnérabilités ont été découvertes et leur exploitation a permis des copies frauduleuses. Afin de remédier à ces vulnérabilités, une nouvelle génération de cartes à la sécurité augmentée a vu le jour. Ces cartes permettent une authentification avec un lecteur basée sur des algorithmes de chiffrements symétriques tels qu'AES, DES, et 3DES. Elles sont plus robustes que la première génération mais ont subi des également une attaque en reverse-engineering. Pour garantir et améliorer le niveau de sécurité du système de contrôle d'accès, nous proposons dans le cadre de l'opération neOCampus, la dématérialisation sécurisée de la carte sans contact sur un smartphone muni de la technologie NFC. Cette dématérialisation nous permet d'exploiter la puissance de calcul et la capacité de stockage du smartphone afin de déployer des algorithmes d'authentification plus robustes. Cependant, l'OS du smartphone ne peut être considéré comme un environnement de confiance. Afin de répondre à la problématique du stockage et du traitement sécurisés sur un smartphone, plusieurs solutions ont été proposées : les Secure Elements (SE), les Trusted Platform Module (TPM), les Trusted Execution Environment (TEE) et la virtualisation. Afin de stocker et de traiter de manière sécurisée les données d'authentification, le TEE apparait comme la solution idéale avec le meilleur compromis sécurité/performances. Cependant, de nombreux smartphones n'embarquent pas encore de TEE. Pour remédier à cette contrainte, nous proposons une architecture basée sur l'utilisation de TEEs déportés sur le Cloud. Le smartphone peut le contacter via une liaison Wi-Fi ou 4G. Pour se faire, un protocole d'authentification basé sur IBAKE est proposé. En plus de ce scénario nominal, deux autres scenarii complémentaires ont été proposés permettant d'accompagner le développement et la démocratisation des TEE non seulement dans le monde des smartphones mais aussi sur des dispositifs peu onéreux comme le Raspberry Pi 3. Ces architectures déploient le même algorithme d'authentification que le scénario nominal. Nous proposons aussi une architecture hors ligne permettant à un utilisateur de s'authentifier à l'aide d'un jeton de connexion en cas d'absence de réseaux sans fil. Cette solution permet de relâcher la contrainte sur la connectivité du smartphone à son Cloud. Nous procédons à une évaluation de l'architecture de dématérialisation et de l'algorithme d'authentification en terme de performances et de sécurité. Les opérations cryptographiques du protocole d'authentification sont les plus coûteuses. Nous avons alors procédé à leur évaluation en nous intéressant en particulier aux opérations de chiffrement IBE et à la génération de challenges ECC. Nos implémentations ont été évaluées pour l'infrastructure Cloud et l'environnement mobile. Nous avons ensuite procédé à une validation du protocole d'authentification sur les trois architectures sélectionnées à l'aide de l'outil Scyther. Nous avons montré, que pour les trois scenarii, la clé de session négociée via le protocole d'authentification restait secrète durant tout le protocole. Cette caractéristique nous garantit que les données d'authentification chiffrées avec cette clé resteront secrètes et que la phase d'identification de la personne est protégée tout en préservant l'ergonomie du système existant.
28

Chebbi, Emna. "De la modélisation formelle à la simulation à évènements discrets : application à la conception et à l'évaluation de protocoles sûrs et sécurisés pour les communications dans les transports". Thesis, Littoral, 2019. http://www.theses.fr/2019DUNK0538.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La conception de protocoles de communication repose généralement sur des modèles fonctionnels élaborés à partir des besoins du système.Dans les systèmes de transport intelligents (ITS), les fonctionnalités étudiées incluent l’auto-organisation, le routage, la fiabilité, la qualité de service et la sécurité. Les évaluations par simulation sur les protocoles dédiés aux ITS se focalisent sur les performances dans des scénarios spécifiques. Or, l’évolution des transports vers les véhicules autonomes nécessite des protocoles robustes offrant des garanties sur certaines de leurs propriétés. Les approches formelles permettent de fournir la preuve automatique de certaines propriétés, mais pour d’autres il est nécessaire de recourir à une preuve interactive impliquant le savoir d’un Expert. Les travaux menés dans cette thèse poursuivent l’objectif d’élaborer, dans le formalisme DEVS (Discrete Event System Specification), des modèles d’un ITS dont la simulation permettrait d’observer les propriétés, éventuellement vérifiées par une approche formelle, dans un scénario plus large et de générer sur les modèles des données susceptibles d’alimenter une boucle de preuve interactive au lieu d’un Expert. Prenant pour cible le protocole CBL-OLSR (Chain-Branch- Leaf inOptimized Link State Routing), cette thèse montre comment un modèle DEVS et un modèle formel Event-B équivalents peuvent être construits à partir de la même spécification fonctionnelle d’un réseau ad hoc où les nœuds utilisent ce protocole. Des propriétés relatives à la sûreté et à la sécurité sont introduites dans le modèle formel Event-B afin d’être vérifiées, puis une méthodologie est proposée afin de les transférer dans un modèle DEVS équivalent sous forme de contraintes, de choix ou d’observables selon des critères proposés. Enfin, cette thèse ouvre également les perspectives de l’automatisation de ce processus de conception, de l’intégration à la simulation DEVS de données réelles à la fois sur le trafic routier et sur les flux d’applications dédiées aux véhicules, et de l’interaction avec des simulateurs spécialisés pour les différents composants (par exemple MATLAB pour les modèles de propagation, OPNET ou NS3 pour les communications, SUMO pour les modèles de mobilité) ; le but étant une évaluation du protocole dans un contexte très réaliste du système
The design of communication protocols is generally based on functional models developed from the system needs. In Intelligent Transport Systems (ITS), the studied functionalities include self-organization, routing, reliability, quality of service and security. Simulation evaluations of ITS protocols mainly focus on performance in specific scenarios. However, the evolution of transportation towards autonomous vehicles requires robust protocols offering guarantees on some of their properties. Formal approaches make it possible to provide automatic proof of certain properties, but for others it is necessary to use interactive proof involving the knowledge of an Expert. The work carried out in this thesis aims to develop, in the DEVS formalism (Discrete Event System Specification), models of an ITS whose simulation would make it possible to observe the properties, possibly verified by a formal approach, in a broader scenario and to generate data on the models that could feed an interactive proof loop instead of an Expert. Targeting the CBL-OLSR (Chain-Branch-Leaf in Optimized Link State Routing) protocol, this thesis shows how a DEVS model and an equivalent formal Event-B model can be built from the same functional specification of an ad hoc network where nodes use this protocol. Safety and security properties are introduced into the formal Event-B model to be verified, and a methodology is proposed to transfer them to an equivalent DEVS model in the form of constraints, choices or observables according to preproposed criteria. Finally, this thesis also opens up the prospects for automating this design process, integrating real data on both road traffic and vehicle application flows into DEVS simulation, and interacting with specialized simulators for the various components (e. g. MATLAB for propagation models, OPNET or NS3 for communications, SUMO for mobility models); the aim being to evaluate the protocol in a very realistic system context
29

Wang, Bihao. "Geometrical and contextual scene analysis for object detection and tracking in intelligent vehicles". Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2197/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pour les véhicules intelligents autonomes ou semi-autonomes, la perception constitue la première tâche fondamentale à accomplir avant la décision et l’action. Grâce à l’analyse des données vidéo, Lidar et radar, elle fournit une représentation spécifique de l’environnement et de son état, à travers l’extraction de propriétés clés issues des données des capteurs. Comparé à d’autres modalités de perception telles que le GPS, les capteurs inertiels ou les capteurs de distance (Lidar, radar, ultrasons), les caméras offrent la plus grande quantité d’informations. Grâce à leur polyvalence, les caméras permettent aux systèmes intelligents d’extraire à la fois des informations contextuelles de haut niveau et de reconstruire des informations géométriques de la scène observée et ce, à haute vitesse et à faible coût. De plus, la technologie de détection passive des caméras permet une faible consommation d’énergie et facilite leur miniaturisation. L’utilisation des caméras n’est toutefois pas triviale et pose un certain nombre de questions théoriques liées à la façon dont ce capteur perçoit son environnement. Dans cette thèse, nous proposons un système de détection d’objets mobiles basé seule- ment sur l’analyse d’images. En effet, dans les environnements observés par un véhicule intelligent, les objets en mouvement représentent des obstacles avec un risque de collision élevé, et ils doivent être détectés de manière fiable et robuste. Nous abordons le problème de la détection d’objets mobiles à partir de l’extraction du contexte local reposant sur une segmentation de la route. Après transformation de l’image couleur en une image invariante à l’illumination, les ombres peuvent alors être supprimées réduisant ainsi leur influence négative sur la détection d’obstacles. Ainsi, à partir d’une sélection automatique de pixels appartenant à la route, une région d’intérêt où les objets en mouvement peuvent apparaître avec un risque de collision élevé, est extraite. Dans cette zone, les pixels appartenant à des objets mobiles sont ensuite identifiés à l’aide d’une approche plan+parallaxe. À cette fin, les pixels potentiellement mobiles et liés à l’effet de parallaxe sont détectés par une méthode de soustraction du fond de l’image; puis trois contraintes géométriques différentes: la contrainte épipolaire, la contrainte de cohérence structurelle et le tenseur trifocal, sont appliquées à ces pixels pour filtrer ceux issus de l’effet de parallaxe. Des équations de vraisemblance sont aussi proposées afin de combiner les différents contraintes d’une manière complémentaire et efficace. Lorsque la stéréovision est disponible, la segmentation de la route et la détection d’obstacles peuvent être affinées en utilisant une segmentation spécifique de la carte de disparité. De plus, dans ce cas, un algorithme de suivi robuste combinant les informations de l’image et la profondeur des pixels a été proposé. Ainsi, si l’une des deux caméras ne fonctionne plus, le système peut donc revenir dans un mode de fonctionnement monoculaire ce qui constitue une propriété importante pour la fiabilité et l’intégrité du système de perception. Les différents algorithmes proposés ont été testés sur des bases de données d’images publiques en réalisant une évaluation par rapport aux approches de l’état de l’art et en se comparant à des données de vérité terrain. Les résultats obtenus sont prometteurs et montrent que les méthodes proposées sont efficaces et robustes pour différents scénarios routiers et les détections s’avèrent fiables notamment dans des situations ambiguës
For autonomous or semi-autonomous intelligent vehicles, perception constitutes the first fundamental task to be performed before decision and action/control. Through the analysis of video, Lidar and radar data, it provides a specific representation of the environment and of its state, by extracting key properties from sensor data with time integration of sensor information. Compared to other perception modalities such as GPS, inertial or range sensors (Lidar, radar, ultrasonic), the cameras offer the greatest amount of information. Thanks to their versatility, cameras allow intelligent systems to achieve both high-level contextual and low-level geometrical information about the observed scene, and this is at high speed and low cost. Furthermore, the passive sensing technology of cameras enables low energy consumption and facilitates small size system integration. The use of cameras is however, not trivial and poses a number of theoretical issues related to how this sensor perceives its environmen. In this thesis, we propose a vision-only system for moving object detection. Indeed,within natural and constrained environments observed by an intelligent vehicle, moving objects represent high risk collision obstacles, and have to be handled robustly. We approach the problem of detecting moving objects by first extracting the local contextusing a color-based road segmentation. After transforming the color image into illuminant invariant image, shadows as well as their negative influence on the detection process can be removed. Hence, according to the feature automatically selected onthe road, a region of interest (ROI), where the moving objects can appear with a high collision risk, is extracted. Within this area, the moving pixels are then identified usin ga plane+parallax approach. To this end, the potential moving and parallax pixels a redetected using a background subtraction method; then three different geometrical constraints : the epipolar constraint, the structural consistency constraint and the trifocaltensor are applied to such potential pixels to filter out parallax ones. Likelihood equations are also introduced to combine the constraints in a complementary and effectiveway. When stereo vision is available, the road segmentation and on-road obstacles detection can be refined by means of the disparity map with geometrical cues. Moreover, in this case, a robust tracking algorithm combining image and depth information has been proposed. If one of the two cameras fails, the system can therefore come back to a monocular operation mode, which is an important feature for perception system reliability and integrity. The different proposed algorithms have been tested on public images data set with anevaluation against state-of-the-art approaches and ground-truth data. The obtained results are promising and show that the proposed methods are effective and robust on the different traffic scenarios and can achieve reliable detections in ambiguous situations
30

Ferhat, Salim. "Générateurs thermoélectriques imprimés sur substrats souples à base de matériaux hybrides pour des applications autour de la température ambiante". Thesis, Limoges, 2018. http://www.theses.fr/2018LIMO0032/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les dispositifs thermoélectriques, légers et flexibles, peuvent être particulièrement intéressants aujourd’hui dans le contexte de l’émergence de l’informatique ubiquitaire, ainsi que de la crise environnementale liée à la consommation d’énergie électrique. Cependant, beaucoup de problèmes doivent encore être résolus pour rendre les dispositifs de récupération de chaleur commercialement viables. Dans cette thèse nous avons élaboré une méthode de conception et de fabrication par impression jet d’encre de générateurs flexibles à base de semi-conducteurs organiques et hybrides. En premier lieu, les travaux ont été consacrés au développement de matériaux thermoélectriques efficaces, stables et synthétisés par voie liquide. Les stratégies d’optimisation employées reposent sur la modulation de la concentration de porteurs de charge et le contrôle de la morphologie microscopique du matériau. En second lieu, nous avons effectué un travail de conception et de modélisation de dispositifs thermoélectriques ainsi que de leurs paramètres géométriques en utilisant des outils numériques. La modélisation numérique a été réalisée par la méthode des éléments finis 3D et par couplage d’effets physiques multidimensionnels. L’aboutissement de notre projet a été la formulation des matériaux en encres pour la fabrication de générateurs thermoélectriques par la technique de dépôt par impression jet d’encre. Différentes structures et architectures ont été expérimentalement caractérisées et systématiquement comparées aux évaluations numériques. Ainsi, nous présentons une approche intégrale de conception et de fabrication de dispositifs thermoélectriques opérant à des températures proches de l’ambiant
Flexible lightweight printed thermoelectric devices can become particularly interesting with the advent of ubiquitous sensing and within the context of current energy and environmental issues. However, major drawbacks of state of the art thermoelectric materials must be addressed to make waste heat recovery devices commercially feasible. In this PhD thesis, we’ve elaborated and described a method to fabricate optimized, fully inkjetprinted flexible thermoelectric generators based on organic and hybrid semiconductors. This research project can be divided into three stages: First is the development of effective, stable and solution-processed p-type and n-type thermoelectric materials. Our effort in optimizing thermoelectric materials were based on modulation of charge carrier concentration and on control of morphology. Second, design and modeling of thermoelectric devices and their geometric parameters using numerical simulation methods. Numerical simulations were based on a 3D-finite element analysis and simulation software for coupled physical problems to model and design thermoelectric devices. Finally, formulation of materials into ink in order to produce thermoelectric generators by inkjet printing deposition. Various structures and architectures were experimentally characterized and systematically compared to numerical evaluations. Hence, we produced an extensive study on designing and producing thermoelectric devices operating at near ambient temperature and conditions
31

Marchand, Cédric. "Conception de matériel salutaire pour lutter contre la contrefaçon et le vol de circuits intégrés". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES058/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le vol et la contrefaçon touchent toutes les sphères industrielles de nos sociétés. En particulier, les produits électroniques représentent la deuxième catégorie de produits la plus concernée par ces problèmes. Parmi les produits électroniques les plus touchés, on retrouve les téléphones mobiles, les tablettes, les ordinateurs mais aussi des éléments bien plus basiques comme des circuits analogiques ou numériques et les circuits intégrés. Ces derniers sont au coeur de la plupart des produits électroniques et un téléphone mobile peut être considéré comme contrefait s’il possède ne serait-ce qu’un seul circuit intégré contrefait. Le marché de la contrefaçon de circuits intégrés représente entre 7 et 10% du marché total des semi-conducteurs, ce qui implique une perte d’au moins 24 milliards d’euros en 2015 pour les entreprises concevant des circuits intégrés. Ces pertes pourraient s’élever jusqu’à 36 milliards d’euros en 2016. Il est donc indispensable de trouver des solutions pratiques et efficaces pour lutter contre la contrefaçon et le vol de circuits intégrés. Le projet SALWARE, financé par l’Agence Nationale de la Recherche et par la Fondation de Recherche pour l’Aéronautique et l’Espace, a pour but de lutter contre le problème de la contrefaçon et du vol de circuits intégrés et propose l’étude et la conception de matériels salutaires (ou salwares). En particulier, l’un des objectifs de ce projet est de combiner astucieusement plusieurs mécanismes de protection participant à la lutte contre la contrefaçon et le vol de circuits intégrés, pour construire un système d’activation complet. L’activation des circuits intégrés après leur fabrication permet de redonner leur contrôle au véritable propriétaire de la propriété intellectuelle. Dans ce manuscrit de thèse, nous proposons l’étude de trois mécanismes de protection participant à la lutte contre la contrefaçon et le vol de circuits intégrés. Dans un premier temps, nous étudierons l’insertion et la détection de watermarks dans les machines à états finies des systèmes numériques synchrones. Ce mécanisme de protection permet de détecter un vol ou une contrefaçon. Ensuite, une fonction physique non-clonable basée sur des oscillateurs en anneaux dont les oscillations sont temporaires est implantée et caractérisée sur FPGA. Ce mécanisme de protection permet d’identifier un circuit grâce à un identifiant unique créé grâce aux variations du processus de fabrication des circuits intégrés. Enfin, nous aborderons l’implantation matérielle d’algorithmes légers de chiffrement par bloc, qui permettent d’établir une communication sécurisée au moment de l’activation d’un circuit intégré
Counterfeiting and theft affects all industrial activities in our society. Electronic products are the second category of products most concerned by these issues. Among the most affected electronic products, we find mobile phones, tablets, computers as well as more basic elements such as analog and digital circuits or integrated circuits. These are the heart of almost all electronic products and we can say that a mobile phone is counterfeited if it has at least one counterfeit integrated circuit inside. The market of counterfeit integrated circuit is estimated between 7 and 10% of the global semi-conductors market, which represents a loss of at least 24 billion euros for the lawful industry in 2015. These losses could reach 36 billion euros in 2016. Therefore, there is an absolute necessity to find practical and efficient methods to fight against counterfeiting and theft of integrated circuits. The SALWARE project, granted by the French "Agence Nationale de la Recherche" and by the "Fondation de Recherche pour l’Aéronautique et l’Espace", aims to fight against the problem of counterfeiting and theft of integrated circuitsFor that, we propose to design salutary hardwares (salwares). More specifically,we propose to cleverly combine different protection mechanisms to build a completeactivation system. Activate an integrated circuit after its manufacturing helpsto restore the control of integrated circuits to the true owner of the intellectualproperty.In this thesis, we propose the study of three different protection mechanismsfighting against counterfeiting and theft of integrated circuits. First, the insertionand the detection of watermark in the finite state machine of digital and synchronoussystems will be studied. This mechanism helps to detect counterfeit or theftparts. Then, a physical unclonable function based on transcient effect ring oscillatoris implemented and characterized on FPGA. This protection mechanism is used toidentify integrated circuit with a unique identifier created thanks to the extractionof entropy from manufacturing process variations. Finally, we discuss the hardwareimplementations of lightweight block ciphers, which establish a secure communicationduring the activation of an integrated circuit
32

Mtita, Collins. "Lightweight serverless protocols for the internet of things". Thesis, Evry, Institut national des télécommunications, 2016. http://www.theses.fr/2016TELE0010/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les avancées technologiques permettent d'intégrer des capteurs et des modules de communication dans les objets du quotidien pour les rendre intelligents et faciliter leur intégration sur l'Internet. L'Internet du futur sera sans nul doute celui des objets connectés. Les objets connectés génèrent, collectent, stockent et partagent des informations entre eux et aussi avec les serveurs d'authentification centralisés. La plupart des informations collectées doivent être protégées pendant le stockage et le transfert. Par le passé, divers protocoles assurant une sécurité robuste basés sur la cryptographie asymétrique et d’autres sur la cryptographie symétrique ont été proposés dans la littérature. Du fait que les objets connectés possèdent de faibles capacités de calcul, de mémoire et d'énergie, et que l'accès au medium radio est très consommateur en ressources, les protocoles cryptographiques traditionnels ne sont pas adaptés aux objets connectés. Il y a lieu donc d'adapter ou de concevoir des protocoles propres et conformes à leurs exigences. Dans cette thèse, nous abordons les défis de sécurité et de vie privée pertinents aux systèmes pervasifs avec des contraintes de ressources strictes. Nous regardons les protocoles d'authentification serverless, qui sont des mécanismes d'authentification qui ne nécessitent pas la présence du serveur central au cours de la phase d'authentification entre deux objets connectés. Tout d'abord, nous fournissons les caractéristiques et les besoins pour les protocoles serverless. Grâce à ces besoins et caractéristiques, nous avons fait des recherches, des analyses complètes et des comparaisons des protocoles serverless existants en termes de sécurité, de vie privée et de performances. Nous examinons leurs capacités à résister à diverses attaques et leurs aptitudes à minimiser l’usage des ressources. Après quoi, notre objectif est de proposer des protocoles de sécurité serverless permettant aux objets de s’authentifier tout en garantissant efficacité, passage à l’échelle et efficacité énergétique, l'énergie étant une ressource très critique qui a une influence directe sur la durée de vie d’un objet connecté. Trois nouvelles contributions sont proposées dans cette thèse. Notre première contribution est un protocole léger serverless d'authentification mutuelle pour les objets connectés hétérogènes. La première contribution fournit trois avantages par rapport aux protocoles existants. Cette contribution répond aux exigences des systèmes pervasifs. La validation de notre proposition a été faite en utilisant l'outil AVISPA et la validation informelle en utilisant sécurité et de vie privée des jeux. Notre deuxième contribution comprend deux protocoles complémentaires dans le domaine des technologies RFID. Le premier protocole vise à l'authentification de masse entre un lecteur RFID et un groupe d'étiquettes tandis que le deuxième protocole effectue une recherche sécurisée pour une étiquette cible parmi un groupe d'étiquettes dans le voisinage du lecteur. Les deux protocoles proposés tiennent compte des contraintes de ressources des étiquettes RFID. Après une étude approfondie des protocoles serverless, nous avons proposé une troisième contribution, un guide pour la conception des protocoles serverless sécurisé et efficaces pour les systèmes pervasifs. Le guide contient six principes et six meilleures pratiques en vue d'élaborer des protocoles serverless. Le guide est destiné à aider à la conception de protocoles serverless efficaces, sécurisés et simples en évitant des erreurs couramment faites dans les protocoles existants
This thesis addresses the security and privacy challenges relevant to the resource constrained devices in the era of pervasive computing. Pervasive computing, a term coined by Schechter to describe the idea of computing services available anytime, anywhere and on demand, is characterized by seamless interactions between heterogeneous players in the Internet. This phenomenon allows intelligent chips, sensors or microcontrollers to be embedded into everyday objects to enable them generate, communicate and share information. Pervasive computing accelerates technological evolution by integrating small and resource constrained devices to the Internet arena, eventually opening doors to new services requiring seamless interactions and integrations with the existing technologies, infrastructures and services. The nature of the information generated, stored and shared by resource constrained devices may require proper security and privacy guarantees. Towards that end, the classical security solutions are not ideal candidates to solve the security and privacy challenges in pervasive systems for two reasons. First, classical security protocols require a lot of resources from the host devices while most of the pervasive devices have very strict resource constraints. Second, most classical security solutions work in a connected mode, which requires constant communication between devices and centralized servers for authentication and authorization purposes. However, pervasive devices may be working in isolated areas with intermittent network coverage and connectivity. Thus, it is ideal to come up with alternative solutions suitable for heterogeneous pervasive devices to smoothly interact, authenticate and securely share information. One of the suitable alternative solutions is the serverless protocols. The term “serverless protocol” refers to the mechanism of enabling centrally controlled devices to autonomously authenticate one another, or other heterogeneous devices, without an active participation of the centralized authentication or authorization servers. Serverless protocols prioritize on securing proximity communication between heterogeneous devices while optimizing on the little resources available. In this thesis, we tackle the challenges of pervasive systems by proposing lightweight and efficient serverless protocols for authenticating heterogeneous pervasive devices during proximity communication. Our proposed protocols derive their originality from the fact that they do not require the communicating parties to have prior relationships with each other, nor to have any previously shared authentication information with each other. Moreover, our proposed solutions incorporate context information to enforce automatic parameter expiry. This property is not supported by most of the earlier versions of the serverless protocol schemes, hence making them vulnerable to different attacks. Three novel contributions are proposed in this thesis. First, we propose a serverless lightweight mutual authentication protocol for heterogeneous devices. The first contribution includes a formal validation using the AVISPA tool. Second, we propose two complementing protocols using RFID (Radio-Frequency Identification) as a core technology. The first protocol performs mass authentication between an RFID reader and a group of tags and the second protocol performs a secure search for a target tag among a group of tags. The second contribution includes two formal validations; one is done using the AVISPA tool and the other is done using the CryptoVerif tool. After a thorough study of serverless protocols, we propose our third contribution, a concise guide on how to develop secure and efficient serverless protocols relevant to the pervasive systems
33

Angles, Renaud. "V-BPMI : une approche pour la conception, l'organisation et l'adaptation de processus flexibles : Cas d'application : la sécurisation du circuit du médicament au sein de l'AP-HM". Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4344.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La modélisation de processus est, depuis plusieurs années, utilisée en entreprise pour représenter et maîtriser l’organisation et les flux d’informations. Parallèlement, la structure et les besoins des entreprises ont évolué : de plus en plus souvent, les mêmes processus métier sont déployés pour une entreprise donnée mais dans des environnements différents.Les organisations ont donc besoin de modéliser et déployer un même ensemble de processus métier dans des environnements divers tout en les adaptant le mieux possible aux spécificités de chacun de ces environnements.La méthode V BPMI s’inscrit dans cette problématique de la flexibilité des processus. Elle préconise notamment d’adopter une double orientation intentionnelle (en caractérisant formellement un processus par l’objectif qu’il permet d’atteindre) et contextuelle (en décrivant formellement les divers environnements dans lesquels un processus peut être déployé et mis en œuvre de façon pertinente). Cette méthode introduit principalement les concepts de lignes de processus, identifiées par des buts, et de variantes de processus, discriminées par des contextes, afin de supporter la flexibilité. Des opérateurs et un langage de modélisation et d'adaptation de processus, V BPMN, sont également proposés. Par ailleurs deux démarches sont définies pour guider la définition et l'adaptation de processus flexibles. De plus, la méthode s’appuie sur un modèle de connaissances et est supportée par une architecture, V BPME et un prototype.Pratiquement, cette méthode, élaborée dans le cadre d’un partenariat avec l’AP HM au sein du projet PERICLES, a été présentée et testée en collaboration avec des pharmaciens de l’AP HM
Modeling business processes allows enterprises to abstract and understand business workflows from many years. In the same time, business requirements and enterprise behaviors evolved: more and more, business processes are deployed for an organization but in several different environments. Thus, such structures need to model and deploy their business processes in several specific environments and in an adaptive way to care about these specificities. This issue concerns the flexibility of the business processes and their adaptation to the variability of environment in which they are deployed.The V BPMI method considers this purpose of the process flexibility by considering an intentional orientation (with a formal description of the goal a business process reaches) and a contextual orientation (with a formal description of the environment in which it is relevant to deploy and execute an adapted business process). This method introduces the process lines, identified with a business goal, and process variants, discriminated with a formal context, as major concepts for the flexibility support. It introduces too some operators and a process modeling and adaptation language, V BPMN. In addition, two approaches for flexible processes definition and adaptation are proposed. Moreover, the V BPMI method relies on a knowledge model and is supported by an architecture, V BPME, and a software prototype.In fact, this method, developed in collaboration with the AP HM within the PERCILES project, has been introduced and tested with pharmacists, with a focus on the drug circulation process
34

Van, Box Som Annick. "Des sciences humaines aux sciences de l’ingénieur : comportements humains, activités finalisées et conception de systèmes d’assistance à la conduite de véhicules industriels". Thesis, Lyon 2, 2010. http://www.theses.fr/2010LYO20105/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La conduite d’un véhicule industriel est une activité professionnelle complexe qui s’exerce dans un environnement dynamique en constante évolution. Elle nécessite un apprentissage spécifique et se situe dans un cadre réglementaire strict, qui relève aussi bien du code du travail que de la réglementation routière. A ces caractéristiques s’ajoutent de fortes contraintes spatio-temporelles qui imposent aux conducteurs le recours à des stratégies opératoires pour répondre à l’objectif principal de leur activité : le respect des délais de livraison dans des conditions optimales de sécurité, de sûreté et de productivité.Cette thèse traite de l'apport de la psychologie cognitive à la conception de systèmes d'assistance à la conduite de véhicules industriels. Les travaux sont destinés à intégrer, dès la conception des nouveaux systèmes, les contraintes du fonctionnement cognitif humain en situation réelle, ainsi que les besoins et attentes des conducteurs, afin que leur soient proposées des solutions technologiques adaptées et utilisables.La partie appliquée illustre deux dimensions majeures de l'activité de conduite d'un camion : la productivité, au travers de la problématique de l'assistance à l'éco-conduite (projet Conduite Economique Assistée, ADEME- RENAULT TRUCKS) ; la sécurité, au travers de la problématique de l'assistance à la détection et à la protection des usagers vulnérables de la route (projet VIVRE2, ANR-PREDIT05-LUTB).D’un point de vue scientifique, la thèse aboutit à la proposition d’un modèle du fonctionnement humain dans les activités finalisées, complété par un modèle adapté à l’activité de conduite d’un véhicule industriel. Les analyses effectuées en situations réelles enrichissent les connaissances, d’une part, sur les stratégies de conduite appliquées à la conduite rationnelle d’un poids lourd en environnement extra-urbain, et, d’autre part, sur les composantes de l’activité des conducteurs qui effectuent des livraisons en milieu urbain. De plus, les travaux effectués dans le cadre du projet VIVRE2 ont permis de préciser les représentations et les comportements à risque des usagers vulnérables vis-à-vis des camions en ville.D’un point de vue applicatif et ergonomique, les travaux sur simulateur dynamique de conduite ont permis l’évaluation d’une interface homme-machine innovante qui pourrait être adaptée à l’éco-conduite, ainsi que la proposition et l’évaluation de systèmes d’assistance pour garantir la sécurité des usagers vulnérables lors des manœuvres à basse vitesse en milieu urbain
Driving a truck is a complex professional activity that takes place in a dynamic and constant changing environment. It needs a specific learning and it is set in a strict regulated framework including French labour code (Code du travail) as road regulation. Strong spatio-temporal pressure should be added to those characteristics. These constraints entail to drivers the use of operative strategies to achieve the main objective of their activity: respect of delivery time in optimal conditions of safety, security and productivity.This thesis deals with the contribution of cognitive psychology to the design of driving assistance systems for trucks. Works are intended to integrate, from the design of new systems, the demands of human cognitive functioning in real situation and the needs and expectations of drivers so that adapted and usable technological solutions could be proposed to them.Applied part shows two major dimensions of truck driving activity: productivity through the issue of the eco-driving assistance (“Conduite Economique Assistée, ADEME- RENAULT TRUCKS” project) and safety through the issue of the assistance to detection and protection of vulnerable road users (“VIVRE2, ANR-PREDIT05-LUTB” project).From a scientific point of view, the thesis ends with a proposal of a model of human functioning in finalized activities, of which is added an adapted model of the truck driving activity. The analysis performed in real environment enhance knowledge, on the one hand, on the applied driving strategies to the eco-driving of a truck in extra-urban environment and, on the other hand, on the components of the activity of drivers doing deliveries in urban environment. Moreover, works performed in VIVRE2 project allowed to specify representations and risky behaviours of vulnerable users with relation to trucks in town.From an applicative and ergonomic point of view, works on driving dynamic simulator allowed the evaluation of an innovative man-machine interface which could be adapted to eco-driving and the proposal as well as the evaluation of assistance systems to guarantee safety of vulnerable users during low speed manoeuvres in urban environment
35

Zhou, Dingfu. "Vision-based moving pedestrian recognition from imprecise and uncertain data". Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP2162/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La mise en oeuvre de systèmes avancés d’aide à la conduite (ADAS) basée vision, est une tâche complexe et difficile surtout d’un point de vue robustesse en conditions d’utilisation réelles. Une des fonctionnalités des ADAS vise à percevoir et à comprendre l’environnement de l’ego-véhicule et à fournir l’assistance nécessaire au conducteur pour réagir à des situations d’urgence. Dans cette thèse, nous nous concentrons sur la détection et la reconnaissance des objets mobiles car leur dynamique les rend plus imprévisibles et donc plus dangereux. La détection de ces objets, l’estimation de leurs positions et la reconnaissance de leurs catégories sont importants pour les ADAS et la navigation autonome. Par conséquent, nous proposons de construire un système complet pour la détection des objets en mouvement et la reconnaissance basées uniquement sur les capteurs de vision. L’approche proposée permet de détecter tout type d’objets en mouvement en fonction de deux méthodes complémentaires. L’idée de base est de détecter les objets mobiles par stéréovision en utilisant l’image résiduelle du mouvement apparent (RIMF). La RIMF est définie comme l’image du mouvement apparent causé par le déplacement des objets mobiles lorsque le mouvement de la caméra a été compensé. Afin de détecter tous les mouvements de manière robuste et de supprimer les faux positifs, les incertitudes liées à l’estimation de l’ego-mouvement et au calcul de la disparité doivent être considérées. Les étapes principales de l’algorithme sont les suivantes : premièrement, la pose relative de la caméra est estimée en minimisant la somme des erreurs de reprojection des points d’intérêt appariées et la matrice de covariance est alors calculée en utilisant une stratégie de propagation d’erreurs de premier ordre. Ensuite, une vraisemblance de mouvement est calculée pour chaque pixel en propageant les incertitudes sur l’ego-mouvement et la disparité par rapport à la RIMF. Enfin, la probabilité de mouvement et le gradient de profondeur sont utilisés pour minimiser une fonctionnelle d’énergie de manière à obtenir la segmentation des objets en mouvement. Dans le même temps, les boîtes englobantes des objets mobiles sont générées en utilisant la carte des U-disparités. Après avoir obtenu la boîte englobante de l’objet en mouvement, nous cherchons à reconnaître si l’objet en mouvement est un piéton ou pas. Par rapport aux algorithmes de classification supervisée (comme le boosting et les SVM) qui nécessitent un grand nombre d’exemples d’apprentissage étiquetés, notre algorithme de boosting semi-supervisé est entraîné avec seulement quelques exemples étiquetés et de nombreuses instances non étiquetées. Les exemples étiquetés sont d’abord utilisés pour estimer les probabilités d’appartenance aux classes des exemples non étiquetés, et ce à l’aide de modèles de mélange de gaussiennes après une étape de réduction de dimension réalisée par une analyse en composantes principales. Ensuite, nous appliquons une stratégie de boosting sur des arbres de décision entraînés à l’aide des instances étiquetées de manière probabiliste. Les performances de la méthode proposée sont évaluées sur plusieurs jeux de données de classification de référence, ainsi que sur la détection et la reconnaissance des piétons. Enfin, l’algorithme de détection et de reconnaissances des objets en mouvement est testé sur les images du jeu de données KITTI et les résultats expérimentaux montrent que les méthodes proposées obtiennent de bonnes performances dans différents scénarios de conduite en milieu urbain
Vision-based Advanced Driver Assistance Systems (ADAS) is a complex and challenging task in real world traffic scenarios. The ADAS aims at perceiving andunderstanding the surrounding environment of the ego-vehicle and providing necessary assistance for the drivers if facing some emergencies. In this thesis, we will only focus on detecting and recognizing moving objects because they are more dangerous than static ones. Detecting these objects, estimating their positions and recognizing their categories are significantly important for ADAS and autonomous navigation. Consequently, we propose to build a complete system for moving objects detection and recognition based on vision sensors. The proposed approach can detect any kinds of moving objects based on two adjacent frames only. The core idea is to detect the moving pixels by using the Residual Image Motion Flow (RIMF). The RIMF is defined as the residual image changes caused by moving objects with compensated camera motion. In order to robustly detect all kinds of motion and remove false positive detections, uncertainties in the ego-motion estimation and disparity computation should also be considered. The main steps of our general algorithm are the following : first, the relative camera pose is estimated by minimizing the sum of the reprojection errors of matched features and its covariance matrix is also calculated by using a first-order errors propagation strategy. Next, a motion likelihood for each pixel is obtained by propagating the uncertainties of the ego-motion and disparity to the RIMF. Finally, the motion likelihood and the depth gradient are used in a graph-cut-based approach to obtain the moving objects segmentation. At the same time, the bounding boxes of moving object are generated based on the U-disparity map. After obtaining the bounding boxes of the moving object, we want to classify the moving objects as a pedestrian or not. Compared to supervised classification algorithms (such as boosting and SVM) which require a large amount of labeled training instances, our proposed semi-supervised boosting algorithm is trained with only a few labeled instances and many unlabeled instances. Firstly labeled instances are used to estimate the probabilistic class labels of the unlabeled instances using Gaussian Mixture Models after a dimension reduction step performed via Principal Component Analysis. Then, we apply a boosting strategy on decision stumps trained using the calculated soft labeled instances. The performances of the proposed method are evaluated on several state-of-the-art classification datasets, as well as on a pedestrian detection and recognition problem.Finally, both our moving objects detection and recognition algorithms are tested on the public images dataset KITTI and the experimental results show that the proposed methods can achieve good performances in different urban scenarios
36

Phan, Minh Tien. "Estimation of driver awareness of pedestrian for an augmented reality advanced driving assistance system". Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2280/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La réalité augmentée (Augmented Reality ou AR) peut potentiellement changer significativement l’expérience utilisateur. Au contraire les applications sur Smartphone ou tablette, les technologies d’affichage tête haute (Head Up Display ouHUD) aujourd’hui sont capables de projeter localement sur une zone du pare-brise ou globalement sur tout le pare-brise. Le conducteur peut alors percevoir l’information directement dans son champ de vision. Ce ne sont pas que les informations basiques comme vitesse ou navigation, le système peut aussi afficher des aides, des indicateurs qui guident l’attention du conducteur vers les dangers possibles. Il existe alors un chalenge scientifique qui est de concevoir des visualisations d’interactions qui s’adaptent en fonction de l’observation de la scène mais aussi en fonction de l’observation du conducteur. Dans le contexte des systèmes d’alerte de collision avec les piétons (Pedestrian Collision Warning System ou PCWS), l’efficacité de la détection du piéton a atteint un niveau élevé grâce à la technologie de vision. Pourtant, les systèmes d’alerte ne s’adaptent pas au conducteur et à la situation, ils deviennent alors une source de distraction et sont souvent négligés par le conducteur. Pour ces raisons, ce travail de thèse consiste à proposer un nouveau concept de PCWS avec l’AR (nommé the AR-PCW system). Premièrement, nous nous concentrons sur l’étude de la conscience de la situation (Situation Awareness ou SA) du conducteur lorsqu’il y a un piéton présent devant le véhicule. Nous proposons une approche expérimentale pour collecter les données qui représentent l’attention du conducteur vis-à-vis du piéton (Driver Awareness of Pedestrian ou DAP) et l’inattention du conducteur vis-à-vis de celui-ci (Driver Unawareness of Pedestrian ou DUP). Ensuite, les algorithmes basées sur les charactéristiques, les modèles d’apprentissage basés sur les modèles discriminants (ex, Support Vector Machine ou SVM) ou génératifs (Hidden Markov Model ou HMM) sont proposés pour estimer le DUP et le DAP. La décision de notre AR-PCW system est effectivement basée sur ce modèle. Deuxièmement, nous proposons les aides ARs pour améliorer le DAP après une étude de l’état de l’art sur les ARs dans le contexte de la conduite automobile. La boite englobante autour du piéton et le panneau d’alerte de danger sont utilisés. Finalement, nous étudions expérimentalement notre système AR-PCW en analysant les effets des aides AR sur le conducteur. Un simulateur de conduite est utilisé et la simulation d’une zone HUD dans la scène virtuelle sont proposés. Vingt-cinq conducteurs de 2 ans de permis de conduite ont participé à l’expérimentation. Les situations ambigües sont créées dans le scénario de conduite afin d’analyser le DAP. Le conducteur doit suivre un véhicule et les piétons apparaissent à différents moments. L’effet des aides AR sur le conducteur est analysé à travers ses performances à réaliser la tâche de poursuite et ses réactions qui engendrent le DAP. Les résultats objectifs et subjectifs montrent que les aides AR sont capables d’améliorer le DAP défini en trois niveaux : perception, vigilance et anticipation. Ce travail de thèse a été financé sur une bourse ministère et a été réalisé dans le cadre des projets FUI18 SERA et Labex MS2T qui sont financé par le Gouvernement Français, à travers le programme « Investissement pour l’avenir » géré par le ANR (Référence ANR-11-IDEX-0004-02)
Augmented reality (AR) can potentially change the driver’s user experience in significant ways. In contrast of the AR applications on smart phones or tablets, the Head-Up-Displays (HUD) technology based on a part or all wind-shield project information directly into the field of vision, so the driver does not have to look down at the instrument which maybe causes to the time-critical event misses. Until now, the HUD designers try to show not only basic information such as speed and navigation commands but also the aids and the annotations that help the driver to see potential dangers. However, what should be displayed and when it has to be displayed are still always the questions in critical driving context. In another context, the pedestrian safety becomes a serious society problem when half of traffic accidents around the world are among pedestrians and cyclists. Several advanced Pedestrian Collision Warning Systems (PCWS) have been proposed to detect pedestrians using the on-board sensors and to inform the driver of their presences. However, most of these systems do not adapt to the driver’s state and can become extremely distracting and annoying when they detect pedestrian. For those reasons, this thesis focuses on proposing a new concept for the PCWS using AR (so called the AR-PCW system). Firstly, for the «When» question, the display decision has to take into account the driver’s states and the critical situations. Therefore, we investigate the modelisation of the driver’s awareness of a pedestrian (DAP) and the driver’s unawareness of a pedestrian (DUP). In order to do that, an experimental approach is proposed to observe and to collect the driving data that present the DAP and the DUP. Then, the feature-based algorithms, the data-driven models based on the discriminative models (e.g. Support Vector Machine) or the generative models (e.g. Hidden Markov Model) are proposed to recognize the DAP and the DUP. Secondly, for the «What» question, our proposition is inspired by the state-of-the-art on the AR in the driving context. The dynamic bounding-box surrounding the pedestrian and the static danger panel are used as the visual aids. Finally, in this thesis, we study experimentally the benefits and the costs of the proposed AR-PCW system and the effects of the aids on the driver. A fixed-based driving simulator is used. A limited display zone on screen is proposed to simulate the HUD. Twenty five healthy middle-aged licensed drivers in ambiguous driving scenarios are explored. Indeed, the heading-car following is used as the main driving task whereas twenty three pedestrians appear in the circuit at different moment and with different behaviors. The car-follow task performance and the awareness of pedestrian are then accessed through the driver actions. The objective results as well as the subjective results show that the visual aids can enhance the driver’s awareness of a pedestrian which is defined with three levels: perception, vigilance and anticipation. This work has been funded by a Ministry scholarship and was carried out in the framework of the FUI18 SERA project, and the Labex MS2T which is funded by the French Government, through the program ”Investments for the future” managed by the National Agency for Research (Reference ANR-11-IDEX-0004-02)
37

Fakhfakh, Nizar. "Détection et localisation tridimensionnelle par stéréovision d’objets en mouvement dans des environnements complexes : application aux passages à niveau". Thesis, Ecole centrale de Lille, 2011. http://www.theses.fr/2011ECLI0005/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La sécurité des personnes et des équipements est un élément capital dans le domaine des transports routiers et ferroviaires. Depuis quelques années, les Passages à Niveau (PN) ont fait l’objet de davantage d'attention afin d'accroître la sécurité des usagers sur cette portion route/rail considérée comme dangereuse. Nous proposons dans cette thèse un système de vision stéréoscopique pour la détection automatique des situations dangereuses. Un tel système permet la détection et la localisation d'obstacles sur ou autour du PN. Le système de vision proposé est composé de deux caméras supervisant la zone de croisement. Nous avons développé des algorithmes permettant à la fois la détection d'objets, tels que des piétons ou des véhicules, et la localisation 3D de ces derniers. L'algorithme de détection d'obstacles se base sur l'Analyse en Composantes Indépendantes et la propagation de croyance spatio-temporelle. L'algorithme de localisation tridimensionnelle exploite les avantages des méthodes locales et globales, et est composé de trois étapes : la première consiste à estimer une carte de disparité à partir d'une fonction de vraisemblance basée sur les méthodes locales. La deuxième étape permet d'identifier les pixels bien mis en correspondance ayant des mesures de confiances élevées. Ce sous-ensemble de pixels est le point de départ de la troisième étape qui consiste à ré-estimer les disparités du reste des pixels par propagation de croyance sélective. Le mouvement est introduit comme une contrainte dans l'algorithme de localisation 3D permettant l'amélioration de la précision de localisation et l'accélération du temps de traitement
Within the past years, railways undertakings became interested in the assessment of Level Crossings (LC) safety. We propose in this thesis an Automatic Video-Surveillance system (AVS) at LC for an automatic detection of specific events. The system allows automatically detecting and 3D localizing the presence of one or more obstacles which are motionless at the level crossing. Our research aims at developing an AVS using the passive stereo vision principles. The proposed imaging system uses two cameras to detect and localize any kind of object lying on a railway level crossing. The cameras are placed so that the dangerous zones are well (fully) monitored. The system supervises and estimates automatically the critical situations by detecting objects in the hazardous zone defined as the crossing zone of a railway line by a road or path. The AVS system is used to monitor dynamic scenes where interactions take place among objects of interest (people or vehicles). After a classical image grabbing and digitizing step, the processing is composed of the two following modules: moving and stationary objects detection and 3-D localization. The developed stereo matching algorithm stems from an inference principle based on belief propagation and energy minimization. It takes into account the advantages of local methods for reducing the complexity of the inference step achieved by the belief propagation technique which leads to an improvement in the quality of results. The motion detection module is considered as a constraint which allows improving and speeding up the 3D localization algorithm
38

Fortin, Jean-François. "Sensibilisation à la protection de la vie privée dans un contexte d’utilisation de dispositifs portables intelligents". Thèse, 2019. http://hdl.handle.net/1866/22525.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Vai alla bibliografia