Siga este enlace para ver otros tipos de publicaciones sobre el tema: Sécurité numérique.

Tesis sobre el tema "Sécurité numérique"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Sécurité numérique".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Hogue, Simon. "La résistance esthétique à l'assemblage de surveillance de sécurité : l'art numérique comme participation citoyenne". Thesis, Université d'Ottawa / University of Ottawa, 2018. http://hdl.handle.net/10393/38454.

Texto completo
Resumen
La thèse explore la surveillance algorithmique des communications mondiales à travers l’art numérique. Elle examine les projets artistiques à la lumière du moment post-Snowden qui met en évidence l’étroite relation entre la surveillance d’État et la lutte au terrorisme, l’économie numérique, et le droit à la vie privée. Plus spécifiquement, la thèse pose la question de la résistance esthétique à la surveillance déployée par les dispositifs de sécurité occidentaux et à la sécurisation du quotidien. Animée par une réflexion sur le public et la circulation de l’art, la thèse s’intéresse à une communauté d’artistes circulant principalement autour de New York et Berlin. Ces artistes se réapproprient les médias et les artefacts de la culture numérique et explorent la relation technologie-culture-pouvoir pour comprendre et contester les structures de pouvoir associées à ces pratiques de surveillance. L’art numérique propose une cartographie alternative du pouvoir qui éclaire et politise les structures de pouvoir rendues invisibles par le secret d’État et la banalisation des technologies. Il conteste en outre la subjectivité numérique néolibérale et les pratiques de catégorisation sociale pour repenser une collectivité politique égalitaire. La thèse démontre la pertinence de l’art comme avenue de résistance à la surveillance, et propose une nouvelle méthode pour analyser l’art en Relations internationales. Mettant en évidence la complicité volontaire et involontaire des entreprises numériques aux efforts antiterroristes, l’incapacité du droit à la vie privée à protéger les individus contre la surveillance algorithmique des communications mondiales, la liberté d’interprétation des données que s’attribuent les dispositifs de sécurité occidentaux, et l’impératif de visibilité qui accompagne la participation numérique, la thèse montre les limites que cette surveillance impose à la résistance. De là, la thèse suggère à travers les œuvres analysées une avenue de contestation à la fois technologique et collective permettant la mise en place d’une collectivité radicalement égalitaire qui brouille les processus de catégorisation sociale et constitue un espace de dissensus face à la société profilée et sécurisée de la surveillance algorithmique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Jbara, Abdelbasset. "Méthode d'obtention et d'optimisation des principaux paramètres garantissant la sécurité d'une transmission numérique en se fixant l'objectif de sécurité : application aux système de transports". Lille 1, 1993. http://www.theses.fr/1993LIL10060.

Texto completo
Resumen
Certaines erreurs de transmission numérique peuvent être à l'origine de catastrophes importantes. Les canaux de transmission électriques ou électromagnétiques sont de plus en plus affectés par des parasites et perturbations de toutes natures susceptibles de modifier la nature exacte de l'information véhiculée. Pour augmenter l'efficacité de la transmission, une méthode classique consiste à coder les messages. Nous proposons une méthode permettant d'obtenir la distance minimale (d) entre les mots codés et le nombre de bit de contrôle (k) qu'il faut associer afin que le codage obtenu vérifie l'objectif de sécurité (os). Cet objectif de sécurité (os) est le point de départ de la méthode, paramètre que se fixe l'exploitant ainsi que le nombre de messages sécuritaires à transmettre. Bien que cette méthode ne fasse pas intervenir un code particulier, nous la vérifions par un exemple dans le cas des codes générés par un polynôme. Nous proposons ensuite le polynôme générateur optimum qui donnera la marge maximale. L'originalité de ce travail consiste à calculer la probabilité de non-détection d'erreurs réelle du code optimum choisi ainsi que sa capacité de détection des paquets d'erreurs. Nous avons utilisé ces codes de détection d'erreurs pour la sécurité des transmission numériques dans le domaine des transports. Enfin, nous présentons une méthode d'évaluation de la qualité d'une transmission numérique à haut débit
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Coulongeat, François. "Modélisation numérique de l'enfant : application en accidentologie routière". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4000/document.

Texto completo
Resumen
En 2010, 130 enfants ont perdu la vie lors d’un accident sur les routes françaises. Une meilleure connaissance des mécanismes lésionnels lors d’un accident pourrait permettre d’améliorer leur sécurité. Si les modèles de mannequins de crash-test existants permettent d’obtenir certaines informations sur les niveaux d’effort subis localement et sur la cinématique, les modèles numériques par éléments finis peuvent fournir des informations complémentaires sur le comportement des organes internes. Or il n’existe actuellement que très peu de modèles numériques d’enfants. L’objectif de ce projet est de développer et évaluer un modèle éléments finis d’un enfant de 6 ans passager d’un véhicule (FEMOCS6). L’acquisition géométrique de ce modèle a été réalisée à partir d’images scanner d’enfants pour le tronc et la tête et de la mise à l’échelle de géométries d’adultes pour les membres. La géométrie maillée est composée d’environ 390 000 éléments triangulaires et 460 000 éléments tétraédriques. L’étude de la problématique de l’enfant nous a permis de définir certaines hypothèses de modélisation et de déterminer les propriétés mécaniques implémentées dans le modèle. Les propriétés matériaux proviennent en partie de travaux de caractérisation des tissus de l’enfant mais par manque de données la plupart des propriétés sont issues des valeurs de l’adulte. Le comportement mécanique du modèle a ensuite été évalué par la simulation d’essais décrits dans la littérature : impacts, compressions dynamiques et chocs avec utilisation d’un dispositif de retenue. Le modèle évalué pourra alors permettre d’étudier l’efficacité des différents dispositifs de retenue d’enfants existants
130 children died in the French roads in 2010. A better knowledge of the mechanisms of injuries could lead to an improvement of their safety. Crash test dummies provide data on the local forces and on kinematics but finite element models can provide further data on the mechanical behaviour of internal organs. However, few numerical models of children currently exist. The purpose of this project is to develop and assess a finite element whole-body model of a 6 year old child (FEMOCS6). The geometry of this model was provided by medical imaging data of children for the trunk and the head and by a scaling down of an adult geometry for the limbs. Meshed geometry is made up of about 390 000 tria elements and 460 000 tetra elements. The study of the specificities of children led to the definition of modelling hypotheses and of the mechanical properties. Material properties were partly provided by characterizations of paediatric tissues from literature but a lack of data led to the use of adult data for the most of the tissues. The mechanical behaviour of the model was assessed by the numerical simulations of paediatric tests from the literature: impacts, dynamical compression and sled tests with a restraint system. The model could allow to study efficiency of existing child restraint system
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Ould, Moustapha Ahmed Salem. "Etude numérique du développement de panaches thermiques en milieux confinés : application à la sécurité incendie". Paris 6, 2004. http://www.theses.fr/2004PA066255.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

DJILALI, BERKANE LAIEB ZOHRA. "Evaluation numérique d'un coefficient de sécurité cinématique pour les barrages et les ouvrages en terre". Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997GRE10193.

Texto completo
Resumen
Ce memoire presente une etude numerique et cinematique de la stabilite des barrages et des ouvrages en terre. Nous exposons tout d'abord une synthese de formulations des cfficients de securite etablis par les principales methodes anterieures. Nous elaborons ensuite une nouvelle approche de l'analyse de la stabilite des ouvrages en terre pour une forme de rupture circulaire. L'evaluation du cfficient de securite par cette approche ne tient pas compte, comme dans la theorie classique, de scenarios de rupture fictifs (reduction generale de la resistance mecanique du massif du sol), mais de la proximite du champ de vitesse de deplacement calcule par elements finis par rapport au champ de vitesse de deplacement de solide rigide. Cette methode peut se greffer sur un calcul par elements finis et evite la dichotomie entre les calculs en deplacement et les calculs a la rupture. La validation de cette approche se fait tout d'abord en examinant l'influence de la variation de plusieurs parametres (pente, caracteristiques mecaniques et chargement) sur le cfficient de securite cinematique. Les resultats obtenus sont ensuite compares a ceux fournis par les methodes anterieures (classiques et recentes). Nous developpons aussi une extension de l'approche cinematique de la stabilite des ouvrages en terre aux cas de lignes de glissement plus complexes. Les resultats obtenus sont confrontes d'une part a ceux fournis par la procedure cinematique dans le cas d'un glissement circulaire et d'autre part a ceux obtenus par une methode utilisant un scenario d'equilibre limite.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Pérès, Jérémie. "Modélisation numérique de la femme enceinte : Application en accidentologie routière". Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4117.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Randimbiarison, Jérôme. "Signature numérique d'un document basée sur FIDO2". Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66598.

Texto completo
Resumen
En cette ère numérique, l’utilisation des documents papier s’avère peu pratique et inefficace, ce qui motive les sociétés à évoluer vers l’utilisation des documents électroniques (ou e-docs). Ce désir d’innover vers une opération sans papier peut améliorer l’efficacité et la qualité des services d’administrations publiques ou privées de manière à accélérer leurs activités et en même temps mieux satisfaire les besoins des clients. Cependant, cette pratique a créé des nouveaux besoins, tels que la signature numérique réelle de documents. Dans ce mémoire, nous avons proposé un nouveau schéma de signature numérique utilisant FIDO2, qui se trouve être une nouvelle norme d’authentification sécurisée en ligne basée sur la signature numérique. Le fait que FIDO2 soit un standard libre permet aux développeurs de logiciel et de matériel d’implémenter plus facilement leurs propres produits. Cela nous a inspiré à l’utiliser pour une fin de signature numérique, l’idée étant de remplacer le défi envoyé par le serveur avec le hash de e-docs et de l’envoyer à l’appareil du signataire afin que ce dernier signe avec sa clé privée. Comme dans le cas de l’infrastructure à clé publique, chaque utilisateur possédait une paire de clés, c’est-à-dire une clé privée et une clé publique. Un signataire doit confirmer son identification biométrique (empreinte digitale, reconnaissance faciale, voix, etc.) ou son code PIN pour accéder à la clé privée stockée localement sur son appareil et signer un document. Au cours de notre recherche, nous avons effectué plusieurs tests avec différents équipements (PC, USB FIDO, Smartphone) ainsi que différentes OS (Android, iOS, Windows). Les résultats de nos tests nous montrent que nous pouvons utiliser FIDO2 pour signer un document électronique. Cette nouvelle approche proposée peut être utilisée pour une signature face à face (en locale) ou à distance (en ligne). Le prototype développé pour la mise en œuvre de notre approche a été validé auprès d’usagers types (membres clients et conseillers) dans une entreprise.
In this digital era, the use of paper documents is impractical and inefficient, which motivates companies to move towards the use of electronic documents (or e-docs). This desire to innovate towards a paperless operation can improve the efficiency and quality of public or private administration services so as to speed up their activities and at the same time better meet customer needs. However, this practice has created new needs, such as the actual digital signature of documents. In this thesis, we have proposed a new digital signature scheme using FIDO2, which happens to be a new standard for secure online authentication based on digital signatures. The fact that FIDO2 is a free standard makes it easier for software and hardware developers to implement their own products. This inspired us to use it a digital signature purpose, the idea being, to replace the challenge sent by the server with the hash of e-docs and send it to the signer’s device so that the latter signs with his private key. As with public key infrastructure, each user had a key pair, that is, a private key and a public key. A signatory must confirm their biometric identification (fingerprint, facial recognition, voice, etc.) or PIN code to access the private key stored locally on their device and sign a document. During our research, we carried out several tests with different equipment (PC, USB FIDO, Smartphone) as well as different OS (Android, iOS, Windows). The results of our tests show us that we can use FIDO2 to sign an electronic document. This proposed new approach can be used for a face-to-face (local) or remote (online) signature. The prototype developed for the implementation of our approach has been validated with typical users (member-clients and advisers) in a company.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Richard, Paul-Henri. "Crise et ville intelligente au prisme de l'éthique appliquée à la sécurité civile". Thesis, Troyes, 2016. http://www.theses.fr/2016TROY0020/document.

Texto completo
Resumen
L’accompagnement des rythmes sociaux et de la complexité urbaine sont une priorité pour les décideurs. Cependant, les réponses fournies sont soumises à une analyse permanente de l’adéquation entre risque et anticipation. Cette thèse propose une réflexion sur la prise en compte de l’éthique dans les pratiques de gestion de crise. Dans une première partie, un état de l’art du concept nous montre que la « ville intelligente » semble être une réponse séduisante pour le décideur. Elle se développe dans une continuité assurée par une résilience programmée dans la globalité. Or, lorsque ce système basé sur le principe de continuité est remis en cause subitement, la surprise soumet le décideur à une réaction de rupture. La disqualification des services technologiques impose alors de réagir en se référant aux concepts fondamentaux de la socialisation humaine. Recherchée au plus profond de la conscience de l'individu dans le collectif, nous montrons dans une deuxième partie que la rupture se matérialise pour les décideurs sous la forme de dilemmes éthiques. Notre analyse s’appuie sur une mise en perspective de l’éthique des situations extrêmes (conflits, santé), et sur une enquête réalisée auprès de décideurs. Nous mobilisons le concept de culture organisationnelle, appliqué aux acteurs de la sécurité civile ainsi qu’aux organisations ayant mis en œuvre une gouvernance collaborative des risques. Enfin, dans une troisième partie, nous montrons que le questionnement éthique réalisé lors de la phase de préparation est une voie d’anticipation des incertitudes associées à la prise de décision en contexte de crise
The support of the social rhythms and the urban complexity are a priority for the decision-makers. However, the supplied answers are subjected to a permanent analysis of the adequacy between risk and anticipation. This thesis proposes a reflection on the consideration of the ethics in the practices of crisis management. In a first part, a state of the art of the concept shows us that the "smart city" seems to be an attractive answer for the decision-maker. She develops in a continuity assured by a resilience scheduled in the global nature. Yet, when this system based on the principle of continuity is suddenly questioned, the surprise subjects the decision-maker to a reaction of break. The disqualification of the technological services imposes then to react by referring to the fundamental concepts of the human socialization. Looked for in the depths of the consciousness of the individual in the collective, we show in a second part that the break materializes for the decision-makers under the form of ethical dilemmae. Our analysis leans on one put in perspective by the ethics of the extreme situations (conflicts, health), and on an investigation realized with decision-makers. We mobilize the concept of organizational culture, applied to the actors of the civil safety as well as to the organizations having implemented a collaborative governance of the risks. Finally, in the third part, we show that the ethical questioning realized during the phase of preparation is a way of anticipation of the uncertainties associated with the decision-making in context of crisis
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Février, Rémy. "Management de la sécurité des systèmes d'information : les collectivités territoriales face aux risques numériques". Thesis, Paris 2, 2012. http://www.theses.fr/2012PA020025.

Texto completo
Resumen
Cette thèse a pour objectif de répondre à la question suivante : Quel est le niveau de prise en compte de la Sécurité des Systèmes d’Information (SSI) par les collectivités territoriales françaises face aux risques numériques ? Ces dernières étant aujourd’hui confrontées à de nouveaux défis qui nécessitent un recours toujours plus important aux nouvelles technologies (administration électronique, e-démocratie, dématérialisation des appels d’offre…), le management de la sécurité des Systèmes d’Information (SI) territoriaux devient un enjeu majeur -bien qu’encore peu étudié- en matière de service public et de protection des données à caractère personnel. Etablie au travers de postures professionnelles successives et dans le cadre d’une approche naturaliste de la décision, notre modélisation théorique tend à mesurer le niveau réel de prise en compte du risque numérique en partant d’hypothèses fondées sur l’influence respective d’un ensemble de caractéristiques propres aux collectivités territoriales. Il se traduit par une enquête de terrain menée directement auprès de responsables territoriaux. Alors que cet enjeu nécessite une prise de conscience, par les décideurs locaux, de la nécessité de protéger les données qui leur sont confiés, il s’avère que ceux-ci n’ont, au mieux, qu’une connaissance très imparfaite des enjeux et des risques inhérents à la sécurisation d’un SI ainsi que de l’ensemble des menaces, directes ou indirectes, susceptibles de compromettre leur bonne utilisation. Une solution potentielle pourrait résider, simultanément à de la mise en place de procédures adaptées à l’échelon de chaque collectivité, par la définition d’une politique publique spécifique
This doctoral thesis aims at answering a key question: what is the level of consideration given to Information Systems Security (ISS) by the French local authorities (LAs)? The latter are now facing new challenges that require an ever-increasing use of new technologies (e-government, e-democracy, dematerialization of call for tenders...). The under-researched territorial IT risk becomes a major issue in the sphere of public services and the protection of personal data. Theoretically based and constructed through successive professional positions, our theoretical model helps measure the actual level of inclusion of digital risk taking into account the respective influence of a set of characteristics of local authorities. A field survey was conducted with the close collaboration of representatives of LAs.While numerical risk requires a high level awareness by LA decision makers, it appears that they have a very imperfect knowledge of IT security related risks as well as of direct or indirect threats that may jeopardize their management systems. A potential solution lies with the definition of a specific public policy and with the implementation of appropriate procedures at the level of each community
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Moussa, Ali Abdellatif Karim. "Chiffrement authentifié sur FPGAs de la partie reconfigurable à la partie static". Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066660/document.

Texto completo
Resumen
Les systèmes de communication ont besoin d'accéder, stocker, manipuler, ou de communiquer des informations sensibles. Par conséquent, les primitives cryptographiques tels que les fonctions de hachage et le chiffrement par blocs sont déployés pour fournir le cryptage et l'authentification. Récemment, des techniques ont été inventés pour combiner cryptage et d'authentification en un seul algorithme qui est appelé authentifiés Encryption (AE). La combinaison de ces deux services de sécurité dans le matériel de meilleures performances par rapport aux deux algorithmes séparés puisque l'authentification et le cryptage peuvent partager une partie du calcul. En raison de la combinaison de la programmation de l'exécution d'matériel personnalisé, FPGA deviennent plus communs comme cible d'une mise en œuvre de ces algorithmes. La première partie de cette thèse est consacrée aux architectures d'algorithmes AE, AES-GCM et AEGIS-128 à base de FPGA efficaces et à grande vitesse, afin d'être utilisé dans la partie reconfigurable FPGA pour soutenir les services de sécurité des systèmes de communication. Notre focalisation sur l'état de l'art conduit à la mise en place d'architectures à haute vitesse pour les applications lentes touches changeantes comme les réseaux privés virtuels (VPN). En outre, nous présentons un procédé efficace pour mettre en oeuvre le GF($2^{128}$) multiplicateur, qui est responsable de la tâche d'authentification en AES-GCM, pour supporter les applications à grande vitesse. En outre, un système efficace AEGIS-128 est également mis en œuvre en utilisant seulement cinq tours AES. Nos réalisations matérielles ont été évaluées à l'aide Virtex-5 et Virtex-4 FPGA. La performance des architectures présentées (Thr. / Parts) surpasse ceux signalés précédemment.La deuxième partie de la thèse présente des techniques pour des solutions à faible coût afin de garantir la reconfiguration du FPGA. Nous présentons différentes gammes de mises en œuvre à faible coût de AES-GCM, AES-CCM, et AEGIS-128, qui sont utilisés dans la partie statique du FPGA afin de décrypter et authentifier le bitstream FPGA. Architectures ASIC présentées ont été évaluées à l'aide de 90 et 65 technologies nm et présentent de meilleures performances par rapport aux travaux antérieurs
Communication systems need to access, store, manipulate, or communicate sensitive information. Therefore, cryptographic primitives such as hash functions and block ciphers are deployed to provide encryption and authentication. Recently, techniques have been invented to combine encryption and authentication into a single algorithm which is called Authenticated Encryption (AE). Combining these two security services in hardware produces better performance compared to two separated algorithms since authentication and encryption can share a part of the computation. Because of combining the programmability with the performance ofcustom hardware, FPGAs become more common as an implementation target for such algorithms. The first part of this thesis is devoted to efficient and high-speed FPGA-based architectures of AE algorithms, AES-GCM and AEGIS-128, in order to be used in the reconfigurable part of FPGAs to support security services of communication systems. Our focus on the state of the art leads to the introduction of high-speed architectures for slow changing keys applications like Virtual Private Networks (VPNs). Furthermore, we present an efficient method for implementing the GF($2^{128}$) multiplier, which is responsible for the authentication task in AES-GCM, to support high-speed applications. Additionally, an efficient AEGIS-128is also implemented using only five AES rounds. Our hardware implementations were evaluated using Virtex-5 and Virtex-4 FPGAs. The performance of the presented architectures (Thr./Slices) outperforms the previously reported ones.The second part of the thesis presents techniques for low cost solutions in order to secure the reconfiguration of FPGAs. We present different ranges of low cost implementations of AES-GCM, AES-CCM, and AEGIS-128, which are used in the static part of the FPGA in order to decrypt and authenticate the FPGA bitstream. Presented ASIC architectures were evaluated using 90 and 65 nm technologies and they present better performance compared to the previous work
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Jemli, Anissa. "Les rôles des managers dans la formation de leurs collaborateurs : cas de deux entreprises industrielles (automobile et sécurité numérique)". Thesis, Versailles-St Quentin en Yvelines, 2015. http://www.theses.fr/2015VERS019S/document.

Texto completo
Resumen
Dans un contexte économique complexe, l’implication des managers dans la formationde leurs collaborateurs parait importante. Au sein d’un groupe français automobile et d’unemultinationale en sécurité numérique, nous essayons d’identifier les différents rôles desmanagers dans la formation, les effets de ces rôles, les difficultés et enfin les conditionsrequises pour mener à bien ces rôles.Les managers vivent actuellement un malaise et il est certain que leur position lesconfronte à de multiples contraintes. Les activités de travail et de formation se confondent deplus en plus: les activités de travail viennent se placer au coeur de la formation et les activitésde formation investissent les lieux de travail: d’où l’intérêt d’étudier les rôles des managersdans la formation formelle et informelle.Pour répondre à notre objectif de recherche, nous avons eu recours à la méthode derecherche qualitative par des entretiens semi-directifs. Il en est ressorti que les managers sontfortement impliqués dans la formation : de l’animation des sessions de formation, jusqu’ausuivi et transfert des connaissances au quotidien.Notre recherche met l’accent sur les rôles « formateur » du manager dans un contexted’instabilité; en effet, l’implication volontaire des managers à former eux-mêmes leurscollaborateurs peut s’expliquer en grande partie par la complexité du contexte qui exige de lapart des managers d’agir en urgence afin de dépasser les défaillances dues à la lourdeur et à lalenteur des processus de formation formelle
In a complex economic environment, the involvement of managers in training theiremployees seems important. In a French automotive group and a multinational in digitalsecurity, we try to identify the different roles of managers in training, the effects of theseroles, challenges and finally the requirements to carry out these roles.Now, managers live discomfort and it is certain that their position confronts them tomultiple constraints. Work and training activities merge more and more: work activities areplaced at the heart of education and training activities are investing in the workplace: hencethe need to study managers’ roles in the formal and informal training.To answer our research goal, we used the qualitative research method by semistructuredinterviews. It found that managers are heavily involved in training: from animatingtraining sessions until monitoring and knowledge transfer in day to day activities.Our research highlights the “trainer” roles of the manager in a context of instability.Indeed, the personal involvement of managers to train their team can be largely explained bythe complexity of the context that requires from them to act urgently to overcome failures dueto the complexity and the slowness of the formal training process
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Bouchami, Ahmed. "Sécurité des ressources collaboratives dans les réseaux sociaux d'entreprise". Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0091/document.

Texto completo
Resumen
Les réseaux sociaux d’entreprise (RSE) ont révolutionné la collaboration entre les organisations professionnelles. Grâce aux RSEs, les contraintes classiques de mobilité, de procédures compliquées d’échange de services et de manque de flexibilité et de communication en matière de cercles collaboratifs ne sont plus d’actualité. Dans cette thèse, nous avons travaillé sur le projet OpenPaaS RSE. Principalement nous nous sommes focalisés sur la partie gestion du contrôle d’accès, qui nous a conduit vers d’autres besoins, à savoir la gestion des identités numériques et leurs supervisions. Nous avons travaillé en premier lieu sur la gestion de l’authentification des identités numériques au sein de communautés de collaboration regroupant des entreprises hétérogènes en matière de gestion de l’authentification. Pour cela, nous avons proposé une architecture de fédération interopérable en matière de gestion de l’authentification, permettant ainsi à chaque entreprise de préserver son mécanisme d’authentification (propre) et aux acteurs de procéder à une authentification unique. Nous nous sommes ensuite concentrés sur la gestion des accréditations des identités numériques (i.e. contrôle d’accès). Sur cet aspect, nous avons proposé un mécanisme flexible de contrôle d’accès basé sur un ensemble d’attributs identitaires, que nous avons conçu sur la base d’un langage formel fondé sur la logique temporelle Event-Calculus. Nous sommes ainsi en mesure de rendre le partage de ressources fluide et agile, et par ailleurs capables de gérer des autorisations temporaires (i.e. les délégations). La fluidité et l’agilité du partage sont dues au fait que nous avons modélisé notre mécanisme de contrôle d’accès de telle sorte que le partage soit basé principalement sur les acteurs de collaboration (i.e. user-centric), et ce de la manière la plus simple possible. En outre, le formalisme logique nous a permis de vérifier automatiquement la cohérence des politiques notamment celles liées au partage de ressources. Notre système de contrôle d’accès donne aux entreprises le pouvoir de contrôler de manière abstraite les politiques de partage de ressources définies à l’échelle des acteurs, et ce grâce à des politiques fondées sur un mécanisme de gestion du risque qui émane des requêtes externes de demande d’accès. Les politiques basées sur le risque sont combinées avec les politiques de partage. Dans notre mécanisme de gestion du risque, nous nous sommes basés sur les standards liés au risque (définis par le NIST) que nous avons alignés avec des paramètres pertinents pour le contrôle d’accès dans le contexte RSE. Notre gestion dynamique du risque inclut en effet les paramètres suivants : l’importante de chaque ressource collaborative, les vulnérabilités des systèmes d’authentification utilisés pour authentifier les acteurs au sein d’une communauté et la confiance reflétée à travers le comportement de chaque acteur de collaboration. Sur ce dernier aspect de confiance, nous avons procédé à une évaluation de la confiance numérique à travers le cumul de réputations basé sur l’historique d’interactions collaboratives de chaque sujet. Enfin, nous avons développé ces différents modules de sécurité orientés pour le contrôle d’accès dans les environnements collaboratifs socioprofessionnels, et nous les avons intégrés au prototype du RSE OpenPaaS
Enterprise social networks (ESN) have revolutionized collaboration between professional organizations. By means of an ESN, conventional mobility constraints, complex procedures for services exchange and the lack of flexibility and communication are no longer concerns. In this thesis we have worked on the project OpenPaaS ESN. Mainly we focused on the management of the access control, which led us to other needs, namely the management of digital identities and their monitoring. We worked primarily on managing the authentication of digital identities within collaborative communities made of heterogeneous enterprises regarding authentication management systems. For this, we have proposed an interoperable architecture for managing federated authentication, allowing thus each enterprise to preserve its (own) authentication mechanism and each principal to perform a single sign on authentication regarding different enterprises. Further, we focused on the management of digital identities accreditations, i.e. Access Control. On this aspect, we have proposed a flexible access control model based on a set of identity attributes. We developed this model on the basis of a formal language based on temporal logic, namely the Event-Calculus logic. We were thus able to make the sharing of resources fluid and agile, and also able to handle temporary authorizations, i.e. delegations. The fluidity and agility of the shares is due to the user-centric resources’ sharing in a straightforward manner. In addition, the logical formalism has allowed us to automatically check the access control policies consistency. For enterprises, our access control system gives them the ability to control the user-centric sharing policies through policies based on a risk management mechanism, which make our access control mechanism dynamic. The risk mechanism is based on the NIST’s risk definition with an alignment with a set of parameters that include access control in the ESN context. More precisely, the dynamic risk management includes, the collaborative resource’s importance, the authentication system’s vulnerabilities and trust level reflected through the behavior of each collaborative actor. On this latter aspect of trust, we made an evaluation of trust through the computation of reputation scores based on the history of collaborative interactions of each subject of collaboration. Finally, we have implemented all those security modules and integrate them as a prototype into OpenPaaS ESN
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Kouicem, Djamel Eddine. "Sécurité de l’Internet des objets pour les systèmes de systèmes". Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2518.

Texto completo
Resumen
L'internet des objets (IoT) est une nouvelle technologie qui vise à connecter des milliards d'objets physiques à Internet. Ces objets peuvent être engagés dans des relations complexes, notamment la composition et la collaboration avec d'autres systèmes indépendants et hétérogènes, afin de fournir de nouvelles fonctionnalités, conduisant ainsi à ce que l'on appelle les systèmes de systèmes (SoS). Les composants de l'IoT communiquent et collaborent dans des environnements distribués et dynamiques, confrontés à plusieurs problèmes de sécurité de grande ampleur. La sécurité es tconsidérée parmi les enjeux majeurs de l'IoT et soulève des défis liés aux contraintes de capacité de calcul et stockage ainsi que le très grand nombre des objets connectés. Dans cette thèse, nous nous intéressons à l'application des outils cryptographiques ainsi que la technologie blockchain pour résoudre les problèmes de sécurité dans l'IoT, à savoir : l'authentification et la gestion de confiance. Dans un premier lieu, nous nous sommes intéressés au problème du contrôle d'accès distant des actionneurs intelligents utilisant des dispositifs IoT. Pour aborder ce problème, nous avons proposé une solution de contrôle d'accès efficace et à granularité fine, basée sur le mécanisme ABE (Attribute Based Encryption) et des chaînes de hachage. À l'aide d'outils formels d'analyse de sécurité, nous avons démontré la sécurité de notre protocole face aux attaques malveillantes. Dans un deuxième lieu, nous avons abordé le problème d'authentification dans les applications IoT basé sur le paradigme du fog computing. Nous avons proposé un nouveau protocole d'authentification mutuelle efficace qui est basé sur la technologie blockchain et la cryptographie à seuil. Dans notre solution, les objets IoT et les serveurs de fog n'ont besoin que de quelques informations à stocker pour vérifier l'authenticité de chaque objet du système. L’authentification est effectuée seulement sur la bordure du réseau sans passer par des entités externes. Ainsi, la latence et la capacité de stockage sont réduites au minimum. Enfin, dans notre troisième contribution, nous avons proposé un nouveau protocole de gestion de réputation basé sur la technologie blockchain et le fog computing, avec la prise en charge de la mobilité des objets connectés. Notre protocole permet aux objets IoT d'évaluer et de partager avec précision la réputation relative aux autres objets de manière scalable, sans se recourir à une entité de confiance. Nous avons confirmé l'efficacité de notre protocole par des analyses théoriques et des simulations approfondies. Nous avons montré que notre protocole surpasse les solutions existantes,notamment en matière de scalabilité, prise en charge de la mobilité, la communication et le calcul
The Internet of things (IoT) is a new technology that aims to connect billions of physical devices to the Internet. The components of IoT communicate and collaborate between each other in distributed and dynamic environments, which are facing several security challenges. In addition, the huge number of connected objects and the limitation of their resources make the security in IoT very difficult to achieve. In this thesis, we focus on the application of lightweight cryptographic approaches and blockchain technology to address security problems in IoT, namely : authentication and trust management. First, we were interested on some kind of IoT applications where we need to control remotely the execution of smart actuators using IoT devices. To solve this problem, we proposed an efficient and fine-grained access controlsolution, based on the Attribute Based Encryption (ABE) mechanism and oneway hash chains. Using formal security tools, we demonstrated the security of our scheme against malicious attacks. Second, we tackled the problem of authentication in IoT based fog computing environments. Existing authentication techniques do not consider latency constraints introduced in the context of fog computing architecture. In addition, some of them do not provide mutual authentication between devices and fog servers. To overcome these challenges, we proposed a novel, efficient and lightweight mutual authentication scheme based on blockchain technologyand secret sharing technique. We demonstrated the efficiency of our authentication scheme through extensive simulations. The third problem treated in this work is the trust management in IoT. Existing trust management protocols do not meet the new requirements introduced in IoT such as heterogeneity, mobility and scalability. To address these challenges, we proposed a new scalable trust management protocol based on consortium blockchain technology and fog computing paradigm, with mobility support. Our solution allows IoT devices to accurately assess and share trust recommendations about other devices in a scalable way without referring to any pre-trusted entity. We confirmed the efficiency of our proposal through theoretical analysis and extensive simulations. Finally, we showed that our protocol outperforms existing solutions especially in terms of scalability, mobility support, communication and computation
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Choi, Yong-Joon. "Étude numérique 0D-multiD pour l'analyse de perte de réfrigérant dans une enceinte de confinement d'un réacteur nucléaire". Université de Marne-la-Vallée, 2005. http://www.theses.fr/2005MARN0257.

Texto completo
Resumen
Dans le cadre d’accident grave (perte de réfrigérant) de REP, les propriétés thermodynamiques à l’intérieur de l’enceinte résultant de la condensation de la vapeur d’eau conditionnent de manière importante le risque. Il est donc nécessaire de connaître précisément les distributions de température, de pression et de concentrations des espèces gazeuses. Cependant, la complexité des géométries et le coût élevé des calculs sont une forte contrainte pour mener des simulations entièrement 3D. Dans cette thèse, nous présentons donc une approche alternative, à savoir le couplage entre un modèle-0D et un modèle-MultiD. Ce couplage repose sur l’introduction d’une "fonction de transfert " entre les deux modèles et vise à l’abaissement des temps de calcul. En premier lieu, nous étudions les modèles de condensation en paroi d’Uchida et de Chilton-Colburn qui sont utilisés dans le code CAST3M/TONUS. Nous procédons, pour ce faire, à des calculs stationnaires avec le module TONUS-0D et nous comparons les résultats obtenus avec ceux issus de la littérature. Afin d’établir la "fonction de transfert", nous modélisons la convection naturelle au sein d’une cavité rectangulaire partitionnée représentant une géométrie simplifiée de l’enceinte réacteur, et nous étudions les transferts de chaleur au travers de la paroi centrale. Un modèle incompressible avec approximation de Boussinesq et un modèle asymptotique bas Mach sont utilisés pour résoudre les équations de conservation. La méthode des éléments finis SUPG et un schéma implicite sont appliqués pour la discrétisation. La méthode d’extrapolation de Richardson nous permet d’obtenir des valeurs "Exactes" indépendamment des tailles de maillage. Ces méthodes sont validées sur un cas académique de cavité carrée différentiellement chauffée. L’analyse des résultats porte sur les variations du nombre de Nusselt (Nu) en fonction de l’épaisseur de paroi (0. 01 ≤ γ ≤ 0. 2) et du rapport des conductivités entre la paroi et le fluide (1 ≤ σ ≤ 10 [puissance] 5 ). Finalement, nous introduisons une "fonction de transfert" basée sur la résistance thermique de la paroi et nous procédons à sa validation par la simulation d’une ’demi-cavité’
In the case of PWR severe accident (Loss of Coolant Accident, LOCA), the inner containment ambient properties such as temperature, pressure and gas species concentrations due to the released steam condensation are the main factors that determine the risk. For this reason, their distributions should be known accurately, but the complexity of the geometry and the computational costs are strong limitations to conduct full three-dimensional numerical simulations. An alternative approach is presented in this thesis, namely, the coupling between a lumped-parameter model and a CFD. The coupling is based on the introduction of a "heat transfer function" between both models and it is expected that large decreases in the CPU-costs may be achieved. First of all, wall condensation models, such as the Uchida or the Chilton-Colburn models which are implemented in the code CAST3M/TONUS, are investigated. They are examined through steady-state calculations by using the code TONUS-0D, based on lumpedparameter models. The temperature and the pressure within the inner containment are compared with those reported in the archival literature. In order to build the "heat transfer function", natural convection heat transfer is then studied by using the code CAST3M for a partitioned cavity which represents a simplified geometry of the reactor containment. At a first step, two-dimensional natural convection heat transfer without condensation is investigated only. Either the incompressible-Boussinesq fluid flow model or the asymptotic low Mach model are considered for solving the time dependent conservation equations. The SUPG finite element method and the implicit scheme are applied for the numerical discretization. The computed results are qualified by the second-order Richardson extrapolation method which allows obtaining the so-called "Exact values", i. E. Grid size independent values. The computations are also validated through non-partitioned cavity case studies. The discussion is focused on heat transfer characteristics such as the variations of the average Nusselt number (Nu) versus the dimensionless thickness of the partition (0. 01 ≤ γ ≤ 0. 2) and conductivity ratio of the partition wall to the fluid (1 ≤ σ ≤ 10 [puissance] 5 ). Finally, a "heat transfer function" is suggested based upon the thermal resistance of the partition wall. The validity of the model is assessed thanks to comparisons with ’half-cavity’ simulations
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Raffo, Daniele. "Schémas de sécurité pour le protocole OLSR pour les réseaux ad hoc". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2005. http://tel.archives-ouvertes.fr/tel-00010678.

Texto completo
Resumen
Cette thèse examine les problématiques de sécurité liées à la protection du routage dans les réseaux ad hoc (MANETs). La thèse classifie les différentes attaques qui peuvent être portées et examine en détail le cas du protocole OLSR (Optimized Link State Routing). Une architecture de sécurisation basée sur l'ajout d'une signature numérique est étudiée et proposée. D'autres contre-mesures plus élaborées sont également présentées. Ces dernières incluent: la réutilisation d'informations topologiques précédentes pour valider l'état de lien actuel, l'évaluation de la véridicité des messages par analyse croisée avec la position géographique d'un noeud, et la détection des comportements suspects à l'intérieur du réseau par le contrôle de cohérence des flux ou l'écoute passif. La thèse analyse aussi les problèmes pratiques liées à la choix de l'algorithme de signature et la distributions des clés cryptographiques, et propose aussi des parades même en présence de noeuds compromis.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Tano, Bekoin Françis Guillaume. "Etude analytique, numérique et expérimentale du comportement mécanique des systèmes géosynthétiques : application au cas des barrières de sécurité des extensions d'ISDND". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAU053/document.

Texto completo
Resumen
Les géosynthétiques (GSY) sont des matériaux polymériques utilisés dans la construction d’ouvrages géotechniques et environnementaux, en remplacement et/ou en complément de matériaux naturels. Dans les installations de stockage de déchets non dangereux (ISDND), les GSY sont utilisés comme dispositif d’étanchéité et de drainage (barrière de sécurité) afin de prévenir les infiltrations de lixiviats vers la nappe phréatique.De nos jours, la rareté des sites adaptés à la construction de nouvelles ISDND conduit de nombreux opérateurs à opter pour la création de casiers de stockage en appui sur d’anciens casiers. Dans ces ouvrages en rehausse (extensions d’ISDND), une barrière de sécurité est généralement disposée entre les anciens casiers et les nouveaux casiers. Toutefois, dans cette configuration spécifique, les risques d’instabilité au glissement translationnel de l’ouvrage sont favorisés par la présence de plusieurs interfaces GSY représentant autant de surfaces de glissement préférentielles. Par ailleurs, ces risques sont accentués par le caractère compressible des déchets qui favorise l’apparition de tassements différentiels et/ou d’effondrements localisés (formation de cavités) sous la barrière de sécurité, susceptibles d’engendrer une perte d’intégrité (tensions / déformations excessives) de cette dernière. Dès lors, la compréhension des mécanismes associés à ces phénomènes de glissement translationnel et de déformation des GSY apparait capitale pour la réussite d’un tel projet.Dans ce contexte, les travaux objet du présent mémoire de thèse se sont attachés à mieux appréhender le comportement mécanique des systèmes GSY et de leurs interactions. Cette analyse a été effectuée sous l’angle de la stabilité au glissement translationnel (à l’échelle de l’ouvrage : grande échelle) et de l’intégrité structurelle des GSY au sein des barrières de sécurité sur cavité (petite échelle).Pour y parvenir, une analyse multi-approches associant étude analytique, modélisation numérique et étude expérimentale a été mise en oeuvre.Tout d’abord, le volet analytique a porté sur une analyse comparative de dix méthodes utilisées pour l’évaluation de la stabilité au glissement translationnel et de huit méthodes de dimensionnement des GSY de renforcement sur cavité. Ces études comparatives ont permis non seulement d’évaluer les écarts entre ces méthodes, mais aussi d’identifier celles qui se prêtent le mieux à une application en extension d’ISDND.Ensuite, une Méthode Rationnelle de Modélisation des systèmes Géosynthétiques (MeRaMoG) a été développée afin de prendre en compte fidèlement le comportement mécanique des GSY et de leurs interfaces (notamment la non-linéarité du comportement en traction des GSY). Grâce à la MeRaMoG qui a été validée expérimentalement, les mécanismes intervenant et contrôlant les phénomènes de glissement et de déformation des barrières de sécurité sur talus et sur cavité ont été investigués.Enfin, un Dispositif Expérimental grande-échelle pour l’étude de la Performance des GSY de renforcement sur Cavité (DEPGeC) a été développé. Le DEPGeC est un prototype permettant de simuler le comportement mécanique des GSY sur une cavité rectangulaire et sous une contrainte de confinement pouvant atteindre 100 kPa. L’utilisation du DEPGeC a permis d’évaluer l’influence de la contrainte de confinement, de la raideur du GSY de renforcement et d’un ancrage rigide sur les déformations des GSY
Geosynthetics (GSYs) are polymeric materials that are used in engineering and environmental constructions to replace or in addition to natural materials. In landfills, GSYs are used as a lining system to prevent leachate infiltration into groundwater.Nowadays, the scarcity of suitable sites to establish new landfills leads more and more landfill owners to build new landfill cells over older ones. In such type of construction commonly called piggy-back landfill, a new GSY lining system is often implemented between old and new cells. However, in this specific configuration, the risk of translational instability of the construction is increased since the lining system involved several interfaces with low shear strength. Such instability is related to the failure of the various interfaces within the GSY lining system and hence to the sliding of GSY layers on each other. Moreover, the potential occurrence of differential settlements and / or localized collapses (cavity) which are related to the compressible nature of the waste within the old cell could tear (excessive tensile forces / strains) the GSY lining system under the overload of the new waste. Therefore, understanding the mechanisms controlling translational slip phenomena and deformation of GSYs is essential to ensure a proper design of such a project.In this context, this PhD thesis focused on better understanding of the mechanical behaviour of GSY systems and their interactions. The study was conducted using firstly a global analysis (large scale, all over the piggy-back landfill) of the lining system in terms of translational slips between the various GSYs. Secondly, this study investigated the integrity of the GSY lining system subjected to a cavity (small scale analysis).To achieve this goal, a multi-approaches investigation involving analytical study, numerical modelling and experimental study was performed.First, the analytical part focused on a comparative analysis based on ten methods used to assess the factor of safety of translational slip and on eight methods used for the design of GSY reinforcement over cavities. These comparative studies have not only assessed the differences between these methods, but also identified those best suited to be applied in the context of piggy-back landfills.Then, a rigorous method (MeRaMoG) that addressed the key aspects of the mechanical behaviour of GSYs and interfaces (e.g., the nonlinear axial stiffness of GSYs), was developed for the numerical modelling of multi-layered geosynthetic systems. Through MeRaMoG which was experimentally validated, the mechanisms controlling the translational slip and deformation of the geosynthetic lining system on side slopes and cavity were investigated.Finally, a new large-scale testing device (DEPGeC) was developed to assess the efficiency of a GSY reinforcement to bridge a cavity. The DEPGeC is a prototype that was used to simulate the mechanical behaviour of multi-layered GSY systems over a rectangular cavity and under a confining load of up to 100 kPa. Using the DEPGeC, the influence of the applied vertical load, the stiffness of the GSY reinforcement and a perfect anchorage on the deformations of GSY, was investigated
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Zwolinska, Monika. "Sécurité et libertés fondamentales des communications électroniques en droit français, européen et international". Thesis, Nice, 2015. http://www.theses.fr/2015NICE0038/document.

Texto completo
Resumen
L’impact des technologies d'information et de communication est essentiel sur lesdroits de la personne, et en particulier la liberté d'expression et la protection de la vie privée. Les tensions relatives à l’établissement de la frontière entre l’espace public et l’espace privé en ligne se sont exacerbées avec la diffusion de l'informatique et la démocratisation des usages d'Internet, de la téléphonie mobile et, plus récemment, d'autres objets communicants et services numériques. De même, les libertés de s’exprimer, de communiquer et de s’informer sont mises en danger dans la mesure où, sous prétexte de la lutte contre la cybercriminalité et le cyberterrorisme, et dans un but général de maintien de l’ordre public, les autorités publiques interviennent dans les contenus publiés pour les contrôler, surveiller, restreindre ou interdire. Ceci d’autant plus que les capacités - tant des Etats que des acteurs privés - à constituer les bases de données extrêmement précises répertoriant les informations sur les habitudes de consommation, les itinéraires de déplacements ou encore sur les opinions ou pensées des personnes, augmentent progressivement. Ainsi, le besoin de la redéfinition de la manière dont est pris en compte le volet relatif au respect des droits fondamentaux des personnes face à l’environnement numérique devient pressant
The impact of today’s information and communication technologies is essential forthe exercice of human rights, particularly concerning freedom of expression and privacyprotection. With the massive use of Internet, mobile phones and – more recently – other smart objects and digital services, the tension mounts with respect to establishing the limit between public and private space online. Likewise, the freedom of expression, communication and information are at risk as - under the pretext of fighting cybercrime and cyber terrorism, as well as maintaining public order - public authorities interfere with online contents by controlling, monitoring, restraining or prohibiting it. Especially as both States’ and private companies’ capacities in creating extremely precise databases identifying information on persons’ consumption habits, itineraries, thoughts and opinions gradually increase. Therefore, the need to redefine the way in which the respect of fundamental freedoms is taken into consideration in the context of digital environment becomes urgent
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Valea, Emanuele. "Security Techniques for Test Infrastructures". Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS042.

Texto completo
Resumen
Les infrastructures de test sont essentielles pour l'industrie moderne des circuits intégrés. La nécessité de détecter les défauts de fabrication et de prévenir les défaillances des systèmes sur le terrain, rend leur présence inévitable dans chaque circuit intégré et ses sous-modules. Malheureusement, les infrastructures de test représentent également une menace pour la sécurité en raison de la contrôlabilité et de l'observabilité accrues qu'elles offrent généralement sur les circuits internes. Dans cette thèse, nous présentons une analyse complète des menaces existantes et des contre-mesures respectives, en fournissant également une classification et une taxonomie de l'état de l'art. En outre, nous proposons de nouvelles solutions de sécurité, basées sur la cryptographie légère, pour la conception d'infrastructures de test. Toutes les contre-mesures proposées appartiennent à la catégorie des solutions dit de scan encryption et leur but est de garantir la confidentialité des données et l'authentification des utilisateurs. Chaque solution proposée est évaluée en termes de coûts de mise en œuvre et de capacités de sécurité. Les travaux qui ont été réalisés et qui sont présentés dans cette thèse, indiquent que la scan encryption est une solution prometteuse pour garantir une conception sécurisée des infrastructures de test
Test infrastructures are crucial to the modern Integrated Circuits (ICs) industry. The necessity of detecting manufacturing defects and preventing system failures in the field, makes their presence inevitable in every IC and its sub-modules. Unfortunately, test infrastructures also represent a security threat due to the augmented controllability and observability on the IC internals that they typically provide. In this thesis, we present a comprehensive analysis of the existing threats and the respective countermeasures, also providing a classification and a taxonomy of the state-of-the-art. Furthermore, we propose new security solutions, based on lightweight cryptography, for the design of test infrastructures. All proposed countermeasures belong to the category of scan encryption solutions and their purpose is to guarantee data confidentiality and user authentication. Each proposed solution is evaluated in terms of implementation costs and security capabilities. The works that have been carried out and are presented in this thesis, indicate that scan encryption is a promising solution for granting a secure design of test infrastructures
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Fresnel, Harold. "Mise en place d'une méthode d'analyse numérique de la rupture structurale des générateurs de gaz pour airbag en phase de tests destructifs". Lorient, 2008. http://www.theses.fr/2008LORIS100.

Texto completo
Resumen
Le fonctionnement des airbags est soumis à des règles draconiennes de sécurité vis-à-vis des occupants du véhicule. Dans cette étude, le modèle est un tube à paroi mince fermé à ses deux extrémités par des sertis et percé d'orifices pour l'évacuation des gaz de combustion. Avant sa mise sur le marché, le système pyrotechnique subit des essais de validation. Le dernier (burst test) consiste à soumettre la chambre de combustion du générateur de gaz (GG) à des rampes de pression dynamique conduisant à la rupture de la structure. L’objectif est d'optimiser la conception des GG via la simulation numérique afin de rendre plus efficace et moins coûteuse en essais réels la phase de développement. On s’intéresse ici à la réponse dissipative du matériau constituant les GG au cours du burst test induit par un chargement dynamique. On étudie particulièrement Le mode de rupture par endommagement plastique ductile. Pour l’obtention de résultats expérimentaux exploitables, une étude numérique préliminaire est réalisée afin d’optimiser différentes géométries d’éprouvettes courbes (usinées dans un tube) en termes de champs de contraintes et de déformations dans les sections utiles. La campagne expérimentale montre une influence significative de l’écrouissage plastique, de la viscosité ainsi que de l’endommagement plastique ductile. Le modèle GTN est utilisé pour décrire les effets combinés mentionnés précédemment, incluant la germination et la croissance de cavités. Des simulations numériques du burst test sont enfin réalisées à l’aide du code de calcul industriel ABAQUS. La confrontation des résultats numériques et expérimentaux est encourageante concernant la prédiction du modèle
Airbag inflator functioning is submitted to draconian safety rules for vehicle occupants. In this study, the inflator structure is a thin tube closed at both extremities, crimped and perforated with exit ports for combustion gas release. Prior to manufacturing, the pyrotechnic system undergoes validation (burst) tests. The latter consist in putting inflator combustion chamber under various dynamic pressure ramps until structure failure. This work aims at increasing the efficiency and at reducing validation tests number by using numerical simulation. In this work, we are interested in the numerical description of the dissipative response of the inflator material during the burst test induced by dynamic loading. The failure mode under ductile plastic damage is particularly studied. For obtaining reliable experimental results, a preliminary numerical study is carried out for optimising the geometry of curved samples (machined in thin small diameter tubes) regarding strain and stress fields in the gage length. The experimental campaign shows significant influence of strain hardening, plastic viscosity and ductile damage on inflator material behaviour. The GTN damage-plasticity model is used to describe the combined aforementioned effects, including cavity nucleation and growth laws as well as viscous plasticity potential. Numerical simulations considering the validation burst test problem is performed employing the engineering calculation code ABAQUS. Confrontation of numerical results with experimental ones is encouraging concerning prediction ability of the model
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Vincent, Johann. "Identité numérique en contexte Télécom". Phd thesis, Université de Caen, 2013. http://tel.archives-ouvertes.fr/tel-01007682.

Texto completo
Resumen
Avec l'avènement des réseaux électroniques et en particulier d'Internet, de plus en plus de nouveaux services sont apparus. Il est désormais possible de faire ses achats en ligne, de consulter ses comptes en banque, de partager des informations sur les réseaux sociaux ou encore d'héberger ses documents et programmes sur des services sécurisés, les fameux "clouds"... Tous ces services ont conduit à se poser la question d'avec qui ou quoi nous communiquons. Pour répondre à cette interrogation, un nouveau terme, identité numérique a été proposé. Cette identité numérique constitue un enjeu majeur pour un certain nombre d'acteurs et en particulier pour un opérateur de télécommunications. Dans cette thèse, nous proposons d'aborder l'identité numérique en nous intéressant aux deux problématiques que sont la sécurité et la protection de la vie privée. Pour cela, trois contributions sont détaillées à commencer par une méthode d'analyse des systèmes de gestion d'identités (SGI) basée sur une cartographie des acteurs et des fonctions de la gestion d'identités. Nous montrons comment cette dernière peut permettre d'évaluer un système de gestion d'identité vis à vis des deux problématiques. A partir des évaluations réalisées, nous proposons ensuite une deuxième contribution sous la forme d'un système de gestion d'identités novateur centré sur l'utilisateur. Celui-ci met à profit des technologies comme Android, les services Web et les cartes à puces. Enfin, nous proposons un pare-feu sémantique qui protège la vie privée des utilisateurs de smartphone Android en se basant sur des ontologies.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Friot, Nicolas. "Itérations chaotiques pour la sécurité de l'information dissimulée". Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2035/document.

Texto completo
Resumen
Les systèmes dynamiques discrets, œuvrant en itérations chaotiques ou asynchrones, se sont avérés être des outils particulièrement intéressants à utiliser en sécurité informatique, grâce à leur comportement hautement imprévisible, obtenu sous certaines conditions. Ces itérations chaotiques satisfont les propriétés de chaos topologiques et peuvent être programmées de manière efficace. Dans l’état de l’art, elles ont montré tout leur intérêt au travers de schémas de tatouage numérique. Toutefois, malgré leurs multiples avantages, ces algorithmes existants ont révélé certaines limitations. Cette thèse a pour objectif de lever ces contraintes, en proposant de nouveaux processus susceptibles de s’appliquer à la fois au domaine du tatouage numérique et au domaine de la stéganographie. Nous avons donc étudié ces nouveaux schémas sur le double plan de la sécurité dans le cadre probabiliste. L’analyse de leur biveau de sécurité respectif a permis de dresser un comparatif avec les autres processus existants comme, par exemple, l’étalement de spectre. Des tests applicatifs ont été conduits pour stéganaliser des processus proposés et pour évaluer leur robustesse. Grâce aux résultats obtenus, nous avons pu juger de la meilleure adéquation de chaque algorithme avec des domaines d’applications ciblés comme, par exemple, l’anonymisation sur Internet, la contribution au développement d’un web sémantique, ou encore une utilisation pour la protection des documents et des donnés numériques. Parallèlement à ces travaux scientifiques fondamentaux, nous avons proposé plusieurs projets de valorisation avec pour objectif la création d’une entreprise de technologies innovantes
Discrete dynamical systems by chaotic or asynchronous iterations have proved to be highly interesting toolsin the field of computer security, thanks to their unpredictible behavior obtained under some conditions. Moreprecisely, these chaotic iterations possess the property of topological chaos and can be programmed in anefficient way. In the state of the art, they have turned out to be really interesting to use notably through digitalwatermarking schemes. However, despite their multiple advantages, these existing algorithms have revealedsome limitations. So, these PhD thesis aims at removing these constraints, proposing new processes whichcan be applied both in the field of digital watermarking and of steganography. We have studied these newschemes on two aspects: the topological security and the security based on a probabilistic approach. Theanalysis of their respective security level has allowed to achieve a comparison with the other existing processessuch as, for example, the spread spectrum. Application tests have also been conducted to steganalyse and toevaluate the robustness of the algorithms studied in this PhD thesis. Thanks to the obtained results, it has beenpossible to determine the best adequation of each processes with targeted application fields as, for example,the anonymity on the Internet, the contribution to the development of the semantic web, or their use for theprotection of digital documents. In parallel to these scientific research works, several valorization perspectiveshave been proposed, aiming at creating a company of innovative technology
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Kaced, Ahmed Réda. "Problèmes de sécurité posés par les proxies d'adaptation multimédia : proposition de solutions pour une sécurisation de bout-en-bout". Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005883.

Texto completo
Resumen
L'évolution des techniques d'adaptation et des contenus multimédias adaptables a montré la nécessité de définir des techniques et des pratiques concernant la sécurité des échanges sur les réseaux. Dans la mesure où l'adaptation des documents multimédia nécessite d'autoriser la modification de ces documents entre le serveur et le client, il est important d'étudier les conditions nécessaires pour assurer ces modifications de façon sécurisée. Nous avons donc, dans ce cadre, à présenter un système de communication multimédia qui préserve l'authenticité et l'intégrité des contenus originaux de bout en bout tout en permettant l'adaptation de ces contenus par des intermédiaires. C'est l'objectif général de cette thèse. Dans ce mémoire, nous présentons SEMAFOR, une plate-forme de communication multimédia offrant aux utilisateurs la possibilité d'adapter leur contenus (selon les besoins) par des n\oe uds intermédiaires. La particularité de cette plate-forme est sa capacité de sécuriser le contenu émis de bout-en-bout, cette sécurisation repose sur deux mécanismes proposés et décrits dans cette thèse : AMCA pour l'authentification des contenu et XSST pour le chiffrement et rechiffrement intermédiaire. Les tests et les mesures de performances présentés à la fin de ce mémoire démontrent la validité des propositions décrites dans cette thèse et valident la pertinence des résultats obtenus.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Battikh, Dalia. "Sécurité de l’information par stéganographie basée sur les séquences chaotiques". Thesis, Rennes, INSA, 2015. http://www.theses.fr/2015ISAR0013/document.

Texto completo
Resumen
La stéganographie est l’art de la dissimulation de l’information secrète dans un médium donné (cover) de sorte que le médium résultant (stégo) soit quasiment identique au médium cover. De nos jours, avec la mondialisation des échanges (Internet, messagerie et commerce électronique), s’appuyant sur des médiums divers (son, image, vidéo), la stéganographie moderne a pris de l’ampleur. Dans ce manuscrit, nous avons étudié les méthodes de stéganographie LSB adaptatives, dans les domaines spatial et fréquentiel (DCT, et DWT), permettant de cacher le maximum d’information utile dans une image cover, de sorte que l’existence du message secret dans l’image stégo soit imperceptible et pratiquement indétectable. La sécurité du contenu du message, dans le cas de sa détection par un adversaire, n’est pas vraiment assurée par les méthodes proposées dans la littérature. Afin de résoudre cette question, nous avons adapté et implémenté deux méthodes (connues) de stéganographie LSB adaptatives, en ajoutant un système chaotique robuste permettant une insertion quasi-chaotique des bits du message secret. Le système chaotique proposé consiste en un générateur de séquences chaotiques robustes fournissant les clés dynamiques d’une carte Cat 2-D chaotique modifiée. La stéganalyse universelle (classification) des méthodes de stéganographie développées est étudiée. A ce sujet, nous avons utilisé l’analyse discriminante linéaire de Fisher comme classifieur des vecteurs caractéristiques de Farid, Shi et Wang. Ce choix est basé sur la large variété de vecteurs caractéristiques testés qui fournissent une information sur les propriétés de l’image avant et après l’insertion du message. Une analyse des performances des trois méthodes de stéganalyse développées, appliquées sur des images stégo produites par les deux méthodes de stéganographie LSB adaptatives proposées, est réalisée. L’évaluation des résultats de la classification est réalisée par les paramètres: sensibilité, spécificité, précision et coefficient Kappa
Steganography is the art of the dissimulation of a secret message in a cover medium such that the resultant medium (stego) is almost identical to the cover medium. Nowadays, with the globalization of the exchanges (Internet, messaging and e-commerce), using diverse mediums (sound, embellish with images, video), modern steganography is widely expanded. In this manuscript, we studied adaptive LSB methods of stéganography in spatial domain and frequency domain (DCT, and DWT), allowing of hiding the maximum of useful information in a cover image, such that the existence of the secret message in the stégo image is imperceptible and practically undetectable. Security of the message contents, in the case of its detection by an opponent, is not really insured by the methods proposed in the literature. To solve this question, we adapted and implemented two (known) methods of adaptive stéganographie LSB, by adding a strong chaotic system allowing a quasi-chaotic insertion of the bits of the secret message. The proposed chaotic system consists of a generator of strong chaotic sequences, supplying the dynamic keys of a modified chaotic 2D Cat map. Universal steganalysis (classification) of the developed methods of stéganography, is studied. On this question, we used the linear discriminating analysis of Fisher as classifier of the characteristic vectors of Farid, Shi and Wang. This choice is based on the wide variety of tested characteristic vectors that give an information about the properties of the image before and after message insertion. An analysis of the performances of three developed methods of steganalysis, applied to the produced stego images by the proposed adaptive methods of stéganography, is realized. Performance evaluation of the classification is realized by using the parameters: sensibility, specificity, precision and coefficient Kappa
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Ouadghiri, Abdel Hadi. "Sur les conditions d'utilisation des codes détecteurs d'erreurs dans les transmissions numériques nécessitant une sécurité quasi absolue : applications aux systèmes de transports et en particulier aux métros souterrains". Lille 1, 1986. http://www.theses.fr/1986LIL10039.

Texto completo
Resumen
Contribution à l'étude de la sécurité des transmissions numériques utilisant des codes détecteurs d'erreurs. Principe de codes détecteurs d'erreur, notamment des codes linéaire et cyclique. Définition de la sécurité probabiliste dans les transmissions numériques. Conditions d'utilisation de ces codes afin d'atteindre un objectif de sécurité. On utilise ces codes détecteurs erreurs pour la sécurité des transmissions numériques dans les domaines des transports et en particulier des métros souterrains. La 1ère application concerne la transmission des commandes des portes d'une rame de métro, à la transmission sol-véhicules en tunnel
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Robin, Jean-Nicolas. "La matière pénale à l'épreuve du numérique". Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1G035/document.

Texto completo
Resumen
Il semble aujourd'hui possible de considérer que le numérique et le cyberespace ont complètement changé les rapports de force dans notre société moderne. En se numérisant, la société permet à ses membres un accès quasi illimité et instantané à des millions de ressources et données. Par ailleurs, il facilite largement les relations personnelles et professionnelles entre les individus. Si le numérique peut être présenté comme une véritable révolution, celui-ci expose son utilisateur à de nouvelles vulnérabilités, à de nouveaux risques. Le droit pénal, en ce qu'il régit la société et choisit les valeurs sociales à protéger, s'est donc intéressé au développement du numérique et à ses conséquences. La présente étude constate un arsenal législatif étendu pour lutter le plus efficacement possible contre la délinquance numérique. Néanmoins, l'analyse observe qu'il existe de nombreux obstacles à l'application du droit pénal au cyberespace en raison des particularités liées aux réseaux. La délinquance numérique n'est, en outre, pas la seule menace générée par le numérique, puisque désormais, il est possible de parler du cyberespace comme d'un nouvel espace de confrontation. Ainsi, à la délinquance numérique s'ajoute la menace militaire puisque les États investissent les réseaux par la mise en place d'armes numériques. Il s'agit alors de s'interroger sur la pertinence de ces choix étatiques et sur les solutions permettant d'accentuer la lutte contre la délinquance numérique
Today, it seems possible to consider that digital technology and cyberspace have completely changed the balance of power in our modern society. By digitizing, the society gives its members almost unlimited access to millions of resources and data. Digital technology also facilitates personal and professional relationships between individuals. If digital technology can be presented as a real revolution, it exposes its user to new vulnerabilities and risks. The criminal law, insofar as it governs society and chooses the social values to be protected, has therefore been concerned with the development of digital technology. The present study notes the extensive legislative arsenal for fighting in the most effective manner against digital delinquency. Nevertheless, the analysis observes that many obstacles are against the application of criminal law into the cyberspace because of networks particularities. Moreover, digital crime is not the only threat generated by digital technology, since it is now possible to consider the cyberspace as a new space for confrontation. Thus, military threat is added to digital delinquency as the States set up electronics weapons into networks. Then, the arised question is about the relevance of these state choices and the solutions to intensify the fight against digital delinquency
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Akrout, Ali. "Modélisation numérique du comportement vibro-acoustique des systèmes doubles vitrages feuilletés". Compiègne, 2008. http://www.theses.fr/2008COMP1792.

Texto completo
Resumen
L'objectif de ce travail de recherche est le développement d'une approche par éléments finis pour la modélisation de la transparence acoustique des systèmes double vitrages feuilletés. Une synthèse des travaux de recherche sur le comportement vibro-acoustique des systèmes doubles parois et sur les approches numériques de résolution des problèmes de transparence acoustique d'un système couplé fluide-structure est présentée. L'étude du comportement dynamique des plaques feuilletées a permis d'élaborer un modèle de feuilletage à base d'un film ultra-mince. De plus, un modèle dynamique d'un joint de fixation d'un système double vitrage a été élaboré en se basant sur le comportement viscoélastique des matériaux polymères. Le fluide d'un système double vitrage peut être parfait ou thermovisqueux. Par conséquent, une formulation mathématique pour un fluide thermovisqueux a été établie ce qui a conduit à une équation dynamique bidimensionnelle. La discrétisation par éléments finis de la fonctionnelle d'énergie d'un système double paroi feuilleté a conduit après minimisation à l'écriture de l'équation dynamique du système couplé qui présente un aspect de non linéarité exigeant le développement d'une approche modale itérative pour sa résolution. L'étude du problème de rayonnement acoustique d'un système double vitrage feuilleté excité par une pression extérieure appliquée sur le premier vitrage a montré par le calcul du facteur de perte par transmission (TL), l'efficacité du système double paroi feuilletée en isolation acoustique. Les résultats numériques ont montré l'importance de la prise en compte du cisaillement inter-facial d'un film ultra-mince. De plus, une grande capacité d'atténuation des amplitudes de vibrations du système double paroi feuilletée étudié est remarquée due à la prise en compte des effets viscothermiques d'une couche mince d'air qui engendrent un amortissement considérable
The main objective of this work is to develop a finite element approach for the modelization of the laminated double glazing acoustic transparency. A literature review study on both laminated double glazing vibro-acoustic behaviour and numerical resolution approach of fluid structure coupled system is presented. The study of laminated dynamical behaviour allows developing a new laminate model including an ultra-thin film at the skin's interface. Furthermore, based on the viscoelastic behaviour of polymer materials, a dynamic model of the double glazing clamping joint can be investigated. Also, a mathematical model for a thin viscothermal fluid cavity is established and allows obtaining a dimensional dynamic equation. The discretization of the energy functional by finite elements method gives after minimization a non linear symetrical coupled matrix system requiring the development of an iterative model approach for its resolution. The study of the acoustic radiation problem in the case of laminated double glazing system excited by harmonic uniform normal external pressure applied on the first plate shows, via the calculation of the transmission (TL) of the coupled system, the efficiency of the laminated double glazing on the acoustic insulation. Numerical results showed the reduced vibration's amplitude of a laminated glass with ultra-thin film compared to the one without taking into account the shear interfacial stress and the importance of viscothermal fluid effects on double glazing vibroacoustic behaviour
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Moussa, Ali Abdellatif Karim. "Chiffrement authentifié sur FPGAs de la partie reconfigurable à la partie static". Electronic Thesis or Diss., Paris 6, 2014. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2014PA066660.pdf.

Texto completo
Resumen
Les systèmes de communication ont besoin d'accéder, stocker, manipuler, ou de communiquer des informations sensibles. Par conséquent, les primitives cryptographiques tels que les fonctions de hachage et le chiffrement par blocs sont déployés pour fournir le cryptage et l'authentification. Récemment, des techniques ont été inventés pour combiner cryptage et d'authentification en un seul algorithme qui est appelé authentifiés Encryption (AE). La combinaison de ces deux services de sécurité dans le matériel de meilleures performances par rapport aux deux algorithmes séparés puisque l'authentification et le cryptage peuvent partager une partie du calcul. En raison de la combinaison de la programmation de l'exécution de matériel personnalisé, FPGA deviennent plus communs comme cible d'une mise en œuvre de ces algorithmes. La première partie de cette thèse est consacrée aux architectures d'algorithmes AE, AES-GCM et AEGIS-128 à base de FPGA efficaces et à grande vitesse, afin d'être utilisé dans la partie reconfigurable FPGA pour soutenir les services de sécurité des systèmes de communication. Notre focalisation sur l'état de l'art conduit à la mise en place d'architectures à haute vitesse pour les applications lentes touches changeantes comme les réseaux privés virtuels (VPN). En outre, nous présentons un procédé efficace pour mettre en œuvre le GF(2¹²⁸) multiplicateur, qui est responsable de la tâche d'authentification en AES-GCM, pour supporter les applications à grande vitesse. En outre, un système efficace AEGIS-128 est également mis en œuvre en utilisant seulement cinq tours AES. Nos réalisations matérielles ont été évaluées à l'aide Virtex-5 et Virtex-4 FPGA. La performance des architectures présentées (Thr. / Parts) surpasse ceux signalés précédemment. La deuxième partie de la thèse présente des techniques pour des solutions à faible coût afin de garantir la reconfiguration du FPGA. Nous présentons différentes gammes de mises en œuvre à faible coût de AES-GCM, AES-CCM, et AEGIS-128, qui sont utilisés dans la partie statique du FPGA afin de décrypter et authentifier le bitstream FPGA. Architectures ASIC présentées ont été évaluées à l'aide de 90 et 65 technologies nm et présentent de meilleures performances par rapport aux travaux antérieurs
Communication systems need to access, store, manipulate, or communicate sensitive information. Therefore, cryptographic primitives such as hash functions and block ciphers are deployed to provide encryption and authentication. Recently, techniques have been invented to combine encryption and authentication into a single algorithm which is called Authenticated Encryption (AE). Combining these two security services in hardware produces better performance compared to two separated algorithms since authentication and encryption can share a part of the computation. Because of combining the programmability with the performance ofcustom hardware, FPGAs become more common as an implementation target for such algorithms. The first part of this thesis is devoted to efficient and high-speed FPGA-based architectures of AE algorithms, AES-GCM and AEGIS-128, in order to be used in the reconfigurable part of FPGAs to support security services of communication systems. Our focus on the state of the art leads to the introduction of high-speed architectures for slow changing keys applications like Virtual Private Networks (VPNs). Furthermore, we present an efficient method for implementing the GF(2¹²⁸) multiplier, which is responsible for the authentication task in AES-GCM, to support high-speed applications. Additionally, an efficient AEGIS-128is also implemented using only five AES rounds. Our hardware implementations were evaluated using Virtex-5 and Virtex-4 FPGAs. The performance of the presented architectures (Thr./Slices) outperforms the previously reported ones.The second part of the thesis presents techniques for low cost solutions in order to secure the reconfiguration of FPGAs. We present different ranges of low cost implementations of AES-GCM, AES-CCM, and AEGIS-128, which are used in the static part of the FPGA in order to decrypt and authenticate the FPGA bitstream. Presented ASIC architectures were evaluated using 90 and 65 nm technologies and they present better performance compared to the previous work
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Lallement, Julien. "Modélisation et simulation numérique d’écoulements de films minces avec effet de mouillage partiel". Thesis, Toulouse, ISAE, 2019. http://www.theses.fr/2019ESAE0005/document.

Texto completo
Resumen
L’accrétion de givre sur les surfaces rencontrées en aéronautique (ailes, entrées d’airmoteur, sonde) est considérée comme un risque majeur pour la sécurité aérienne. Lesconséquences observées sont la dégradation des performances aérodynamiques pouvantconduire au décrochage, des perturbations dans les moteurs pouvant aller jusqu’`a sonextinction ou le colmatage des sondes. C’est pourquoi les avionneurs développent dessystèmes de protection thermiques contre le givre. L’eau accumulée sur les surfaces resteainsi à l’état liquide et forme un film mince. Les propriétés dynamiques (hauteur, vitesseet étalement) et thermiques (température, taux d’évaporation) du film en présence d’unécoulement d’air cisaillé permettent de prédire un éventuel regel du film d’eau en dehorsdes zones protégées ("runback ice "). Comme les essais en vols ou en soufflerie sontsouvent complexes à mettre en ouvre et onéreux, la simulation numérique est devenueun outil efficace et complémentaire pour dimensionner ces systèmes. L’objet principal decette thèse est le développement de modèles intégrés dans un outil numérique permettantde prédire le transport d’eau liquide sur une surface sous forme de film ou de ruisseletsou de gouttes. Une approche intégrale de type Saint Venant est adoptée ce qui permet dedécrire la dynamique macroscopique d’un film 3D pour des configurations et des temps decalcul raisonnables par rapport `a un calcul DNS. Une formulation augmentée du secondordre en espace pour le traitement des termes de courbure est proposée, ce qui autorisel’utilisation de maillages surfaciques non structurés généraux. Contrairement aux modèlesdisponibles dans la littérature, celui propos´e dans ce manuscrit présente l’avantage de tenircompte des phénomènes capillaires et de mouillage sans limite de validité en termesd’angle de contact statique. Une équation de conservation de l’énergie garantissant laconsistance thermodynamique des solutions calculées est dérivée du système augmentérégissant la dynamique du fluide. Une discrétisation de type Volumes Finis du systèmed’équation est proposée. Des simulations numériques valident le modèle pour des configurationsacadémiques de mouillage statiques et dynamiques. La transition d’un film continuen ruisselets est également simulée
The ice accretion on surfaces encountered in aeronautics (wings, nacelle lips, sensors)is considered as a major risk for aviation safety. The consequences observed are the degradationof the aerodynamic performances that can lead to the aircraft stall, disturbancesin the engines that can lead to flame out or clogging of the sensors. That is why aircraftmanufacturers are developing thermal protection systems against icing. The wateraccumulated on the surfaces thus remains in the liquid state and forms a thin film. Thedynamic properties (thickness, velocity and spreading) and thermal properties (temperature,evaporation rate) of the film in the presence of a sheared air flow make it possible apotential refreezing of the water film on unprotected surfaces (”runback ice” phenomena).Since flight or wind tunnel tests are generally expensive and difficult to set up, numericalsimulation has become an effective and complementary tool to design these systems. Themain purpose of this thesis is to develop a model integrated in a numerical tool to predictthe transport of liquid water on a surface which might take the form of a film, a rivulet ora droplet. An integral approach based on a shallow water type model is adopted. It makesit possible to describe the macroscopic dynamics of a three-dimensional liquid film onrealistic configurations and within reasonable computing times compared to a full Navier-Stokes computation. An extended formulation is proposed, it corresponds to a second orderdifferential system and thus allows to use arbitrary surface meshes. Contrary to modelsavailable in the literature, the one proposed in this manuscript has the advantage of takinginto account capillary and wetting phenomena without validity limit in term of staticcontact angle. An energy conservation equation ensuring the thermodynamic consistencyof the calculated solutions is derived from the extended model governing fluid dynamics.A Finite Volume discretization of the system is proposed. Numerical simulations validatethe model for both static and dynamic academical wetting configurations. The transitionof a continuous film into rivulets is also simulated
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Jouffroy, Damien. "Vers une démarche d'intégration de la sécurité à la conception des machines à bois semi-automatisées : Application au développement d'un système de captage des poussières pour défonceuse à commande numérique". Nancy 1, 1999. http://docnum.univ-lorraine.fr/public/SCD_T_1999_0014_JOUFFROY.pdf.

Texto completo
Resumen
Les machines à bois semi-automatisées (défonceuses à commande numérique, perceuses multibroches, machines multifonctions) présentent, malgré leur degré d'automatisation, des risques pour le (ou les) opérateur(s) amené(s) à évoluer dans leur environnement. En s'appuyant sur des données issues d'analyses ergonomiques et fonctionnelles, cette étude propose une démarche de conception visant à intégrer au plus tôt, dans le cycle de développement des machines, les principes d'hygiène, de sécurité et d'ergonomie. Cette démarche, développée dans un cadre d'ingénierie concourante, exploite une méthode de conception dite distribuée. Afin de mesurer l'intérêt et l'apport d'une telle méthode, une validation pratique est envisagée sur un élément de machine particulier, le dispositif de captage de poussières d'une défonceuse à commande numérique. Après validation, l'efficacité de captage du dispositif ainsi conçu est améliorée comparativement au dispositif initial.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Brenac, Marin. "La souveraineté numérique sur les données personnelles : étude du règlement européen no 2016/679 sur la protection des données personnelles à l'aune du concept émergent de souveraineté numérique". Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28306.

Texto completo
Resumen
Le présent mémoire se propose d'étudier l'implication du concept de souveraineté numérique dans l'évolution du droit des données personnelles. À ce titre, ce travail s'attache à mettre à jour une définition juridique du concept émergent de souveraineté numérique, concept qui porte l'objectif d'une maîtrise européenne sur le numérique. Ce travail se penche sur l'étude de l'évolution du droit des données personnelles à la lumière du concept de souveraineté numérique, et plus particulièrement sur la présence de ce concept dans le règlement européen n° 2016/679 sur la protection des données personnelles du 27 avril 2016. Il ressort finalement de cette étude que la notion de souveraineté numérique semble témoigner d'un déplacement de l'objectif premier de la norme, de sa légitimité vers son effectivité.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Younes, Iyad. "Etude expérimentale et modélisation numérique de la traction et compression locales d'un assemblage métallique soudé et semi-rigide sous chargement monotone et cyclique". Rennes, INSA, 2002. http://www.theses.fr/2002ISAR0011.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Carassus, Hugo. "Comportement dynamique des matériaux cellulaires issus de la fabrication additive pour l'allègement structural et la sécurité au crash et à l'impact". Electronic Thesis or Diss., Valenciennes, Université Polytechnique Hauts-de-France, 2023. http://www.theses.fr/2023UPHF0003.

Texto completo
Resumen
L'essor de la fabrication additive depuis la fin du XXème siècle permet d'envisager la conception de nouveaux matériaux cellulaires architecturés combinant légèreté et grande capacité d'absorption d'énergie. Leur utilisation dans les secteurs du transport terrestre ou aérien revêt alors un intérêt certain pour contribuer conjointement à l'allégement structural et à la sécurité en cas de crash et/ou d'impacts.Les objectifs des travaux de recherche sont d'étudier et de modéliser le comportement mécanique, sous chargements uniaxiaux en dynamique rapide, de cette nouvelle catégorie de matériaux cellulaires, les structures TPMS « Triply Period Minimal Surface », dont l'état de l'art actuel est plutôt centré sur les chargements quasi-statiques ou cycliques.Les travaux présentés dans cette thèse sont organisés en trois volets. La première partie vise à caractériser le comportement mécanique du matériau constitutif, l'acier 316L choisi pour sa grande ductilité, élaboré par le procédé SLM « Selective Laser Melting ». Les spécificités induites par la fusion laser sur lit de poudre telles que l'anisotropie et la sensibilité à la vitesse de déformation sont identifiées et modélisées par des lois de comportement matériaux.La deuxième partie de cette thèse s'intéresse à la réponse mécanique des structures TPMS en régimes quasi-statique et dynamique. Plusieurs paramètres tels que la densité relative ou le type de géométrie sont approfondis. Les réponses mécaniques des structures présentent les caractéristiques d'un absorbeur d'énergie idéal avec l'absence de pic d'entrée, une longue phase plateau légèrement ascendante et une densification tardive. De plus, les mécanismes de déformation sont stables. Comparativement à d'autres matériaux cellulaires dits conventionnels, les capacités d'absorption d'énergie des structures TPMS sont supérieures avec l'avantage d'être moins sensible à la direction de sollicitation pour un chargement uniaxial. En régime dynamique, la hausse observée des capacités d'absorption d'énergie est liée à la sensibilité du matériau constitutif.Cette approche expérimentale est couplée à une approche numérique EF détaillée à l'échelle mésoscopique afin de pouvoir mieux appréhender les mécanismes locaux d'effondrement que la mesure seule ne permet pas, notamment en dynamique. C'est le sujet de la troisième et dernière partie. Le modèle numérique est capable de prédire assez fidèlement la réponse mécanique expérimentale en se basant notamment sur les lois de comportement matériau identifiées au préalable. Localement, la déformation se fait comme une combinaison de plusieurs mécanismes tels que le flambement, la flexion et le cisaillement. Des diagrammes d'absorption d'énergie et des lois de Gibson et Ashby sont déterminés dans l'optique de relier les capacités d'absorption d'énergie aux dimensions géométriques et donc de choisir la configuration la plus adaptée aux spécifications imposées
The rise of additive manufacturing since the end of the 20th century has made it possible to consider the design of new architectural cellular materials combining lightness and high energy absorption capacity. Their use in the field of ground or air transport sectors is therefore of interest to contribute jointly to structural lightening and safety in the event of a crash and/or impact.The objectives of the research work are to investigate and model the mechanical behaviour, under uniaxial dynamic loadings, of this new category of cellular materials, the TPMS (Triply Period Minimal Surface) structures, for which the current state of the art is rather focused on quasi-static or cyclic loadings.The work presented in this thesis is organised in three parts. The first part aims to characterise the mechanical behaviour of the constitutive material, 316L steel chosen for its high ductility, produced by the SLM (Selective Laser Melting) process. The specificities induced by laser melting on a powder bed, such as anisotropy and strain rate sensitivity, are identified and modelised by material behaviour laws.The second part of this thesis focuses on the mechanical response of TPMS structures under quasi-static and dynamic solicitations. The mechanical responses of the structures show the characteristics of an ideal energy absorber with the absence of an initial peak, a long and slightly rising plateau phase, and a late densification. In addition, the deformation mechanisms are stable. Compared to other so-called conventional cellular materials, the energy absorption capacities of TPMS structures are superior with the advantage of being less sensitive to the direction of solicitation for uniaxial loading. In the dynamic regime, the observed increase in energy absorption capacities is linked to the sensitivity of the constitutive material.This experimental approach is coupled with a detailed numerical FE approach at the mesoscopic scale in order to better understand the local collapse mechanisms that measurement alone does not allow, especially under dynamic solicitations. The numerical model is capable of predicting the experimental mechanical response fairly accurately, based in particular on the material behaviour laws identified previously. Locally, the deformation is a combination of several mechanisms such as buckling, bending and shearing. Energy absorption diagrams and Gibson-Ashby laws are determined in order to relate the energy absorption capacities to the geometrical dimensions and thus to choose the most suitable configuration for the imposed specifications
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Nguyen, Khac Tien. "Dégradation thermique de matériaux solides poreux exposés au feu - Simulation numérique avec prise en compte des processus chimiques et mécanismes de transfert". Thesis, Poitiers, 2014. http://www.theses.fr/2014POIT2344.

Texto completo
Resumen
La description de la dégradation des solides est cruciale dans la simulation numérique d'un feu, les gaz de pyrolyse constituant la source combustible amenée au feu. Il importe de décrire avec précision ces processus en fonction des conditions ambiantes. Toutefois, les couplages entre réactions chimiques et mécanismes de transport de masse et de chaleur modifient fortement les comportements. L'objet de ce travail est la prédiction du comportement macroscopique par simulation numérique de la décomposition thermique des matériaux solides. Les propriétés intrinsèques du matériau, parmi lesquelles un modèle chimique incluant un schéma réactionnel et les paramètres thermocinétiques associés, issus d'expérimentation à petite échelle sont considérés ainsi que les mécanismes de transport et les effets limitants qu'ils peuvent introduire. La réponse du matériau est ainsi prédite pour des configurations géométriques et des scénarios d'exposition arbitraires. L’outil spécifique développé au cours de ce doctorat est basé sur une description à l'échelle de Darcy. Il a pour objectif à terme d’être couplé à un code de simulation du feu dans son ensemble, de sorte que les conditions auxquelles chaque élément solide serait exposé seraient décrites tandis que la prédiction de l'évolution du feu dépendrait de la réponse des matériaux fournie par notre module. Un jeu d'applications est présenté pour deux types de bois ayant des schémas réactionnels différents, avec réactions séquentielles ou concurrentielles. Les configurations et scénarios examinés correspondent à des essais normalisés, sous cône calorimètre, et une comparaison entre les résultats numériques et expérimentaux est effectuée
The description of the degradation of solids is crucial in the numerical simulation of a fire, the pyrolysis gases constituting the combustible source. It is important to describe with accuracy these processes, according to the ambient conditions. However, the couplings between chemical reactions and mechanisms of mass and heat transports strongly modify the behavior of the fire.The objective of this work is to predict the macroscopic behavior of the thermal decomposition of solid fuel by numerical simulation. The intrinsic properties of the material, among which a chemical model including a reactive scheme and the associated thermochemical parameters stemming from small-scale experiment are considered as well as the transport mechanisms and the limiting effects that they can introduce. The comportment of the material is then predicted for geometrical configurations and arbitrary scenarios of exposure. The specific tool developed during this Ph-D is based on a description on the Darcy scale. It has in the future to be coupled with a global code of simulation of the fire, so that the conditions undergone by every exposed solid element would be described whereas the prediction of the fire evolution fire would depend on the behavior of the materials supplied by the present module.A set of applications is presented for two wooden materials, featuring different reactive schemes, with sequential or competitive reactions. The configurations and the examined scenarios correspond to normalized tests under cone calorimeter, and a comparison between the numerical and experimental results is made
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Bernier, Carl. "Courbes de fragilité pour la vulnérabilité sismique de barrages-poids en béton". Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/8379.

Texto completo
Resumen
Les barrages-poids en béton sont des structures essentielles afin de régulariser les apports en eau potable, la gestion des bassins hydrologiques et la génération d'électricité. Par contre, la plupart des barrages-poids, au Québec, ont été conçus et construits au cours du dernier siècle avec des méthodes d'analyse et des forces sismiques qui sont jugées inadéquates aujourd'hui. En effet, au cours des dernières décennies, les connaissances en sismologie, en dynamique des structures et en génie parasismique ont grandement évolué, rendant nécessaire la réévaluation des barrages existants afin d'assurer la sécurité du public. Actuellement, des méthodes déterministes, utilisant des facteurs de sécurité, sont utilisées pour évaluer la sécurité des barrages. Cependant, étant donné le caractère aléatoire des sollicitations sismiques et des incertitudes sur les matériaux et propriétés d'un barrage, les méthodes probabilistes se révèlent plus adaptées et deviennent de plus en plus populaires. L'une de ces méthodes est l'utilisation de courbes de fragilité. Ces courbes sont des fonctions permettant de représenter la probabilité d'endommagement ou de rupture d'une structure pour toute une gamme de chargement. Ce projet de recherche présente donc le développement de courbes de fragilité pour évaluer la vulnérabilité sismique de barrage-poids en béton. La méthodologie est appliquée à un barrage spécifique, le barrage-poids aux Outardes-3, le plus grand barrage-poids en béton au Québec. La méthode des éléments finis est utilisée pour modéliser ce barrage et prendre en compte les différentes interactions entre le barrage, le réservoir et la fondation. De plus, des résultats d'essais dynamiques in situ sont utilisés pour calibrer le modèle numérique. Les courbes de fragilité sont ensuite générées à l'aide d'analyses dynamiques temporelles non linéaires afin d'évaluer deux états limites d'endommagement : le glissement à la base du barrage et le glissement aux joints de reprise dans le barrage. Les incertitudes associées aux paramètres de modélisation et à la sollicitation sismique sont incluses dans l'analyse de fragilité et ces sources d'incertitudes sont propagées à l'aide d'une méthode d'échantillonnage. Une étude de sensibilité est également réalisée afin de déterminer les paramètres de modélisation ayant une influence significative sur la réponse sismique du système. L'incertitude associée à la variation spatiale des propriétés du barrage est également prise en compte et est modélisée à l'aide de champs aléatoires ; cette source d'incertitude peut s'avérer importante pour des ouvrages de grandes dimensions comme les barrages. Les résultats montrent que la variation spatiale des propriétés du barrage a un impact minime sur la fragilité du barrage aux Outardes-3 et qu'elle pourrait être négligée. Malgré tout, la méthodologie mise en place pour développer des courbes de fragilité applicables aux barrages-poids est efficace, pratique et donne d'excellents résultats. Par surcroît, un des grands avantages des courbes de fragilité est qu'elles permettent d'obtenir des informations quantitatives sur la vulnérabilité d'un barrage au contraire des méthodes déterministes actuelles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Leclercq, Thomas. "Contribution à la comparaison de séquences d'images couleur par outils statistiques et par outils issus de la théorie algorithmique de l'information". Lille 1, 2006. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2006/50376-2006-Leclercq.pdf.

Texto completo
Resumen
Notre travail concerne le développement d'outils d'aide à la gestion et à la sécurité des transports publics s'appuyant sur l'observation et la surveillance des sites à l'aide de caméras vidéo. Dans ce cadre, nous évaluons des méthodes de comparaison automatique de séquences d'images, permettant d'établir si différentes séquences correspondent ou non à l'observation d'un même usager. Nous proposons ensuite une signature de séquence d'images par descripteurs de séquences de matrices de co-occurrences chromatiques, puis une signature par descripteurs de séquences de vecteurs d'indices de textures. Nous considérons enfin une approche basée sur la théorie algorithmique de l'information et definissons une signature par vecteurs d'indices de complexite inspirés de la complexite de description de Kolmogorov.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Blanchard, Elizabeth. "Computational study of water mist for a tunnel fire application". Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00860103.

Texto completo
Resumen
Ce travail de thèse est consacré à l'étude de l'interaction entre une aspersion par brouillard d'eau et un feu. Il s'appuie sur une modélisation existante figurant dans le code à champs Fire Dynamics Simulator. L'approche consiste en premier lieu à appréhender, par le biais d'une synthèse bibliographique, les phénomènes physiques mis en jeu lors d'un feu en tunnel et lors d'une aspersion par brouillard d'eau. Ensuite, un travail d'évaluation est mené. L'évaluation se veut évolutive, en commençant par des cas simples à l'échelle du laboratoire afin de travailler le plus indépendamment possible sur certaines parties du modèle d'aspersion, pour ensuite s'intéresser à la configuration tunnel. Ce travail d'évaluation permet de mieux cerner les aptitudes du code à simuler les phénomènes physiques mis en jeu lors d'un feu en tunnel soumis ou non à une aspersion. Des comparaisons sont effectuées avec plusieurs essais réalisés entre 2005 et 2008 sur une maquette de tunnel à échelle 1/3. Une fois cette évaluation accomplie, l'outil est exploité pour améliorer notre compréhension des phénomènes d'interaction entre le brouillard d'eau, la ventilation du tunnel et le feu. En particulier, l'influence de l'aspersion sur l'écoulement longitudinal est analysée, le rôle énergétique du brouillard d'eau est mesuré et les modes de transfert de chaleur associés aux gouttes sont quantifiés. Cette exploitation permet également d'évaluer numériquement l'influence de quelques paramètres sur l'efficacité de l'aspersion telles que la vitesse de ventilation longitudinale, la puissance du feu et la taille des gouttes pulvérisées. En dernier lieu, le code à champs est exploité dans le cadre d'une étude numérique exploratoire en vue d'une campagne d'essais en bâtiment pour appréhender l'interaction entre l'aspersion, la nappe de fumée et le désenfumage mécanique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Blanchard, Elizabeth. "Modélisation de l'interaction entre un brouillard d'eau et un feu en tunnel". Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00672668.

Texto completo
Resumen
Ce travail de thèse est consacré à l'étude de l'interaction entre une aspersion par brouillard d'eau et un feu. Il s'appuie sur une modélisation existante figurant dans le code à champs Fire Dynamics Simulator. L'approche consiste en premier lieu à appréhender, par le biais d'une synthèse bibliographique, les phénomènes physiques mis en jeu lors d'un feu en tunnel et lors d'une aspersion par brouillard d'eau. Ensuite, un travail d'évaluation est mené. L'évaluation se veut évolutive, en commençant par des cas simples à l'échelle du laboratoire afin de travailler le plus indépendamment possible sur certaines parties du modèle d'aspersion, pour ensuite s'intéresser à la configuration tunnel. Ce travail d'évaluation permet de mieux cerner les aptitudes du code à simuler les phénomènes physiques mis en jeu lors d'un feu en tunnel soumis ou non à une aspersion. Des comparaisons sont effectuées avec plusieurs essais réalisés entre 2005 et 2008 sur une maquette de tunnel à échelle 1/3. Une fois cette évaluation accomplie, l'outil est exploité pour améliorer notre compréhension des phénomènes d'interaction entre le brouillard d'eau, la ventilation du tunnel et le feu. En particulier, l'influence de l'aspersion sur l'écoulement longitudinal est analysée, le rôle énergétique du brouillard d'eau est mesuré et les modes de transfert de chaleur associés aux gouttes sont quantifiés. Cette exploitation permet également d'évaluer numériquement l'influence de quelques paramètres sur l'efficacité de l'aspersion telles que la vitesse de ventilation longitudinale, la puissance du feu et la taille des gouttes pulvérisées. En dernier lieu, le code à champs est exploité dans le cadre d'une étude numérique exploratoire en vue d'une campagne d'essais en bâtiment pour appréhender l'interaction entre l'aspersion, la nappe de fumée et le désenfumage mécanique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Aguilar, Melchor Carlos. "Les communications anonymes à faible latence". Toulouse, INSA, 2006. http://www.theses.fr/2006ISAT0021.

Texto completo
Resumen
Dans ce mémoire nous proposons des systèmes de communication anonyme à faible latence. Pour cela nous étudions les performances des systèmes basés sur les primitives classiques : envoi superposé ou bourrage chiffré pour l'émission, et diffusion avec adressage implicite pour la réception, quand les groupes d'utilisateurs potentiels sont contraints à être de petite taille, peu changeants, ou localisés. Nous proposons l'utilisation des protocoles de récupération d'informations privée (ou protocoles PIR pour Private Information Retrieval) comme alternative à la diffusion avec adressage implicite, et nous étudions les systèmes en résultant. Ces systèmes permettent de réduire significativement le coût des communications, au prix d'un coût calculatoire important. Au moyen d'exemples, nous montrons que ces nouvelles solutions offrent un meilleur choix dans certaines situations, notamment pour les utilisateurs connectés au service par Internet. Dans un deuxième temps, nous mettons en avant les relations entre les différentes techniques et montrons que les systèmes basés sur les primitives classiques ne sont en fait que des instances d'une famille qui, par l'utilisation de la récupération d'informations privée, devient nombreuse et polyvalente. Ainsi, on dispose de beaucoup plus de degrés de liberté pour l'implémentation de solutions fournissant des communications anonymes dans le cadre des groupes d'utilisateurs sous contraintes
In this thesis, we present different systems providing low-latency anonymous communications. We first study the performance of systems based on well known primitives such as superposed sending and encrypted padding for transmission, and broadcast with implicit addressing for reception, when the group of potential users is restricted to be small, closed, or localized. We propose the usage of Private Information Retrieval (PIR) protocols as an alternative to broadcast with implicit addressing, and we study the resulting systems. These systems allow us to trade communication cost, for computational cost. Through some examples, we show that the new solutions offer a better choice in some situations, specially when the users are connected to the service through the Internet. Then, we put forward how the different approaches are related, and show that the systems based on classic primitives are in fact just some instances of a family, which becomes much larger and versatile through the introduction of PIR protocols
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Fayad, Jacky. "Études numériques des feux extrêmes". Electronic Thesis or Diss., Corte, 2023. http://www.theses.fr/2023CORT0015.

Texto completo
Resumen
Les feux extrêmes sont des feux caractérisés par une forte puissance et une vitesse de propagation élevée qui rendent les moyens de lutte impuissants. Ces phénomènes entraînent une augmentation des dégâts et du nombre de décès civils et opérationnels, et perturbent les écosystèmes ainsi que nos sociétés. Il existe plusieurs types de feux extrêmes, dont les feux de forte puissance qui sont l’objet de cette thèse. Ce type de feux constitue un réel risque, étant donné l’augmentation de sa fréquence et son impact dans le monde entier. Par conséquent, l’évaluation des conditions de propagation qui peuvent déclencher un feu de forte puissance, s’avère très utile dans le but d’anticiper ces phénomènes. De plus, l’étude du comportement d’un feu de forte puissance (vitesse de propagation, intensité et impact) est susceptible de fournir des renseignements aux opérationnels en phase de lutte. L’objectif principal de cette thèse est d’étudier la propagation des feux de forte puissance à l’aide des feux expérimentaux réalisés à l’échelle du terrain sur du maquis Corse « Genista salzmannii ». Ces expériences ont été menées lors des deux saisons (hiver et automne), dans deux régions différentes de l’Île (Nord-Ouest et Sud-Ouest de la Corse), selon un protocole expérimental et des techniques qui permettent d’évaluer la dynamique et l’impact de ces feux. À la suite des expériences, des études numériques ont été menées à l’aide des codes physiques complets FireStar2D et 3D, basés sur une approche multiphasique, afin de tester la pertinence de ces modèles de propagation dans la prédiction du comportement des feux expérimentaux de forte puissance. Les différents résultats numériques obtenus pour les trois configurations choisies, ont montré une bonne adéquation avec les résultats expérimentaux. Ceci montre que ces modèles peuvent être utilisés pour étudier d’autres configurations sans avoir forcément recours aux expériences. Les campagnes de feux réalisées étaient représentatives des feux de forte puissance, qui ont eu lieu malgré des conditions marginales de propagation dues à des vitesses de vent faibles, des teneurs en eau du combustible ainsi que des humidités relatives de l’air élevées. Ces expériences pourront également fournir des observations détaillées, utiles pour améliorer la modélisation. Ceci représente une avancée significative, étant donné la complexité et les difficultés de la mise en œuvre des expériences sur le terrain. La deuxième partie de la thèse a porté sur une étude numérique d’un « cas critique » d’un feu de forte puissance. Ce feu a été étudié suivant plusieurs approches : empiriques, physiques complètes et simplifiées. En particulier, FireStar2D et 3D et le modèle physique simplifié de Balbi ont été mis en œuvre. Plusieurs paramètres ont ainsi été évalués par les différentes approches, dont la vitesse de propagation, l’intensité du front de flammes, la géométrie du front et de la flamme (longueur et inclinaison). L’objet principal de cette étude, était non seulement d’évaluer le comportement mais surtout l’impact de ce feu de forte puissance sur deux cibles : un corps humain et un bâtiment de quatre étages. Cela a permis d’établir des corrélations qui lient les flux de chaleur totaux reçus par les cibles en fonction de leur position du front de feu. L’objectif était d’évaluer la distance de sécurité autour des interfaces forêt-habitat, en considérant la valeur maximale tolérable du flux de chaleur thermique, qui peut être reçu par la cible sans causer de dommages. . Les distances de sécurité évaluées à l'aide de cette méthodologie, pour un pompier et un bâtiment, sont inférieures à 50 mètres. Ceci confirme, pour cette configuration, l'efficacité de la valeur de la distance de sécurité autour des habitations, fixée par les experts opérationnels et supposée égale à un minimum de 50 m en France
Extreme fires are characterized by their high intensity and rate of spread, which overwhelm firefighting resources. These phenomena result in increased damage, civilian and operational fatalities and disruption to ecosystems, human life and the economy. There are several types of extreme fires, including high-intensity fires, which are the main subject of this thesis. This type of fire presents a real risk, given the increase in its frequency and scale throughout the world. Consequently, it is very useful to assess the conditions of propagation that can trigger a high- intensity fire in order to be able to anticipate these phenomena. In addition, studying the behavior of a high-intensity fire (rate of spread, intensity and impact) can provide information to operational staff during the firefighting phase. The main aim of this thesis is to study the propagation of high-intensity fires by means of experimental fires carried out on a field scale on Corsican shrub species named 'Genista salzmannii'. These experiments were carried out during two periods (winter and autumn), in two different regions: North-West and South-West of Corsica, using an experimental protocol and technologies that make it possible to assess the dynamic and impact of these fires. Following the experiments, numerical studies were carried out using fully physical fire models based on a multiphase formulation, FireStar2D and 3D, in order to test the relevance of these propagation models in predicting the behavior of these experimental fires. The different numerical results obtained for the three terrain configurations chosen were in agreement with the experimental results. This shows that these models can be used to study other configurations without necessarily having to resort to experiments. The fire campaigns carried out were representative of high-intensity fires that occurred despite marginal propagation conditions related to low wind speeds, high fuel moisture content and relative air humidity. These experiments can also provide detailed observations, as well as input data that can be used in modelling, given that carrying out such experiments is not easy and is always subject to difficulties and constraints. The second part of the research focused on a numerical study of a "critical case" of a high- intensity fire. This fire was studied using several empirical approaches, fully physical models found in the literature, in particular FireStar2D and 3D and the simplified physical Balbi model. Several parameters were evaluated using the different approaches, including the rate of spread, the intensity of the flame front, the geometry of the front and of the flame (length and tilting). The main aim of this study was to assess not only the behavior but also the impact of this high-intensity fire on two different targets: the human body and a four level building. This made it possible to establish correlations between the total heat fluxes received by the targets as a function of their position in front of the fire. The aim was to assess the safety distance around wildland urban interfaces by considering the maximum tolerable value of thermal heat flux that can be received by the target without causing damage. The safety distances assessed using this methodology, for a firefighter and a building, are less than 50 meters. This confirms, for this configuration, the effectiveness of the value of the safety distance around buildings, set by operational experts and assumed to be equal to a minimum of 50 m in France
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Flidrova, Kamila. "Contribution à la simulation numérique des crash de véhicules : prise en compte des non-linéarités matérielles et géométriques des composants de fonderie". Thesis, Ecully, Ecole centrale de Lyon, 2010. http://www.theses.fr/2010ECDL0043.

Texto completo
Resumen
La sécurité routière est aujourd’hui un des objectifs principaux des constructeurs automobiles. Pour garantir un haut niveau de sécurité aux conducteurs et passagers mais aussi aux autres usages de la route, comme les piétons et les deux roues, les véhicules sont testés sous tous les angles avant leur commercialisation. Qu’ils soient virtuels ou réels, les essais jalonnent la conception et le développement d’une voiture. Aujourd’hui, la simulation numérique joue un rôle primordial dans le développement des nouveaux dispositifs et équipements. Pour que les modèles numériques offrent toujours plus de prédictivité, le domaine de la simulation numérique est en constante évolution. L’objectif de cette thèse est de contribuer à l’amélioration de la simulation des crash de véhicules. Le sujet de l’étude présentée dans ce document est composé de deux problématiques. La première consiste en la prise en compte des non-linéarités matérielles de type rupture dans le processus de dimensionnement au choc. Dans le domaine du crash, deux types de pièces sont distingués. Celles qui doivent casser en choc comme les suspensions moteur et celles dont rupture est interdite comme le carter moteur ou bien le carter d’embrayage. La rupture est un phénomène délicat à modéliser et également coûteux en temps de calcul. Par conséquent, les premiers modèles pour la simulation de la rupture ont été seulement fonctionnels (désactivation des ressorts de rupture). Avec l’arrivée de méthodes numériques telles que la méthode de suppression d’éléments, de nombreux modèles de rupture ont été développés. Comme ces modèles sont relativement récents, les bases de données matériaux sont souvent incomplètes ce qui rend difficile leur utilisation. Un des objectifs de la thèse est donc l’identification des paramètres matériaux pour le modèle de Mohr-Coulomb et le modèle de Johnson-Cook à l’aide d’essais sur éprouvettes. Une campagne d’essais sur un sous-système automobile a été également effectuée. La corrélation numérique des essais a permis de valider la modélisation« volumique » de la rupture et d’identifier des voies de progrès de la méthodologie actuelle. Le deuxième sujet présenté dans ce document est la modélisation du comportement élastique linéaire des composants qui ne doivent pas casser en choc et la prise en compte des non-linéarités géométriques de type grandes rotations et de contact. Une modélisation par des super-éléments élastiques linéaires adaptés pour les calculs explicites avec grandes rotations a été proposée pour les pièces massives de fonderie. La modélisation par super-élément est réalisée dans Radioss via un fichier.fxb. Une nouvelle méthode de réduction dérivée à partir de la méthode de MacNeal a été proposée. La base de transformation de celle-ci est constituée par des modes libres complétés par des modes de souplesse résiduelle (MLSR). Le modèle réduit à l’aide de la méthode MLSR est généré avec des routines Matlab développées dans le cadre de la thèse. Afin d’intégrer la modélisation par super-élément dans le processus de dimensionnement au choc PSA, une filière de calcul Abaqus–Matlab–Radioss a été proposée. Un processus de génération du fichier.fxb à l’aide des outils CFAO utilisés chez PSA a été établi. Afin d’optimiser la performance des calculs avec super-élément, trois nouvelles modélisations pour la gestion de contact avec super-élément ont été proposées. Une application de la modélisation par super-élément a été faite pour un modèle de test et également pour un modèle de choc de véhicule
Nowadays, road safety is one of the main aims of car makers. To guarantee a high level of security to car drivers and passengers and also to other road users, such as for example pedestrians and two wheelers, the cars are submitted to a lot of tests before their commercialisation. Whether they are virtual or real, the experiments set out the conception and the development of a car. Nowadays, the numerical simulation plays a prime role in the development of new systems and equipments. In order to offer more and more predictivity by numerical models, the domain of the numerical simulation is inconstant evolution. The aim of this thesis is to contribute to the improvement of a car crash simulation. The subject of the study presented in this document is composed by two themes. The first one consists in inclusion of the material nonlinearities as fracture in the car crash dimensioning process. In car crash, two types of components are distinguished. Those which have to brake during the shock such as engine suspensions and those which have not to brake such as crankcase or clutch housing. The fracture is a phenomenon difficult to model, moreover, its computational time is important. Thus, the first fracture models were only functional (deactivation of fracture springs). With the arrival of numerical methods such as element deletion method, a lot of fracture models were developed. Because these models are relatively recent, the material databases are often incomplete which makes their use more difficult. Thus, one of the aims of this study is the material parameters identification of Mohr-Coulomb and Johnson-Cook fracture model with the aid of experiments on specimens. Another experiment campaign on an automotive subsystem was also realized. The numerical correlation using the material fracture parameters identified in the first step enabled to validate the "volumic"fracture modelisation and to identify the ways of progress of the current methodology. The second theme presented in this document is the modeling of linear elastic behavior of components which have not to brake in car crash and inclusion of geometrical nonlinearities as large rotations and contact. A modeling by linear elastic super elements adapted for explicit simulations with large rotations was proposed for massive cast iron components. The modeling by super elements was realized in Radioss by means of the file.fxb. A new reduction method derived from that of MacNeal was proposed. Its transformation basis is constituted by a free eigen-modes completed by residual flexibility modes. The model is reduced by means of Matlab routines which were developed in the framework of the thesis. In order to integrate the modeling by superelements in the dimensioning car crash process used at PSA, a procedure Abaqus–Matlab–Radioss was proposed. A process for the generation of the file.fxb by means of the CAD/CAMtools used at PSA was established. In order to optimize the simulation performance with superelements, three new models for contact management with a superelement were proposed. The modeling by superelement was applied in a test model and also in a frontal car crash simulation
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Bennour, Zouaoui Jihane. "Sécurité multimédia et objets vidéo 3D". Paris, ENST, 2008. http://www.theses.fr/2008ENST0004.

Texto completo
Resumen
Les algorithmes de tatouage d'objets 3D développés à ce jour permettent de protéger un modèle 3D dans la mesure où on a accès aux données 3D suspectes lors du processus d'extraction. Partant de l'observation qu'il est plus facile de mettre main sur une image frauduleuse générée à partir d'un objet 3D que sur les données 3D suspectes elles-mêmes, nous proposons une approche radicalement différente dont le but est de protéger l'utilisation des objets 3D dans des images ou scènes virtuelles. L'idée est de tatouer un objet 3D via sa silhouette apparente et de récupérer la marque des représentations visuelles 2D. Plusieurs tests ont été réalisés dans des environnements variés pour étudier les performances et les limites de cette approche asymétrique 3D/2D. La deuxième partie de la thèse présente une application plus classique du tatouage 3D, à savoir la protection de l'objet 3D lui-même. L'originalité de cet algorithme par rapport aux autres algorithmes de tatouage 3D est l'utilisation de la silhouette pour support de tatouage et l'introduction de la notion de vues caractéristiques. Nous avons aussi pris pour support la silhouette pour enfouir de l'information supplémentaire dans un modèle 3D. A cet effet, un algorithme de tatouage de ligne polygonale aveugle et avec capacité a été proposé. La dernière partie de la thèse nous l'avons consacrée au développement d'un protocole d'évaluation des techniques de tatouage 3D, une problématique importante mais souvent négligée par la communauté de tatouage
In all the published 3D watermarking techniques, users are assumed to access the 3D watermarking datafile to extract/detect the mark. Having observed that in many cases the 3D datafile is not accessible at the extractionstep, we propose a completely different approach. It consists in watermarking 3D objects and retrieving the mark from 2D images or videos having used the 3D synthetic object, thus protecting the visual representation of the object. Several tests are proposed for various environments showing the performance and limits of our asymmetric approach. The second part of the thesis introduces a more classic 3D watermarking application in which both insertion and extraction are performed on the 3D object itself. The originality of this 3D watermarking algorithm is the use of the silhouette to embed the mark, and the introduction of the characteristic views notion. We have also used the silhouette to hide additional information related to the 3D model. For this purpose, we proposed a blind polygonal-line watermarking technique that has capacity
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Moreau, Baptiste. "Modélisation statistique de la géométrie 3D de la cage thoracique à partir d'images médicales en vue de personnaliser un modèle numérique de corps humain pour la biomécanique du choc automobile". Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS030/document.

Texto completo
Resumen
La sécurité routière est un enjeu majeur de santé publique et de protection des personnes. D'après l'organisation mondiale de la santé (OMS), près de 1,2 millions de personnes meurent chaque année dans le monde suite à des accidents de la route (2015). D’après des données accidentologiques, 36,7% des blessures graves ont pour origine des lésions au thorax (Page et collab., 2012). La biomécanique en sécurité passive a pour rôle d'améliorer notre compréhension du corps humain dans le but de construire de meilleurs outils pour évaluer le risque de blessure.Les modèles numériques d'être humain sont employés pour simuler virtuellement les conditions d'un accident. Aujourd'hui, ils sont de plus en plus utilisés par les constructeurs automobiles et équipementiers pour mieux comprendre les mécanismes lésionnels. Cependant, ils n’existent que dans certaines tailles et ne prennent alors pas en compte les variations morphologiques observées dans la population.L'imagerie médicale 3D donne accès aux géométries des différentes structures anatomiques composant le corps humain. Les hôpitaux regorgent aujourd'hui de quantités d'images 3D couvrant une très large partie de la population en termes d'âge, de corpulence et de sexe.L’objectif global de cette thèse est de modéliser statistiquement la géométrie 3D de la cage thoracique à partir d'images médicales afin de personnaliser un modèle numérique de corps humain pour simuler par éléments finis des conditions de choc automobile. Le premier objectif est d’élaborer un protocole de segmentation une base de CT-scans de manière à obtenir des données géométriques adaptées à la construction d’un modèle statistique de forme de la cage thoracique.Le deuxième objectif est de construire un modèle statistique de forme de la cage thoracique, en prenant en compte sa structure articulée.Le troisième objectif est d’utiliser le modèle statistique de la cage thoracique pour déformer un modèle numérique d’être humain, de manière à étudier l’influence de certains paramètres sur le risque de blessure
Road safety is a major issue of public health and personal safety. According to the World Health Organization (WHO), nearly 1.2 million people die each year worldwide due to road accidents (2015). According to accident data, 36.7% of serious injuries are caused by thoracic injuries (Page et al., 2012). The aim of biomechanics in passive safety is to improve our understanding of the human body in order to build better tools for assessing the risk of injury.Numerical human body models are used to virtually simulate the conditions of an accident. Today, they are increasingly used by car manufacturers and equipment manufacturers to better understand injury mechanisms. However, they exist only in few sizes and do not take into account the morphological variations observed in the population.3D medical imaging gives access to the geometries of the different anatomical structures that make up the human body. Today, hospitals are full of 3D images covering a very large part of the population in terms of age, body size and sex.The overall objective of this thesis is to statistically model the 3D geometry of the rib cage from medical images in order to personalize a numerical human body model to simulate car crash conditions.The first objective is to develop a segmentation process based on CT-scans in order to obtain geometric data adapted to the construction of a statistical model of shape of the rib cage.The second objective is to build a statistical model of the shape of the rib cage, taking into account its articulated structure.The third objective is to use the statistical model of the rib cage to deform a numerical human body model, in order to study the influence of certain parameters on the risk of injury
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Leroy, Damien. "Étude des modes de perturbation et susceptibilité des circuits numériques aux collisions de particules et aux attaques laser". Metz, 2006. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2006/Leroy.Damien.SMZ0628.pdf.

Texto completo
Resumen
Nous confions de plus en plus d'informations confidentielles à nos cartes à puces, comme les codes d'accès à notre banque, ou les clés de démarrage de la voiture. Ces circuits sécuritaires deviennent la cible de personnes malintentionnées qui cherchent à récupérer ces informations à leur profit. Ces attaquants utilisent des techniques de pointe comme la perturbation du fonctionnement des circuits, pour parvenir à leurs fins. Pour répondre aux besoins d'un marché très concurrentiel, les concepteurs doivent se protéger de ces perturbations tout en minimisant les coûts de conception. Ces contraintes imposent un compromis entre coût et efficacité, et justifient des techniques automatiques de conception adaptées. La première partie de ce mémoire est consacrée à l'étude des différentes sources de perturbation d'un circuit intégré, où nous mettons en évidence les similitudes entre une attaque laser et l'impact de particules. Nous montrons ensuite les spécificités de la conception de circuits sécuritaires et les différents types d’attaque à la disposition des pirates. La troisième partie est dédiée à la caractérisation des perturbations. Une méthodologie de conception est proposée et utilisée sur deux circuits, l'un mesurant la durée des perturbations d'un tir laser sur des portes logiques 130nm MOS, l'autre mesurant la sensibilité de portes aux neutrons. Nous finissons par une présentation des résultats obtenus sur le premier circuit après une campagne de tests
More and more sensitive data are stored inside smart cards, like bank account or car access codes. Recently, these security circuits have become a target for hackers who try to abuse these data. To achieve this goal, these attackers use the state of the art technologies like fault injection. To comply with the smart card market requirements, designers have to build protections against these attacks while keeping design costs as low as possible. These constraints should lead to a cost-efficient design and benefit from dedicated automatic protection methodologies. In this thesis we first study radiation sources able to tamper with silicon circuit behavior, and then we reveal similarities between laser attacks and radiation effects on a circuit. Then we show the specificities of secure circuit design and the spectrum of attacks used by hackers. The third part characterizes Single Event Transients (SET). A design methodology is proposed and implemented in two circuits, one dedicated to measuring laser-induced SET duration in logic gates, the other dedicated to measuring gate sensitivity to neutrons. This work concludes the review of results obtained after a laser shooting experiment campaign
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Lopard, Gabriel. "Conception et dimensionnement des ouvrages souterrains dans les massifs rocheux discontinus – Développement de la méthode des blocs isolés". Electronic Thesis or Diss., Université Paris sciences et lettres, 2021. http://www.theses.fr/2021UPSLM014.

Texto completo
Resumen
De nombreux secteurs d’activités impliquent une occupation de l’espace souterrain. Le creusement dans un massif rocheux présente différents modes de ruine qu’il faut savoir identifier pour utiliser les outils de conception adaptés. Parmi eux, l’instabilité de blocs est un problème courant dans les massifs rocheux fracturés. Les approches numériques de blocs multiples permettent de considérer le massif dans son ensemble mais leur utilisation peut s’avérer lourde et requiert beaucoup de données d’entrée parfois indisponibles. L’approche Isobloc est basée sur le concept de bloc isolé et, comparée aux autres méthodes du même type, elle est plus rigoureuse dans la résolution du problème de mécanique du bloc. Dans cette thèse, cette méthode a été étudiée afin de pouvoir l’intégrer dans la démarche de conception en milieu rocheux fracturé. Une première partie s’intéresse spécifiquement à la loi de comportement normal des joints, et à la définition d’indicateurs afin de quantifier la sécurité de l’état d’équilibre du bloc. Une autre partie présente les réflexions et manières de modéliser une solution de soutènement avec Isobloc. Trois types sont proposées suivant le degré de connaissance du soutènement. Enfin une application de la méthode Isobloc dans la démarche d’étude de stabilité de blocs a été proposé à partir de données d’un site d’étude réel
Many activity sectors involve occupation of underground space. Digging in a rockmass presents different modes of ruin that must be identified in order to use the appropriate design tools. Among them, block instability is a usual problem in fractured rock masses. Numerical approaches of multiple blocks allow to consider the complete rockmass but their use can be hard and requires a lot of input data sometimes unavailable. The Isobloc approach is based on the isolated block concept and, compared to other methods based on the same concept, it is more rigorous in solving the block mechanics problem. In this thesis, this method has been studied in order to integrate it in the design approach of fractured rock mass. A first part is specifically interested in the normal joint behavior law, and in definition of indicators to quantify the safety of the block's equilibrium state. A second part presents reflections and ways to model a support solution with Isobloc. Three types are proposed according to the knowledge degree of the support. Finally, an application of the Isobloc method in the blocks stability study approach has been proposed using data from a real study site
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Hatoum, Makram. "Digital watermarking for PDF documents and images : security, robustness and AI-based attack". Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCD016.

Texto completo
Resumen
Le développement technologique a ses avantages et ses inconvénients. Nous pouvons facilement partager et télécharger du contenu numérique en utilisant l’Internet. En outre, les utilisateurs malveillants peuvent aussi modifier, dupliquer et diffuser illégalement tout type d'informations, comme des images et des documents. Par conséquent, nous devons protéger ces contenus et arrêter les pirates. Le but de cette thèse est de protéger les documents PDF et les images en utilisant la technique de tatouage numérique Spread Transform Dither Modulation (STDM), tout en tenant compte des exigences principales de transparence, de robustesse et de sécurité.La méthode de tatouage STDM a un bon niveau de transparence et de robustesse contre les attaques de bruit. La clé principale dans cette méthode de tatouage est le vecteur de projection qui vise à diffuser le message sur un ensemble d'éléments. Cependant, un tel vecteur clé peut être estimée par des utilisateurs non autorisés en utilisant les techniques de séparation BSS (Blind Source Separation). Dans notre première contribution, nous présentons notre méthode de tatouage proposé CAR-STDM (Component Analysis Resistant-STDM), qui garantit la sécurité tout en préservant la transparence et la robustesse contre les attaques de bruit.STDM est également affecté par l'attaque FGA (Fixed Gain Attack). Dans la deuxième contribution, nous présentons notre méthode de tatouage proposé N-STDM qui résiste l'attaque FGA et améliore la robustesse contre l'attaque Additive White Gaussian Noise (AWGN), l'attaque de compression JPEG, et diversité d'attaques de filtrage et géométriques. Les expérimentations ont été menées sur des documents PDF et des images dans le domaine spatial et le domaine fréquentiel.Récemment, l’Apprentissage Profond et les Réseaux de Neurones atteints du développement et d'amélioration notable, en particulier dans le traitement d'image, la segmentation et la classification. Des modèles tels que CNN (Convolutional Neural Network) sont utilisés pour la dé-bruitage des images. CNN a une performance adéquate de dé-bruitage, et il pourrait être nocif pour les images tatouées. Dans la troisième contribution, nous présentons l'effet du FCNN (Fully Convolutional Neural Network), comme une attaque de dé-bruitage, sur les images tatouées. Les méthodes de tatouage STDM et SS (Spread Spectrum) sont utilisés durant les expérimentations pour intégrer les messages dans les images en appliquant plusieurs scénarios. Cette évaluation montre qu'un tel type d'attaque de dé-bruitage préserve la qualité de l'image tout en brisant la robustesse des méthodes de tatouages évalués
Technological development has its pros and cons. Nowadays, we can easily share, download, and upload digital content using the Internet. Also, malicious users can illegally change, duplicate, and distribute any kind of information, such as images and documents. Therefore, we should protect such contents and arrest the perpetrator. The goal of this thesis is to protect PDF documents and images using the Spread Transform Dither Modulation (STDM), as a digital watermarking technique, while taking into consideration the main requirements of transparency, robustness, and security. STDM watermarking scheme achieved a good level of transparency and robustness against noise attacks. The key to this scheme is the projection vector that aims to spreads the embedded message over a set of cover elements. However, such a key vector can be estimated by unauthorized users using the Blind Source Separation (BSS) techniques. In our first contribution, we present our proposed CAR-STDM (Component Analysis Resistant-STDM) watermarking scheme, which guarantees security while preserving the transparency and robustness against noise attacks. STDM is also affected by the Fixed Gain Attack (FGA). In the second contribution, we present our proposed N-STDM watermarking scheme that resists the FGA attack and enhances the robustness against the Additive White Gaussian Noise (AWGN) attack, JPEG compression attack, and variety of filtering and geometric attacks. Experimentations have been conducted distinctly on PDF documents and images in the spatial domain and frequency domain. Recently, Deep Learning and Neural Networks achieved noticeable development and improvement, especially in image processing, segmentation, and classification. Diverse models such as Convolutional Neural Network (CNN) are exploited for modeling image priors for denoising. CNN has a suitable denoising performance, and it could be harmful to watermarked images. In the third contribution, we present the effect of a Fully Convolutional Neural Network (FCNN), as a denoising attack, on watermarked images. STDM and Spread Spectrum (SS) are used as watermarking schemes to embed the watermarks in the images using several scenarios. This evaluation shows that such type of denoising attack preserves the image quality while breaking the robustness of all evaluated watermarked schemes
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Lepoint, Tancrède. "Conception and implémentation de cryptographie à base de réseaux". Phd thesis, Ecole Normale Supérieure de Paris - ENS Paris, 2014. http://tel.archives-ouvertes.fr/tel-01069864.

Texto completo
Resumen
La cryptographie à base de réseaux euclidiens est aujourd'hui un domaine scientifique en pleine expansion et connait une évolution rapide et accélérée par l'attractivité du chiffrement complètement homomorphe ou des applications multilinéaires cryptographiques. Ses propriétés sont très attractives : une sécurité pouvant être réduite à la difficulté des pires cas de problèmes sur les réseaux euclidiens, une efficacité asymptotique quasi-optimale et une résistance présupposée aux ordinateurs quantiques. Cependant, on dénombre encore peu de résultats de recherche sur les constructions à visée pratique pour un niveau de sécurité fixé. Cette thèse s'inscrit dans cette direction et travaille à réduire l'écart entre la théorie et la pratique de la cryptographie à clé publique récente. Dans cette thèse, nous concevons et implémentons une signature numérique basée sur les réseaux euclidiens, deux schémas de chiffrement complètement homomorphe et des applications multilinéaires cryptographiques. Notre signature digitale ultra-performante, BLISS, ouvre la voie à la mise en pratique de la cryptographie à base de réseaux sur petites architectures et est un candidat sérieux à la cryptographie post-quantique. Nos schémas de chiffrement complètement homomorphes permettent d'évaluer des circuits non triviaux de manière compétitive. Finalement, nous proposons la première implémentation d'applications multilinéaires et réalisons, pour la première fois, un échange de clé non interactif entre plus de trois participants en quelques secondes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Carre, Hélène. "Etude du comportement à la rupture d'un matériau fragile précontraint : le verre trempé". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1996. http://tel.archives-ouvertes.fr/tel-00529410.

Texto completo
Resumen
L'objectif de ce travail est l'étude du comportement à la rupture d'un matériau fragile précontraint : le verre trempé. Pour la prédiction de la résistance du verre trempé, la connaissance de l'état de précontrainte tridimensionnel est indispensable. Dans le cas de l'utilisation du verre pour les structures du bâtiment (ce qui constitue la première application de ce travail), les éléments sont chargés dans leur plan ; le niveau de précontrainte sur la tranche doit être déterminé. La simulation du traitement de trempe (chauffage et refroidissement brutal) par le code aux éléments finis MARC permet de calculer les contraintes transitoires et résiduelles. Le verre est un matériau viscoélastique dont le comportement varie avec la température. Le verre est un matériau fragile. Sa résistance dépend directement de son état de surface, des défauts présents dans l'élément. Une analyse statistique permet de relier la probabilité de rupture au niveau de la contrainte appliquée, de prendre en compte l'effet de surface et l'effet de la distribution des contraintes. Des essais de flexion 4 points sur de petits éléments en verre recuit servent à déterminer les caractéristiques de la loi statistique utilisée (loi de Weibull). L'effet de la vitesse de chargement sur la résistance est mis en évidence et pris en compte dans la modélisation. Il est dû à la fissuration sous-critique des défauts préexistants pendant le chargement en raison de la réaction chimique entre le verre et la vapeur d'eau présente dans l'environnement. Des essais de flexion 4 points sur de grandes poutres en verre recuit permettent de valider la loi statistique pour prédire l'effet de volume dans le verre recuit. Grâce aux résultats des simulations de la trempe et à la connaissance des caractéristiques statistiques de rupture du verre recuit, la prédiction de la résistance de grands éléments en verre trempé est possible. Cette prédiction est validée par des essais de flexion 4 points sur de grandes poutres en verre trempé. Des essais similaires de longue durée sont programmés pour étudier l'évolution de la résistance du verre recuit et trempé dans le temps.
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Le, Tellier Bérenger. "Méthode d'évaluation des systèmes de retenue des enfants dans un environnement automobile". Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD010.

Texto completo
Resumen
Suite à l’évolution de la réglementation relative aux dispositifs de retenue pour enfants en juillet 2013, une campagne d’évaluation expérimentale a permis de constater que la situation des plus jeunes impliqués dans un choc latéral était particulièrement critique. Pour y remédier, une méthodologie originale a été développée dans le but de dimensionner les matériaux d’absorption d’énergie « idéaux » à intégrer aux sièges-auto au niveau des zones d’impact de la tête, de l’épaule et du bassin. Une étude paramétrique basée sur ce concept a alors consisté à piloter la retenue de ces trois segments corporels dans le but de minimiser, soit les critères réglementaires (mannequins Q0 et Q1), soit les critères biomécaniques (modèle hybride Q0-6WOC). Les recommandations issues de cette étude ont ensuite été appliquées à un dispositif de retenue existant afin de l’optimiser en choc latéral. Après avoir vérifié que les valeurs d’accélération linéaire résultante de la tête et de HPC étaient bien inférieures aux seuils imposés par la réglementation, un modèle par Eléments Finis (EF) du siège-auto optimisé a été développé puis validé en situation dynamique. Finalement, après couplage de ce modèle EF du dispositif de retenue optimisé avec le modèle hybride Q0-6WOC, il a été montré que les résultats de simulation numérique en choc latéral étaient deux fois plus faibles que ceux obtenus avec le dispositif de retenue de référence
Following changes in Child Restraint System (CRS) regulation in July 2013, an experimental CRS evaluation campaign has been conducted. Then, it has been noticed that the situation amongst the youngest involved in side impact was particularly critical. An original methodology has been therefore developed in order to define the “best” energy absorption materials to use in child seats for head, shoulder and pelvis areas. A parametric study in which the restraint of each body segments was independently piloted has then been conducted. The aim was to minimize either regulatory criteria of Q0 and Q1 dummies, or biomechanical criteria based on Q0-6WOC hybrid model. Those recommendations have thereafter been applied to improve an existing child restraint system under side impact. First, it has been checked that resultant linear acceleration of the head and HPC criteria were below regulation limits. Second, Finite Element (FE) model of the optimized car seat has been created and validated in several dynamical steps. Third, both reference child restraint system and optimized child seat has been evaluated in side impact with Q0-6WOC hybrid model. Finally, it has been showed that technical changes helped to cut in half the biomechanical results
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Colombier, Brice. "Methods for protecting intellectual property of IP cores designers". Thesis, Lyon, 2017. http://www.theses.fr/2017LYSES038/document.

Texto completo
Resumen
La conception de circuits intégrés est aujourd'hui une tâche extrêmement complexe. Cela pousse les concepteurs à adopter une approche modulaire, où chaque bloc fonctionnel est décrit de manière indépendante. Ces blocs fonctionnels, appelés composants virtuels, sont vendus par leurs concepteurs à des intégrateurs système qui les utilisent dans des projets complexes. Cette division a pour conséquence une hausse inquiétante des cas de copie illégale des composants virtuels. Afin de lutter contre cette menace sur la propriété intellectuelle des concepteurs, l'objectif de cette thèse était de mettre au point un système complet d'activation à distance de composants virtuels, permettant au concepteur de savoir exactement combien de composants virtuels sont effectivement utilisés. Pour cela, les deux premières contributions de cette thèse portent sur la modification de la logique combinatoire d'un composant virtuel afin de le rendre activable. La première méthode permet de forcer les sorties à une valeur fixe de manière contrôlée. La seconde est une technique efficace de sélection de nœuds à altérer, encore une fois de manière contrôlée, afin de rendre le composant virtuel temporairement inutilisable. La troisième contribution de cette thèse est une méthode légère de correction d'erreurs à appliquer aux réponses issues des fonctions physiques non-clonables, qui constituent un identifiant intrinsèque des instances du composant virtuel. Réutilisant un protocole de correction d'erreurs issu de l'échange quantique de dés, cette méthode est beaucoup plus légère que les codes correcteurs d'erreurs classiquement utilisés pour cette application
Designing integrated circuits is now an extremely complex task. This is why designers adopt a modular approach, where each functional block is described independently. These functional blocks, called intellectual property (IP) cores, are sold by their designers to system integrators who use them in complex projects. This division led to the rise of cases of illegal copying of IP cores. In order to fight this threat against intellectual property of lP core designers, the objective of this PhD thesis was to develop a secure remote activation scheme for IP cores, allowing the designer to know exactly how many IP cores are currently used. To achieve this, the first two contributions of thesis thesis deal with the modification of combinational logic of an IP core to make it activable. The first method allows to controllably force the outputs to a fixed logic value. The second is an efficient technique to select the nodes to controllably alter, so that the IP core is temporarily unusable. The third contribution of this thesis is a lightweight method of error correction to use with PUF (Physical Undonable Functions) responses, which are an intrinsic identifier of instances of the lP core. Reusing an error-correction protocol used in quantum key ex.change, this method is much more lightweight than error-correcting
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Tsaousis, Georgios. "Le difficile équilibre entre sécurité et protection des données : comparaison des cadres juridiques français et grec sous l'influence du droit européen". Thesis, Dijon, 2014. http://www.theses.fr/2014DIJOD003.

Texto completo
Resumen
Confronté à sa propre violence, voire aux forces de la nature, l’homme n’a cessé d’exprimer un besoin, celui d’être rassuré et protégé. Ainsi le droit à la sécurité est dès la création des sociétés organisées un principe primordial de leur existence. Depuis les attentats du 11 septembre 2001 la question de la sécurité préoccupe fortement l’actualité politico-médiatique. La mise en place de politiques de sécurité performantes est un objectif qui excite les foules, un facteur qui renforce l’exécutif. Cet objectif est caractérisé comme « besoin social impérieux ». Toutefois sur le plan purement textuel le droit à la sécurité n’apparaît pas d’une façon explicite comme norme constitutionnelle. La sécurité usant des techniques les plus avancées exige, sur le plan juridique, une adaptation du droit à l’ère numérique. Les systèmes de vidéosurveillance, les téléphones portables, la toile et les fichiers automatisés constituent les nouvelles armes de l’appareil policier. A ce titre le traitement des données représente le noyau dur des nouvelles orientations de sécurité. Toutefois l’utilisation des nouvelles technologies pour des raisons liées au maintien du bon ordre nécessite également un autre devoir: le respect des libertés fondamentales préoccupation manifeste du droit. Pour autant, la surestimation des politiques de sécurité et la prolifération des mesures sécuritaires sont susceptibles d’entraîner une certaine dégradation ou un affaiblissement du droit à la protection des données principe fondamental du droit de l’UE dès l’adoption du traité de Lisbonne. Face à ce défi, le droit cherche un juste équilibre entre vie privée et sécurité. Certes, l’équation est ancienne, mais ses modes de résolutions évoluent en raison des innovations technologiques, qui se rient des frontières et mettent à mal le principe de souveraineté territorial inhérent à l’Etat. Les droits nationaux, supportent également mal cette abolition des frontières. La comparaison, des ordres juridiques grecs et français, avec certes leurs différences, en sont de belles illustrations notamment dans le cadre de l’UE où la sécurité nationale en demeurant de la seule responsabilité des Etats membres crée des disparités entre les législations nationales. Dans cet environnement les AAI de protection des données des pays comparés se trouvent à la marge, captives dans des cadres juridiques précis. Seule le juge reste pour faire le contrepoids face aux abus des services policiers. Dans l’état actuel des traités constitutifs, la protection des données traitées à des fins policières par la juridiction luxembourgeoise est impossible. Ainsi la Cour EDH constitue la seule juridiction européenne dotée d’opérer une conciliation des deux exigences fondamentales: maintien de l’ordre public et protection des données. En effet, elle n’exerce qu’un contrôle de proportionnalité des mesures appliquées. Ainsi, l’établissement d’un juste équilibre au moins au sein de l’UE conduit in fine le droit à s’orienter vers la mise en œuvre d’une approche unique des politiques de sécurité à travers d’une éventuelle révision des traités
Confronted by his own violence and the forces of nature, man has consistently expressed the need to be protected. Since the creation of organized societies, the right of security has been a fundamental principle of his existence. Since the attacks of September 11th, 2001, the question of security is being brought up constantly in the media. The implementation of effective security policies is an exciting objective, a factor that strengthens the executive power. This objective has been characterized as a "pressing social need". However, in the purely textual level, the right of security does not appear explicitly as a constitutional norm. Security using the most advanced techniques requires, legally, the adaptation of law to the digital era. CCTV systems, mobile phones, the word-wide-web and automatic archiving constitute the new weapons of the police apparatus. As such, data processing forms the core of the new security guidelines. Nevertheless, using new technologies for reasons related to the maintenance of public order also requires another duty: respect for fundamental freedoms, law's obvious concern. However, the overestimation of security policies and the proliferation of security measures may cause some degradation and loss of the right of data protection, a fundamental principle of EU law since the adoption of the Lisbon Treaty. Faced with this challenge, law seeks the right balance between privacy and security. Of course, the equation is old, but the ways to solve it evolve due to technological advances that laugh at borders and undermine the state's inherent principle of territorial sovereignty. National laws also handle poorly the abolition of frontiers. Comparison between Greek and French legal systems, albeit with their differences, is a beautiful illustration of this fact, notably within the EU where national security, remaining the sole responsibility of the member states, creates disparities between national laws. In this environment the Independent Administrative Authorities of data protection of the compared countries remain at the margin, trapped in specific legal frameworks. Only the judge remains to the counterweight police abuse. In the current state of the constitutive treaties, protection of processed data for police purposes by the Luxembourg court is impossible. And the ECHR is the only european court capable of providing a balance between the two basic requirements: maintenance of public order and data protection. Indeed, it only exercises a proportionality test of the applied measures. Thus, establishment of a balance at least within the EU ultimately leads law towards the implementation of a unique approach to security policies through a possible revision of the Treaties
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía