Thèses sur le sujet « Chiffrement basé sur les réseaux »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Chiffrement basé sur les réseaux.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Chiffrement basé sur les réseaux ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Siad, Amar. « Protocoles de génération des clés pour le chiffrement basé sur de l'identité ». Paris 8, 2012. http://www.theses.fr/2012PA083660.

Texte intégral
Résumé :
Le chiffrement basé sur de l'identité soufre d'un problème de confiance dans l'autorité de génération des clés PKG (Private Key Generator), ce qui se traduit par la capacité de cette autorité à produire et à distribuer, à l'insu de l'utilisateur légitime, des clés multiples ou des copies multiples d'une seule clé. Ce problème rend le déploiement de ces systèmes limité à des domaines où la confiance dans le PKG doit avoir un niveau assez élevé. Une question importante et naturelle est de se demander comment peut-on réduire la confiance qu'on doit avoir dans le PKG. Dans cette thèse, après avoir procédé à une mise au point de l'état de l'art sur le sujet, nous répondons à cette question en étudiant ce problème dans ces aspects théoriques et pratiques. Sur le plan théorique, nous présentons des constructions de protocoles cryptographiques distribués permettant de réduire la confiance à son niveau le plus bas. Nous développons des protocoles de génération de clés privées dans différents modèles de sécurité tout en présentant des applications réelles utilisant ces nouveaux protocoles dans le domaine du chiffrement cherchable. En plus, nous présentons les infrastructures nécessaires au déploiement de nos protocoles. Sur le plan pratique, nous implémentons KGLib: la première bibliothèque complète, efficace et modulaire regroupant l'ensemble des techniques de génération des clés connues dans le domaine du chiffrement basé sur l'identité. Cette bibliothèque s'inscrit dans une perspective de fournir des outils robustes conçus de manière modulaire et réutilisables pour permettre l'implémentation facile et le prototypage rapide des derniers résultats émanant de la cryptographie théorique
Identity-Based Encryption suffers from the problem of trust in the key generation authority PKG (Private Key Generator), which results in the ability of this authority to produce and distribute, without the knowledge a genuine user, multiple private-keys or multiple copies of a single key. This problem makes the deployment of these systems limited to areas where trust in the PKG must have a fairly high level. An important and natural question is to ask how can we reduce the trust one should have in the PKG. In this thesis, after conducting a development of the state of the art on the subject, we answer this question by studying this problem in its theoretical and practical aspects. On the theoretical stage, we present constructions of distributed cryptographic protocols that reduce the trust to its lowest level never reached before. We develop protocols for private-key generation in different security models while presenting real-world applications using these new protocols in the setting of searchable encryption. Furthermore, we develop necessary infrastructures needed for the deployment of our protocols. In practical terms, we implement KGLib: the first complete, efficient and modular library which brings together the most known techniques for private-key generation for identity-based cryptosystems. This library aims at providing robust tools designed in a modular and reusable way to allow easy implementation and rapid prototyping of the latest results coming from theoretical cryptography
Styles APA, Harvard, Vancouver, ISO, etc.
2

Chinthamani, Dwarakanath Nagarjun. « Theoretical and practical contributions to homomorphic encryption ». Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG103.

Texte intégral
Résumé :
Dans les schémas de chiffrement classique, l'objectif principal du schéma est d'assurer la confidentialité des données. Le chiffrement totalement homomorphe, une variante réalisée pour la première fois par Gentry, est un schéma de chiffrement qui permet également le calcul sur les données chiffrées, sans jamais avoir besoin de les déchiffrer. En l'utilisant, tout tiers non fiable avec le matériel de clé pertinent peut effectuer des calculs homomorphes, conduisant à de nombreuses applications où un tiers non fiable peut toujours être autorisée à calculer sur des chiffrements de données sensibles (cloud computing), ou où la confiance doit être décentralisée ( calcul multipartite).Cette thèse comporte deux contributions principales au chiffrement totalement homomorphe. Dans la première partie, on prend un FHE basé sur les nombres de Fermat et on étend le chiffrement sur des nombres à plusieurs bits. On ajoute la possibilité d'évaluer homomorphiquement des fonctions de petites tailles, et en les utilisant, on arrive à faire des additions et multiplications avec peu de bootstrappings, et qui peux servir comme composante des computations plus larges. Certains résultats plus récents sur les variables aléatoires sous-gaussiennes sont adaptés pour donner une meilleure analyse d'erreur.L'un des obstacles pour la généralisation de FHE est sa grande complexité computationelle, et des architectures optimisées pour accélérer les calculs FHE sur du matériel reconfigurable ont été proposées. La deuxième partie propose une architecture materiélle pour l'arithmetique des polynômes utilisés dans les systèmes comme FV. Elle peut être utlisée pour faire l'addition et la multiplication des polynômes anneaux, en utilisant une paire d'algorithmes NTT qui évite l'utilisation de bit reversal, et comprend les multiplications par les vecteurs de poids. Pour le côut de stocker les facteurs twiddles dans un ROM, on évite les mises à jour des twiddles, ce qui mène à un compte de cycle beaucoup plus petit
In conventional encryption schemes, the primary aim of the scheme is to ensure confidentiality of the data. Fully Homomorphic Encryption (FHE), a variant first realized by Gentry, is an encryption scheme which also allows for computation over the encrypted data, without ever needing to decrypt it. Using this, any untrusted third party with the relevant key material can perform homomorphic computations, leading to many applications where an untrusted party can still be allowed to compute over encryptions of sensitive data (cloud computing), or where the trust needs to be decentralized (multi-party computation).This thesis consists of two main contributions to Fully Homomorphic Encryption. In the first part, we take an FHE based on Fermat numbers and extend it to work with multi-bit numbers. We also add the ability to homomorphically evaluate small functions, with which we can compute additions and multiplication with only a few bootstrappings, and these can be used as building blocks for larger computations. Some newer results on sub-Gaussian random variables are adapted to give a better error analysis.One of the obstacles in bringing FHE to the mainstream remains its large computational complexity, and optimized architectures to accelerate FHE computations on reconfigurable hardware have been proposed. The second part of our thesis proposes an architecture for the polynomial arithmetic used in FV-like cryptosystems. This can be used to compute the sum and product of ring polynomials, using a pair of NTT algorithms which avoids the use of bit reversal, and subsumes the need for multiplication by weight vectors. For the cost of storing twiddle factors in a ROM, we avoid twiddle updates leading to a much smaller cycle count
Styles APA, Harvard, Vancouver, ISO, etc.
3

Laganier, Julien. « Architecture de sécurité décentralisée basée sur l'identification cryptographique ». Lyon, École normale supérieure (sciences), 2005. http://www.theses.fr/2005ENSL0354.

Texte intégral
Résumé :
L'objectif de ce travail de thèse est d'étudier le problème de la sécurisation des infrastructures distribuées de communication, d'exécution ou de stockage, dynamiques et à très large échelle. La majorité des solutions de sécurité reposent sur l'existence d'infrastructures de clefs publiques globales, dont le déploiement soulève de nombreux problèmes, tant techniques qu'administratifs et politiques. Afin d'échapper à cette contrainte, nous proposons une approche de sécurité décentralisée basée sur l'identification cryptographique (CBID, CGA, HBA et HIP) et la délégation (certificats SPKI). Nous montrons qu'une telle approche de sécurité est plus adaptée à la nature intrinsèquement décentralisée de systèmes de grandes tailles, ouverts et partagés, tels que l'Internet ou les grilles de calculs. Pour valider cette approche, nous l'avons instanciée en nous appuyant sur les protocoles de sécurité pour IP (IPsec), et d'identification des hôtes (HIP - Host Identity Protocol). Nous montrons ainsi comment sont sécurisés différents protocoles réseaux. En particulier, des solutions de sécurité pour la couche réseau IPv6 (Internet Protocol version 6) et pour sa composante de découverte du voisinage ND (Neighbor Discovery), ainsi que pour virtualiser l'infrastructure d'exécution, de communication et de stockage des grilles de calcul (Supernet, HIPernet, Internet Backplane Protocol) sont présentées et analysées
This thesis studies the problem of securing large scale and dynamic communication, execution and storage infrastructures. The majority of existing security solutions relies on the existence of a global public key infrastructure. The deployment of such a global infrastructure is problematic at technical, administrative and political levels. In order to relieve solutions from this constraint, we propose a decentralized security approach based on cryptographic identifiers (CBID, CGA, HBA and HIP) and delegation (SPKI certificates). We show that this security approach fits better to the intrinsical decentralized nature of the large scale, shared and open systems like Internet or grid computing. To validate the approach, we instantiate it into several security solutions for existing protocols using the IP security (IPsec) and host identity (HIP) protocols. In particular, security solutions for the IPv6 (Internet Protocol version 6) network layer and its ND (Neighbor Discovery) component, as well as for virtualization of the execution, communication and storage infrastructure of grid computing (Supernet, HIPernet and Internet Backplane Protocol) are presented and analysed
Styles APA, Harvard, Vancouver, ISO, etc.
4

Ricosset, Thomas. « Signature électronique basée sur les réseaux euclidiens et échantillonnage selon une loi normale discrète ». Thesis, Toulouse, INPT, 2018. http://www.theses.fr/2018INPT0106/document.

Texte intégral
Résumé :
La cryptographie à base de réseaux euclidiens a généré un vif intérêt durant les deux dernièresdécennies grâce à des propriétés intéressantes, incluant une conjecture de résistance àl’ordinateur quantique, de fortes garanties de sécurité provenant d’hypothèses de difficulté sur lepire cas et la construction de schémas de chiffrement pleinement homomorphes. Cela dit, bienqu’elle soit cruciale à bon nombre de schémas à base de réseaux euclidiens, la génération debruit gaussien reste peu étudiée et continue de limiter l’efficacité de cette cryptographie nouvelle.Cette thèse s’attelle dans un premier temps à améliorer l’efficacité des générateurs de bruitgaussien pour les signatures hache-puis-signe à base de réseaux euclidiens. Nous proposons unnouvel algorithme non-centré, avec un compromis temps-mémoire flexible, aussi rapide que savariante centrée pour des tables pré-calculées de tailles acceptables en pratique. Nousemployons également la divergence de Rényi afin de réduire la précision nécessaire à la doubleprécision standard. Notre second propos tient à construire Falcon, un nouveau schéma designature hache-puis-signe, basé sur la méthode théorique de Gentry, Peikert et Vaikuntanathanpour les signatures à base de réseaux euclidiens. Nous instancions cette méthode sur les réseauxNTRU avec un nouvel algorithme de génération de trappes
Lattice-based cryptography has generated considerable interest in the last two decades due toattractive features, including conjectured security against quantum attacks, strong securityguarantees from worst-case hardness assumptions and constructions of fully homomorphicencryption schemes. On the other hand, even though it is a crucial part of many lattice-basedschemes, Gaussian sampling is still lagging and continues to limit the effectiveness of this newcryptography. The first goal of this thesis is to improve the efficiency of Gaussian sampling forlattice-based hash-and-sign signature schemes. We propose a non-centered algorithm, with aflexible time-memory tradeoff, as fast as its centered variant for practicable size of precomputedtables. We also use the Rényi divergence to bound the precision requirement to the standarddouble precision. Our second objective is to construct Falcon, a new hash-and-sign signaturescheme, based on the theoretical framework of Gentry, Peikert and Vaikuntanathan for latticebasedsignatures. We instantiate that framework over NTRU lattices with a new trapdoor sampler
Styles APA, Harvard, Vancouver, ISO, etc.
5

Prest, Thomas. « Gaussian sampling in lattice-based cryptography ». Thesis, Paris, Ecole normale supérieure, 2015. http://www.theses.fr/2015ENSU0045/document.

Texte intégral
Résumé :
Bien que relativement récente, la cryptographie à base de réseaux euclidiens s’est distinguée sur de nombreux points, que ce soit par la richesse des constructions qu’elle permet, par sa résistance supposée à l’avènement des ordinateursquantiques ou par la rapidité dont elle fait preuve lorsqu’instanciée sur certaines classes de réseaux. Un des outils les plus puissants de la cryptographie sur les réseaux est le Gaussian sampling. À très haut niveau, il permet de prouver qu’on connaît une base particulière d’un réseau, et ce sans dévoiler la moindre information sur cette base. Il permet de réaliser une grande variété de cryptosystèmes. De manière quelque peu surprenante, on dispose de peu d’instanciations pratiques de ces schémas cryptographiques, et les algorithmes permettant d’effectuer du Gaussian sampling sont peu étudiés. Le but de cette thèse est de combler le fossé qui existe entre la théorie et la pratique du Gaussian sampling. Dans un premier temps, nous étudions et améliorons les algorithmes existants, à la fois par une analyse statistique et une approche géométrique. Puis nous exploitons les structures sous-tendant de nombreuses classes de réseaux, ce qui nous permet d’appliquer à un algorithme de Gaussian sampling les idées de la transformée de Fourier rapide, passant ainsi d’une complexité quadratique à quasilinéaire. Enfin, nous utilisons le Gaussian sampling en pratique et instancions un schéma de signature et un schéma de chiffrement basé sur l’identité. Le premierfournit des signatures qui sont les plus compactes obtenues avec les réseaux à l’heure actuelle, et le deuxième permet de chiffrer et de déchiffrer à une vitesse près de mille fois supérieure à celle obtenue en utilisant un schéma à base de couplages sur les courbes elliptiques
Although rather recent, lattice-based cryptography has stood out on numerous points, be it by the variety of constructions that it allows, by its expected resistance to quantum computers, of by its efficiency when instantiated on some classes of lattices. One of the most powerful tools of lattice-based cryptography is Gaussian sampling. At a high level, it allows to prove the knowledge of a particular lattice basis without disclosing any information about this basis. It allows to realize a wide array of cryptosystems. Somewhat surprisingly, few practical instantiations of such schemes are realized, and the algorithms which perform Gaussian sampling are seldom studied. The goal of this thesis is to fill the gap between the theory and practice of Gaussian sampling. First, we study and improve the existing algorithms, byboth a statistical analysis and a geometrical approach. We then exploit the structures underlying many classes of lattices and apply the ideas of the fast Fourier transform to a Gaussian sampler, allowing us to reach a quasilinearcomplexity instead of quadratic. Finally, we use Gaussian sampling in practice to instantiate a signature scheme and an identity-based encryption scheme. The first one yields signatures that are the most compact currently obtained in lattice-based cryptography, and the second one allows encryption and decryption that are about one thousand times faster than those obtained with a pairing-based counterpart on elliptic curves
Styles APA, Harvard, Vancouver, ISO, etc.
6

Garcia, Emmanuel. « Tatouage d'objets 3D basé sur la texture ». Nice, 2004. http://www.theses.fr/2004NICE4025.

Texte intégral
Résumé :
Tous les algorithmes de tatouage d'objets 3D développés à ce jour ont pour but de protéger soit les données informatiques décrivant la géométrie d'un objet 3D, soit la forme géométrique intrinsèque d'un objet 3D. Partant de l'observation que ces méthodes ne peuvent protéger l'utilisation des objets 3D en terme de représentation visuelle, nous proposons une approche radicalement différente, basée sur la texture. L'idée est de tatouer la texture d'un objet 3D et d'être capable d'extraire le tatouage de n'importe quelle représentation 2D de l'objet. Cette méthode procède par la reconstruction de l'image de texture de l'objet 3D à partir d'une vue 2D donnée. A cet effet les paramètres de rendu doivent être connus ou estimés. Après l'évaluation de notre algorithme en environnement contrôlé nous proposons donc un algorithme de recalage projectif permettant d'estimer avec précision la projection utilisée pour produire une vue 2D donnée. La dernière partie de la thèse présente un algorithme de dissimulation des données géométriques d'un objet 3D dans l'image de texture associée à cet objet. L'orginalité de cet algorithme par rapport aux autres algorithmes de stéganographie est que l'information à cacher est intimement liée à l'information support. Nous voulons conserver ce lien de cohérence spatiale, en même temps qu'assurer une dégradation progressive de l'information cachée lorsque l'information support se dégrade. Ceci est réalisé par l'intermédiaire d'une représentation spatio-fréquentielle de la géométrie et de la texture, lesquelles sont toutes deux représentées par une fonction des coordonnées cylindriques
The goal of all current 3D object watermarking algorithms is to protect either the computer data representing an object's geometry or the intrinsic shape of a 3D object. Observing that these methods cannot protect the use of 3D objects in terms of visual representation, we propose a completely different approach, based on the texture of 3D objects. The idea is to watermark the texture of a 3D object and then be able to retrieve the watermark from any 2D representation of the object. This method works by reconstructing the object's texture from a given 2D view of it. For this, the rendering parameters must be known or estimated. After evaluating our algorithm in a controlled environment we thus propose a projective registration algorithm allowing us to accurately estimate the perspective projection used to produce a given 2D view. The last part of this thesis presents an algorithm for hiding the geometry of a 3D object into its texture image. The originality of this data-hiding algorithm is that the hidden information is intimately linked to the host information. We want to preserve this link of spatial coherence as well as ensure that the retrieved data degrades progressively when the host information is degraded. This is achieved through a spatio-frequential representation of geometry and texture, which are both represented as a function of cylindrical coordinates
Styles APA, Harvard, Vancouver, ISO, etc.
7

Brini, Asma Hedia. « Un modèle de recherche d'information basé sur les réseaux possibilistes ». Toulouse 3, 2005. http://www.theses.fr/2005TOU30224.

Texte intégral
Résumé :
Nous proposons une approche moins restrictive pour la modélisation de la pertinence dans le cadre de la Recherche d'Information (RI). Un réseau possibiliste décrit graphiquement le modèle : les documents, leurs termes d'indexation et la requête sont des variables binaires et les arcs sont quantifiés dans le cadre de la théorie des possibilités. Ce modèle répond à des propositions du type : il est plausible à un certain degré que le document constitue une bonne réponse à la requête; (ii) il est nécessaire, certain que le document répond à la requête. La première proposition vise à éliminer certains documents de la réponse ; la seconde se focalise sur les documents qui seraient pertinents. Nous avons aussi défini trois nouvelles mesures qui mesurent l'importance d'un terme dans la collection dans le but de pénaliser les documents ne contenant pas certains termes (importants) par exemple. Ces mesures sont adaptables à tous les modèles de RI. Les résultats obtenus sont encourageants
We propose an approach to Information Retrieval (IR) where relevance is flexible. The model is based on possibilistic networks where documents, index terms and query are binary variables and arcs are quantified in the theory of possibility framework. This model should provide proposition like : (i) it is plausible to a certain degree that the document is relevant ; (ii) it is necessary that the document is relevant given the query. The first kind of answer is meant to eliminate irrelevant documents (weak plausibility). The second answer focuses attention on what looks very relevant. Besides, we proposed three new discriminant factors that penalise documents not containing query important terms. These factors can be adaptable to any existing models. The results obtained show the effectiveness of our approach
Styles APA, Harvard, Vancouver, ISO, etc.
8

Aussibal, Julien. « Rsids : un IDS distribué basé sur le framework CVSS ». Pau, 2009. http://www.theses.fr/2009PAUU3044.

Texte intégral
Résumé :
La détection d'intrusion est une méthode qui permet de garantir la notion de disponibilité dans les systèmes et réseaux informatiques. Cette disponibilité est généralement mise à mal par différentes anomalies. Ces anomalies peuvent être provoqués soit de manière légitime suite a des opérations involontaires intervenant sur ces systèmes (rupture de lien, embouteillages,. . . ), soit de manière illégitimes avec des opérations malveillantes ayant pour but de nuire à la disponibilité de ces systèmes. La mise en oeuvre d'outils recherchant ces différentes anomalies, que sont les IDS (Intrusion Dectetion System), contribuent à détecter au plus tôt ces anomalies et à les bloquer. Cette thèse nous a permis de mettre en place une nouvelle plateforme de génération d'anomalies légitimes et illégitimes. Ce travail a été réalisé dans le cadre du projet METROSEC. Cette plateforme nous a permis d'obtenir différentes captures de trafics contenant ces anomalies. Les différentes anomalies illégitimes ont été réalisées avec des outils classiques de Dénis de Service qui sont TFN2k ou encore Trinoo. Des anomalies légitimes ont aussi été réalisées sous la forme de phénomène de foules subites. L'ensemble de ces captures réelles de trafic ont été utilisées dans le cadre d'autres recherches sur la détection d'intrusion pour l'évaluation de nouvelles méthodes de détection. Dans un second temps, la mise en oeuvre d'un nouvel outil de détection nous a semblé nécessaire afin d'améliorer la qualité de détection de ces anomalies. Ce nouvel IDS distribué, appelé RSIDS (Risk Scored Intrusion Detection System), permettra de récupérer les résultats d'une multitude de sondes hétérogènes. L'utilisation de ses sondes va permettre de supprimer les risques de fausses alertes. En effet une sonde n'est pas capable de détecter l'ensemble des anomalies pouvant arriver sur un système ou un réseau. Chacune des remontées d'alertes fournies par ses sondes sera évaluée en fonction de son degré de dangerosité. Cette évaluation de la dangerosité s'appuie sur le framework CVSS (Common Vulnerability Scoring System)
Intrusion detection is a method that ensures the availability concept in systems and computer networks. This availability is generally undermined by various anomalies. These anomalies can be caused either legitimately unintended result has operations working on these systems (broken link, traffic, or. . . ), so illegitimate with malicious operations designed to undermine the availability of these systems. The implementation of these various anomalies detection tools, such as IDS (Intrusion Detection System), contribute to early identification of these anomalies and to block them. This thesis has enabled us to develop a new generation platform to generate legitimate and illegitimate anomalies. This work was carried out under the project METROSEC. This platform has enabled us to obtain various traffic captures containing these anomalies. The various illegimitate anomalies were performed with classic tools to make Denial of Service like TFN2k or Trinoo. Legitimate Anormalies were also conducted with flash crowd phenomenon. All these catch real traffic were used in further research on intrusion detection for the evaluation of new methods of detection. In a second part, the implementation of a new detection tool seems necessary to improve the quality of detection of these anomalies. This new distributed IDS, called RSIDS (Risk Scored Intrusion Detection System), will retrieve the results of a multitude of heterogeneous probes. The use of probes will remove the risk of false alarms. Indeed, a probe is not able to detect all anomalies that occur on a system or network. Each alert provided by its probes will be evaluated according to their degree of dangerousness. The assessment of dangerousness based on the framework CVSS (Common Vulnerability Scoring System)
Styles APA, Harvard, Vancouver, ISO, etc.
9

Royer, Mickaël. « Routage basé sur le contenu dans les réseaux ad-hoc aéronautiques ». Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30047/document.

Texte intégral
Résumé :
Dans un contexte de besoins croissants de moyens de communication pour augmenter la sécurité des vols et répondre aux attentes des compagnies et des passagers, le monde de l'aviation civile cherche de nouveaux systémes de communication pouvant répondre à ces objectifs. Les réseaux ad-hoc aéronautiques, AANET (Aeronautical Ad hoc NETworks) représentent une approche innovante pour répondre à cette problématique. Il s'agit de réseaux auto-configurés, n'utilisant pas d'infrastructure fixe et dont la spécificité réside dans le fait que les nfiuds composant le réseau sont des avions commerciaux. Les AANET peuvent être vus comme un sous ensemble des VANET (Vehicular Ad-Hoc Networks) puisqu'ils partagent de nombreuses caractéristiques comme les contraintes imposées sur les trajectoires. Afin d'utiliser le plus eficacement ces réseaux mobiles tout en répondant aux besoins de nouvelles applications, telle que l'information météorologique temps réel sur des phénoménes dangereux, qui nécessitent des communications d'avion à avion, la proposition avancée dans cette thése est d'utiliser le paradigme du routage basé sur le contenu au dessus des AANET. Dans ce type de routage, ce n'est plus une adresse de destination qui est utilisée pour joindre le ou les correspondants, mais le contenu du message qui permet de décider des destinataires. Dans ce paradigme, un émetteur envoi un message possédant des attributs et le message est alors transmis par le réseau uniquement aux terminaux intéressés par le contenu du message. Appliqué à l'information météorologique, cette approche permet à un aéronef détectant un phénoméne dangereux tel qu'un orage de prévenir uniquement les avions intéressés par cet événement, c'est à dire ceux dont la trajectoire passe prés de l'orage dans le temps de vie du phénoméne. Dans cette thése, nous avons choisi de nous appuyer sur le paradigme populaire de publication/souscription (P/S) pour fournir un service de routage basé sur le contenu. Dans cette approche, des éditeurs publient des événements et des nfiuds envoient des abonnements pour déclarer les contenus qui les intéressent au systéme qui est alors en charge de leur faire suivre les événements répondant à leur demande. Aprés un état de l'art sur les systémes P/S existants, notamment ceux adaptés aux VANET, nous avons choisi de tester des solutions paraissant intéressantes dans un contexte AANET. Pour cela, nous avons développé sous Omnet++ un module de mobilité utilisant des reports de position réels afin de rejouer des journées complétes de trafic d'avions réels, ainsi que plusieurs applications aéronautiques s'appuyant sur un systéme P/S permettant de générer des données réalistes. Les résultats montrent que ces solutions ne sont pas complétement adaptées pour un contexte AANET. C'est pourquoi, dans un second temps, nous avons proposé un nouveau systéme P/S pour les AANET. Cette solution s'appuie sur une architecture recouvrante ("overlay network") construite à l'aide d'un algorithme original de regroupement à 1-saut (1-hop clusterisation) adapté aux AANET. Afin de favoriser la stabilité de l'architecture recouvrante, cet algorithme s'appuie sur le nombre de voisins et la mobilité relative entre les nfiuds voisins pour définir les groupes. Les tests réalisés montrent que le systéme P/S s'appuyant sur cette surcouche ofire de meilleurs résultats que les solutions testées précédemment, que ce soit en termes de charge réseau ou de pourcentage d'événements délivrés
In a context of growing needs of communication means to increase ight safety and meet the expectations of companies and passengers, the world of civil aviation seeks new communication systems that can meet these objectives. The Aeronautical Ad-Hoc Networks, AANETs represent an innovative approach to address this problem. It is self-configured networks, using no fixed infrastructure where the nodes are commercial aircraft. The AANETs can be seen as a subset of the VANET (Vehicular Ad-Hoc Networks) since they share many features as the constraints imposed on the trajectories. In order to use these mobile networks more eficiently while meeting the needs of new applications, such as the transmission of weather information in real time, requiring air to air communications. , we propose in this thesis to use the paradigm of content based routing above AANET. In this kind of routing, it is not a destination address that is used to identify the recipients, but the message content itself. In this paradigm, a transmitter sends a message having attributes and the message is then transmitted by the network to nodes interested by the content of the message. Applied to weather information update, this approach allows an aircraft detecting a dangerous phenomenon such as a thunderstorm to only prevent interested nodes, ie those whose the trajectorycome close to the storm during the lifetime of the event. In this thesis, we have chosen to rely on the popular Publish / Subscribe (P/S) paradigm to provide a content based routing service. In this approach, publishers publish events. On the other side, nodes send subscriptions to declare their interest and the system is then in charge of forward events to nodes that match their needs. After a state of the art about existing P / S systems, particularly those adapted to VANETs, we choose to test the solutions seemed interesting in a AANET context. To accomplish this, we have developed as a Omnet ++ mobility model using real position reports to replay a full day of trafic of aircraft and several aeronautical applications based on a P / S system to generate realistic data. The results show that these solutions are not completely suitable for AANET context. Therefore, in a second step, we proposed a new P / S system which is more eficient on a AANET. This solution is based on an overlay network built thanks to a new of 1-hopping clustering algorithm suitable for AANET. In order to increase the stability of the overlay architecture, this algorithm is based on the number of neighbors and the relative mobility between the nodes to define groups. The tests show that the P/S system based on this overlay provides better results than the previously tested solutions, whether in terms of network load or percentage of transmitted events
Styles APA, Harvard, Vancouver, ISO, etc.
10

Frainay, Clément. « Système de recommandation basé sur les réseaux pour l'interprétation de résultats de métabolomique ». Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30297/document.

Texte intégral
Résumé :
La métabolomique permet une étude à large échelle du profil métabolique d'un individu, représentatif de son état physiologique. La comparaison de ces profils conduit à l'identification de métabolites caractéristiques d'une condition donnée. La métabolomique présente un potentiel considérable pour le diagnostic, mais également pour la compréhension des mécanismes associés aux maladies et l'identification de cibles thérapeutiques. Cependant, ces dernières applications nécessitent d'inclure ces métabolites caractéristiques dans un contexte plus large, décrivant l'ensemble des connaissances relatives au métabolisme, afin de formuler des hypothèses sur les mécanismes impliqués. Cette mise en contexte peut être réalisée à l'aide des réseaux métaboliques, qui modélisent l'ensemble des transformations biochimiques opérables par un organisme. L'une des limites de cette approche est que la métabolomique ne permet pas à ce jour de mesurer l'ensemble des métabolites, et ainsi d'offrir une vue complète du métabolome. De plus, dans le contexte plus spécifique de la santé humaine, la métabolomique est usuellement appliquée à des échantillons provenant de biofluides plutôt que des tissus, ce qui n'offre pas une observation directe des mécanismes physiologiques eux-mêmes, mais plutôt de leur résultante. Les travaux présentés dans cette thèse proposent une méthode pour pallier ces limitations, en suggérant des métabolites pertinents pouvant aider à la reconstruction de scénarios mécanistiques. Cette méthode est inspirée des systèmes de recommandations utilisés dans le cadre d'activités en ligne, notamment la suggestion d'individus d'intérêt sur les réseaux sociaux numériques. La méthode a été appliquée à la signature métabolique de patients atteints d'encéphalopathie hépatique. Elle a permis de mettre en avant des métabolites pertinents dont le lien avec la maladie est appuyé par la littérature scientifique, et a conduit à une meilleure compréhension des mécanismes sous-jacents et à la proposition de scénarios alternatifs. Elle a également orienté l'analyse approfondie des données brutes de métabolomique et enrichie par ce biais la signature de la maladie initialement obtenue. La caractérisation des modèles et des données ainsi que les développements techniques nécessaires à la création de la méthode ont également conduit à la définition d'un cadre méthodologique générique pour l'analyse topologique des réseaux métaboliques
Metabolomics allows large-scale studies of the metabolic profile of an individual, which is representative of its physiological state. Metabolic markers characterising a given condition can be obtained through the comparison of those profiles. Therefore, metabolomics reveals a great potential for the diagnosis as well as the comprehension of mechanisms behind metabolic dysregulations, and to a certain extent the identification of therapeutic targets. However, in order to raise new hypotheses, those applications need to put metabolomics results in the light of global metabolism knowledge. This contextualisation of the results can rely on metabolic networks, which gather all biochemical transformations that can be performed by an organism. The major bottleneck preventing this interpretation stems from the fact that, currently, no single metabolomic approach allows monitoring all metabolites, thus leading to a partial representation of the metabolome. Furthermore, in the context of human health related experiments, metabolomics is usually performed on bio-fluid samples. Consequently, those approaches focus on the footprints left by impacted mechanisms rather than the mechanisms themselves. This thesis proposes a new approach to overcome those limitations, through the suggestion of relevant metabolites, which could fill the gaps in a metabolomics signature. This method is inspired by recommender systems used for several on-line activities, and more specifically the recommendation of users to follow on social networks. This approach has been used for the interpretation of the metabolic signature of the hepatic encephalopathy. It allows highlighting some relevant metabolites, closely related to the disease according to the literature, and led to a better comprehension of the impaired mechanisms and as a result the proposition of new hypothetical scenario. It also improved and enriched the original signature by guiding deeper investigation of the raw data, leading to the addition of missed compounds. Models and data characterisation, alongside technical developments presented in this thesis, can also offer generic frameworks and guidelines for metabolic networks topological analysis
Styles APA, Harvard, Vancouver, ISO, etc.
11

Kanazy, Redouane. « Pronostic des événements de défaillance basé sur les réseaux de Petri Temporels labellisés ». Thesis, Lyon, 2020. http://theses.insa-lyon.fr/publication/2020LYSEI132/these.pdf.

Texte intégral
Résumé :
L’utilisation d’outils d’aide à la décision accroît l’efficacité d’agilité tout en réduisant les coûts relatifs au maintien du bon fonctionnement. Les arrêts accidentel ou intentionnel, provoquent des conséquences désastreuses et coûteuses. La communauté scientifique des systèmes à événements discrets (SED), s’est intéressée aux relations de causes à effets entre certains états nominaux et dysfonctionnels, pour proposer des solutions qui répond à cette problématique. Nos travaux s’insèrent dans le cadre d’un pilotage d’un système soumis à des événements de défaillance (EDef). Nous avons développé une approche de pronostic à base de modèle, qui prédit au plus tôt la date d’occurrence d’un EDef, permettant à l’opérateur de planifier les interventions de réparation sur des composants avant d’altérer le bon fonctionnement. Nous avons modélisé le système par des réseaux de Petri temporels labellisés (RdPTL), vu que l’analyse de son modèle comportemental est basée sur la séquentialité et la date d’occurrence des événements. Nous avons représenté ces dynamiques au travers d’une modélisation dans un contexte d’analyse de modes, limitée à 3 modes de fonctionnement (nominal, dégradé et critique). A partir de son graphe d’accessibilité, nous avons construit un pronostiqueur, qui permet de repérer l’ensemble des séquences d’événements qui se terminent par un Edef. Nous avons utilisé la notion de paramétrisation des états du système i.e. l’introduction d’une horloge et un système d’inéquation (SE) des horloges pour chaque état du système. Les états obtenus de la discrétisation du temps sont alors regroupés dans un seul état et le SE déterminera les valeurs des horloges. Le pronostic ne peut être toujours assuré. Nous avons alors établi la propriété de pronosticabilité, pour discerner les séquences qui sont pronosticables de celles qui ne le sont pas. Pour valider notre approche, nous avons choisi la cellule d’une batterie comme benchmark et l’outil INA pour générer le graphe d’accessibilité
The deployment of decision-support tools increases agility efficiency while reducing the cost of maintaining proper operation. Accidental or intentional shutdowns have disastrous and costly consequences. The scientific community of discrete event systems (DES), has been interested in the cause-effect relationships between certain nominal and dysfunctional states, to propose solutions responding to this problem. Our work is part of the framework of a steering of a system subject to failure events (FE). We have developed a model-based prognostic approach, which predicts the earliest date of occurrence of an FE, allowing the operator to plan repair interventions on components before altering the proper functioning. We modeled the system using labeled temporal Petri nets (RdPTL), since the analysis of its behavioral model is based on the sequentiality and date of occurrence of events. We have represented these dynamics through modeling in a context of mode analysis, limited to 3 modes of operation (nominal, degraded and critical). From its accessibility graph, we have built a prognosticator, which allows us to identify all the sequences of events ending with an FE. We used the notion of parameterization of the system states i.e. the introduction of a clock and a system of clock inequation (SE) for each state of the system. The states obtained from the discretization of time are then grouped in a single state and the SE will determine the values of the clocks. The prognosis cannot always be guaranteed. We then established the prognosticability property, to distinguish the sequences that are prognosticable from those that are not. To validate our approach, we chose a battery cell as a benchmark and the INA tool to generate the accessibility graph
Styles APA, Harvard, Vancouver, ISO, etc.
12

Grida, Ben Yahia Imen. « Mécanisme de gestion basé sur les principes de l'informatique autonome pour les services de la nouvelle génération ». Evry, Institut national des télécommunications, 2008. http://www.theses.fr/2008TELE0012.

Texte intégral
Résumé :
Next Generation Networks (NGN) are designed to allow rapid delivery of Next Generation Services (NGS) that are available in any place, at any time, on any device, and through any access network. One of the most important NGN challenge arises from the management operations of those services and their corresponding new business models. In fact, adding new functionalities or new services requires the adaptation of the legacy Operations Support Systems which takes on average two years to be achieved. Moreover the service customization is a new feature required by the customer of the Next Generation Services, and the generic management systems and the rigid management operations are no longer suitable to handle it. The goal of our research is to make services self managed in order to simplify the complexity of the management systems and to enable the distribution of management tasks amongs them. We subdivide management tasks into a set of goals achieved by the Self Managed Next Generation Services individually or in cooperation. For that we enhance each service with “Operations Manager”. The Operations Manager is the entity we define and develop, based on the autonomic principles to handle the service delivery chain and so the management tasks. Alongside the state of the art about the Next Generation services, the emerging management pardigms, the semantic aspects of management, we mainly aim to answer the following questions : - What are the requirements to build Self-Managed NGS, relying on the NGS architectures defined in the ETSI-TISPAN specifications and in the OMA specifications, with Autonomic principles? - What is the role of semantic and ontology for the management of the Next Generation services? - How could such Self Managed NGS be implemented?
Styles APA, Harvard, Vancouver, ISO, etc.
13

Vautherin, Jacques. « Un modèle algébrique, basé sur les réseaux de Petri, pour l'étude des systèmes parallèles ». Paris 11, 1985. http://www.theses.fr/1985PA112219.

Texte intégral
Résumé :
Nous présentons une méthode de spécification formelle des systèmes parallèles qui combine la théorie des types abstraits algébriques à celle des réseaux de Petri (RdP). Nous introduisons aussi quelques d'outils d'analyse des spécifications ainsi obtenues. Notamment, nous étudions comment les propriétés des modèles d'une spécification sont liées à celles d'un RdP ordinaire sous-jacent; comment on peut, en étendant le concept usuel de semi-flots pour les RdP, calculer sur une spécification des invariants du comportement de ses modèles ; et enfin comment on peut étendre, à certains modèles « réguliers », des caractérisations structurelles de vivacité connues pour certains RdP ordinaires (machines à états, graphes d'évènements)
We present a method of formal specification for parallel systems which combines abstract data types theory and Petri nets (PN) theory. We also introduce some analysis tools for such specifications: we examine how the properties of the models of a specification are related to the properties of an ordinary underlying PN; also, by extending the usual concept of semi-flow for ordinary PN, we show how it is possible to compute on a specification some invariants of the behaviour of its models. Finally, we present, for some "regular" models, an extension of the structural characterization of vivacity already known for some ordinary PN (states machines, events graphs)
Styles APA, Harvard, Vancouver, ISO, etc.
14

Künzle, Luis Allan. « Raisonnement temporel basé sur les réseaux de Petri pour les systèmes manipulant des ressources ». Toulouse 3, 1997. http://www.theses.fr/1997TOU30150.

Texte intégral
Résumé :
Ce travail se place dans le cadre de l'analyse des systèmes dynamiques à évènements discrets et concerne plus précisément l'élaboration de raisonnements temporels. Le modèle que nous utilisons est un modèle discret décrivant les changements d'état et prenant en compte le temps de façon explicite tout en tolérant une certaine imprécision et un certain flou (durée mal connue). Il s'agit de réseaux de petri temporels flous. Notre approche a pour but d'éviter l'explosion combinatoire et l'augmentation excessive de l'imprécision, inhérentes aux approches basées sur le graphe d'accessibilité, en ne travaillant que sur des scenarios particuliers du comportement. Un scenario correspond à un ensemble de trajectoires possibles du système entre deux états partiels. Un niveau logique, base sur la logique linéaire de girard, a été défini pour permettre la construction de ces scenarios. A ce niveau, nous traduisons le réseau de petri en une théorie logique et nous définissons des règles de déduction logique qui nous permettent de caractériser des scenarios de comportement indépendamment du marquage initial global. Ces déductions fournissent l'état minimal de départ du scenario, l'état final de son exécution, les évènements qui permettent de passer de l'un à l'autre et l'ordre partiel qui les relie. L'information temporelle explicite attachée à chaque évènement permet la validation temporelle du scenario. Une méthode est proposée pour réécrire un scenario afin d'obtenir un parallélisme maximal des évènements qui le composent. L'analyse temporelle est alors effectuée sur ce scenario optimise. Des dates floues peuvent être calculées de façon à délimiter des fenêtres temporelles pendant lesquelles certains évènements ont eu lieu dans le passe (ou auront lieu dans le futur). Il est alors possible de raisonner sur les intervalles de temps de permanence des jetons dans les places, qui correspondent au temps pendant lequel les propositions logiques associées sont valables.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Moussaoui, Omar. « Routage hiérarchique basé sur le clustering : garantie de QoS pour les applications multicast et réseaux de capteurs ». Cergy-Pontoise, 2006. http://biblioweb.u-cergy.fr/theses/06CERG0300.pdf.

Texte intégral
Résumé :
Les avancées technologiques dans le domaine des réseaux informatique ont permis l'essor de très vastes et différents champs d'applications. Cette diversité amène les réseaux informatiques à supporter différents types de trafics et à fournir des services qui doivent être à la fois génériques et adaptatifs aux applications car les propriétés de qualité de service (QoS) diffèrent d'un type d'applications à un autre. Par exemple, les applications multimédia en temps réel requièrent des délais de transfert très minimes, une garantie de bande passante et un faible taux de perte de paquets, alors que les applications des réseaux de capteurs sans fil (RCSF) doivent principalement résoudre le problème de gestion de la consommation d'énergie. Cependant, ces deux types d'applications font face au problème du passage à l'échelle. Dans cette optique, le routage hiérarchique basé sur le dustering s'impose comme une approche très prometteuse pour résoudre ce problème. Notre travail par le biais de cette thèse est de s'intéresser à l'application de ce type de routage dans différents environnements pour offrir de meilleures QoS aux applications multimédia et aux applications des RCSF. Plus concrètement, les contributions de cette thèse sont organisées autour de deux grands axes: (I) Garantie de la QoS pour les applications multicast des flux multimédia sur Internet; et (ii) Optimisation de la consommation d'énergie dans les RCSF
Advances in networks and computers have prompted the development of very vast and various fields of applications. This diversity leads the networks ta support various types of traffic and to provide services which must be at the same time generic and adaptive because properties of quality of service (QoS) differ from a type of application to another. For example, the multi-media and real-time applications require low end-ta-end delays, bandwidth guarantee and low drop rate, whereas prolonged network lifetime is the main requirement for many Wireless Sensor Networks (WSN) applications. However, these two types of applications are established against the problem of scalability. Accordingly, the hierarchical routing based on the clustering is an effective approach for solving this problem. Indeed, clustering-based approach allow to reduce the complexity of the routing on a large scale by the means of (i) the division of the network into differem clusters based on sorne criteria of QoS, and (ii) the management of the intra-cluster communications locally by the elected nodes as Cluster Heads (CHs). Since the requirements in QoS depend on the applications type, the clustering procedure must be adapted to fulfil the requiremems of each application type. Our work through this thesis is related ta the hierarchical routing protocol based on the clustering and its application in various environments to offer a good QoS to the multi-media real-time applications, and the WSN applications
Styles APA, Harvard, Vancouver, ISO, etc.
16

Zerioul, Lounis. « Modélisation comportementale d'un réseau sur puce basé sur des interconnexions RF ». Thesis, Cergy-Pontoise, 2015. http://www.theses.fr/2015CERG0776/document.

Texte intégral
Résumé :
Le développement des systèmes multiprocesseurs intégrés sur puce (MPSoC) répond au besoin grandissant des architectures de calcul intensif. En revanche, l'évolution de leurs performances est entravée par leurs réseaux de communication sur puce (NoC) à cause de leur consommation d'énergie ainsi que du retard. C'est dans ce contexte que les NoC à base d'interconnexions RF et filaires (RFNoC) ont émergé. Afin de gérer au mieux et d'optimiser la conception d'un RFNoC, il est indispensable de développer une plateforme de simulation intégrant à la fois des circuits analogiques et numériques.Dans un premier temps, la simulation temporelle d'un RFNoC avec des composants dont les modèles sont idéaux est utilisée pour optimiser l'allocation des ressources spectrales disponibles. Le cas échéant, nous proposons des solutions pour améliorer la qualité de signal transmis. Dans un deuxième temps, nous avons développé en VHDL-AMS des modèles comportementaux et précis de chacun des composants du RFNoC. Les modèles de l'amplificateur faible bruit (LNA) et du mélangeur, prennent en compte les paramètres concernant, l'amplification, les non-linéarités, le bruit et la bande passante. Le modèle de l'oscillateur local considère les paramètresconventionnels, notamment le bruit de phase. Quant à la ligne de transmission, un modèle fréquentiel précis, incluant l'effet de peau est adapté pour les simulations temporelles. Ensuite, l'impact des paramètres des composants sur les performances du RFNoC est évalué afin d'anticiper les contraintes qui s'imposeront lors de la conception du RFNoC
The development of multiprocessor systems integrated on chip (MPSoC) respondsto the growing need for intensive computation systems. However, the evolutionof their performances is hampered by their communication networks on chip(NoC) due to their energy consumption and delay. It is in this context that the wired RF network on chip (RFNoC) was emerged. In order to better manage and optimize the design of an RFNoC, it is necessary to develop a simulation platform adressing both analog and digital circuits.First, a time domaine simulation of an RFNoC with components whose modelsare ideal is used to optimize the allocation of the available spectrum resources. Where appropriate, we provide solutions to improve the quality of transmitted signal. Secondly, we have developed, in VHDL-AMS, behavioral and accurate models of all RFNoC components. The models of the low noise amplifier (LNA) and the mixer take into account the parameters for the amplification, nonlinearities, noise and bandwidth. The model of the local oscillator considers the conventional parameters, including its phase noise. Concerning the transmission line, an accurate frequency model, including the skin effect is adapted for time domaine simulations. Then, the impact of component parameters on RFNoC performances is evaluatedto anticipate constraints of the RFNoC design
Styles APA, Harvard, Vancouver, ISO, etc.
17

Komarova, Maryna. « Authentification rapide et contrôle d'accès basé sur la confiance dans les réseaux sans fil hétérogène ». Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00003793.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
18

Eiche, Antoine. « Ordonnancement temps réel pour architectures hétérogènes reconfigurables basé sur des structures de réseaux de neurones ». Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00783893.

Texte intégral
Résumé :
L' evolution constante des applications, que ce soit en complexit e ou en besoin de performances, impose le d eveloppement de nouvelles architectures. Parmi l'ensemble des architectures propos ees se d emarquent les architectures recon gurables. Ce type d'architectures o re des performances proches d'un circuit d edi e tout en proposant davantage de exibilit e. Si originellement ces architectures ne pouvaient ^etre con gur ees qu' a leur d emarrage, elles sont d esormais con gurables partiellement a tout moment. Cette fonctionnalit e, nomm ee " recon guration dynamique ", permet de multiplexer temporellement et spatialement l'ex ecution de plusieurs applications, rapprochant ainsi l'utilisation des architectures recon gurables de celle d'un processeur g en eraliste. A l'instar des ordinateurs pourvus d'un processeur g en eraliste, il s'av ere donc n ecessaire de disposer d'un syst eme d'exploitation pour architectures recon gurables. Cette th ese se focalise sur la cr eation d'ordonnanceurs destin es a ce type d'architectures. Parce que nous ciblons l'ex ecution d'applications complexes - compos ees de plusieurs t^aches dont l'ordre d'ex ecution n'est pas connu a l'avance - les algorithmes d'ordonnancement doivent ^etre ex ecut es en ligne et les solutions obtenues en des temps tr es brefs. A cette n, nous r ealisons nos algorithmes d'ordonnancement en nous basant sur des r eseaux de neurones de Hop eld. Ce type de r eseaux a et e utilis e pour r esoudre des probl emes d'optimisations (tels que des probl emes d'ordonnancement) o u il a et e constat e qu'ils produisaient des solutions rapidement. De plus, leur simplicit e de fonctionnement (peu de structures de contr^ole) permet de les impl ementer e cacement sur des architectures recon gurables de type FPGA. Le premier chapitre de ce document introduit les concepts sur lesquels sont bas es nos travaux, a savoir, les architectures recon gurables ainsi que l'ordonnancement temporel et spatial destin e a ce type d'architectures. Le second chapitre pr esente les r eseaux de neurones de Hop eld. Dans le troisi eme chapitre, nous pr esentons un ordonnanceur temporel pour architectures h et erog enes recon gurables. Le quatri eme chapitre pr esente deux ordonnanceurs spatiaux, fond es sur des hypoth eses mat erielles di erentes. Le premier, bas e sur un r eseau de Hop eld, ne requiert que des m ecanismes de recon guration simples et est donc utilisable avec les outils fournis par les fabricants. Le second, quant a lui, n ecessite des m ecanismes actuellement non fournis par les fabricants, mais permet d'exploiter plus nement l'architecture. Le dernier chapitre pr esente des travaux relatifs aux r eseaux de neurones de Hop eld, a savoir l' evaluation parall ele de neurones, ainsi que des propri et es de tol erance aux fautes de ces r eseaux.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Lahlou, Omar. « Routage multi-chemin basé sur la fiabilité des routes dans les réseaux mobiles Ad Hoc ». Mémoire, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/1286.

Texte intégral
Résumé :
La prolifération des unités mobiles de calcul et de communication (comme: les téléphones cellulaires et les assistants PDA) et l'accroissement de la popularité des applications multimédia rendent le support de la qualité de service (QoS) dans les réseaux sans fil en général et les MANET en particulier une tâche incontournable. C'est pourquoi, différents protocoles de QoS ont été développés dans la littérature pour les réseaux ad hoc, permettant de garantir les ressources réseaux comme la bande passante et le délai de transfert. Par ailleurs, assurer la QoS dans un environnement mobile comme celui des réseaux ad hoc est très délicat. Cependant, la mobilité aléatoire et imprévue peut nuire la continuité de service et la rendre extrêmement difficile voir même impossible. Il est légitime donc, de considérer la fiabilité des routes comme étant la contrainte de QoS principale à prendre en compte. C'est dans ce contexte qu'une nouvelle métrique de QoS a été développée qui est basée sur le concept de confiance (Trust). Cette métrique est nommée la stabilité bout en bout. Dans cet ouvrage, un nouveau protocole de routage multi-chemin basé essentiellement sur la fiabilité des routes sera présenté. Il s'agit du protocole MSBR (Multipath Stability Based Routing). Ce protocole de QoS a pour but de rechercher et maintenir les routes disjointes qui satisfont le degré de stabilité et la bande passante exigés par l'application. L'étude de simulation menée a démontré la fiabilité et la stabilité des routes découvertes par MSBR par rapport à d'autre protocole au mieux comme ABR. L'étude a prouvé également l'efficacité du protocole MSBR tant au niveau taux de réception de donnée que de délai de transfert bout en bout, spécialement dans les conditions de trafics denses et de débits élevés.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Karbaschi, Golnaz. « Routage basé sur la qualité des liens dans des réseaux multi-sauts IEEE 802. 11 ». Paris 6, 2008. http://www.theses.fr/2008PA066055.

Texte intégral
Résumé :
Les réseaux sans fil multi-sauts grâce à leur flexibilité et leur rapidité de mise en œuvre permettent le déploiement à faible coût d'une infrastructure routage pouvant notamment servir à étendre la couverture des réseaux filaires. Leurs caractéristiques et les perspectives qu'ouvrent de tels réseaux ont attiré l'attention de la communauté de la recherche afin d'évaluer et de proposer des solutions notamment en termes de routage afin de permettre un développement efficace. La qualité des communications sans fil dépend de nombreux facteurs comme les effets de la propagation multi chemins ou les interférences entre les transmissions des différents utilisateurs. Aussi cette qualité de transmission peut varier de manière plus ou moins drastique au cours du temps en fonction des modifications de l'environnement d'exécution. Les singularités de ces transmissions radios ne permettent donc pas l'utilisation telle quelle des protocoles de routage développés originellement pour les réseaux filaires. En effet, ceux-ci se révèlent même extrêmement inefficaces dans ces nouveaux environnements. L'utilisation du nombre de sauts comme métrique de routage ne permet en effet pas de prendre en compte la diversité et la variabilité de la qualité des liens sans fil. Une solution prometteuse pour traiter ce problème consiste à intégrer au routage des informations relatives à la qualité des liens. Aussi, les protocoles des différentes couches doivent alors interagir pour s'échanger des informations. La couche réseau prend ainsi conscience du statut des couches inférieures et c'est que nous appellerons dans cette thèse le routage basé sur la qualité des liens. Le but principal de cette thèse est donc de montrer comment le routage inter-couche, au travers de l'utilisation d'une métrique adaptée et grâce à une méthode de mesure pertinente peut considérablement améliorer les performances du routage. Néanmoins, elle met en évidence également les effets secondaires de l'adaptation des chemins en montrant notamment en quoi une grande oscillation entre les chemins peut être nocif pour des applications sensibles aux délais. Après un court état de l'art sur les différents protocoles de routage, nous définissons dans ce mémoire différents critères pour définir une métrique pertinente basée sur la qualité des liens. Nous présentons ensuite une étude sur les méthodes de mesure de ces métriques, puis nous proposons une métrique réaliste de qualité des liens, basée sur l'efficacité de la transmission des trames (FTE) observée au niveau de la couche MAC. Cette nouvelle métrique reflète ainsi les variations du taux d'erreur de transmission liées soit à une faible qualité du lien, soit à un important taux de congestion dans la cellule. Nous montrons que l'utilisation de cette métrique inter-couche permet d'améliorer sensiblement les performances du routage. Nous proposons également un schéma de méthodes de mesures précises et générant un faible surcoût appelé QualRoute. Celui-ci utilise la nature en diffusion des supports de communication sans fil pour mettre en place un mécanisme coopératif de mesure de la qualité des liens pour lesquels on ne dispose de pas assez de trafic de données pour évaluer le taux d'erreur de transmission. Il utilise l'information observée par chaque noeud sur le trafic émis par ses voisins pour estimer à faible coût la qualité des liens avec ces derniers. Nous avons enfin évalué l'effet de la fluctuation du choix des chemins sur le routage basé sur la qualité des chemins. Nous avons défini et montré en quoi la sensibilité d'une métrique ou la fréquence de mise à jour de métrique pouvait augmenter le débit des applications. Cependant cette optimisation du débit se fait en modifiant fréquemment le choix du chemin, et peut conduire à une diminution importante de la gigue qui peut s'avérer néfaste pour les applications sensibles aux variations de délais
Styles APA, Harvard, Vancouver, ISO, etc.
21

Rodrigues, de Araujo Ricardo. « Traitement spatio-temporel basé sur l'utilisation de bases orthonormales généralisées : application aux réseaux de paquets ». Paris 11, 2003. http://www.theses.fr/2003PA112101.

Texte intégral
Résumé :
La technique d'accès par paquet radio est une option intéressante pour les systèmes radio mobiles dédiés au trafic multimédia. Avec cette technique, les ressources radio sont allouées seulement lorsque les utilisateurs sont actifs, ce qui permet le partage du canal avec plusieurs usagers. L'accès est alors un point clé. Les protocoles S-Aloha et R-Aloha sont très populaires du à leur simplicité. Cependant, ces protocoles n'ont pas une bonne efficience spectrale. Une solution possible pour faire augmenter l'efficience de ces protocoles est l'utilisation d'antennes intelligentes. Dans ce contexte, plusieurs travaux ont été consacrés à l'analyse des performances des réseaux sous l'action des antennes. Toutefois, la plus part de ces études a privilégié les aspects systémiques en détriment des aspects du traitement des signaux. Dans cette thèse, nous évaluons les bénéfices apportés par l'utilisation d'antennes intelligentes aux réseaux de paquets sous les protocoles S-Aloha et R-Aloha. Nous abordons l'influence de la géométrie des antennes utilisée ainsi que l'influence des caractéristiques du canal sur les performances des réseaux. Dans les réseaux de paquets, la récupération de l'information envoyée doit, en général, être achevée durant la période de temps correspondant à l'envoi du paquet. De ce fait, la complexité des algorithmes ne doit pas être très élevée. Afin de réduire l'ordre et par conséquent la complexité des filtres utilisés pour le filtrage spatio-temporel, nous proposons une structure de filtrage basée sur l'utilisation de bases orthonormales généralisées. Ces bases s'avèrent très performantes si leurs paramètres, les pôles, sont judicieusement choisis. Dans ce travail, nous comparons les performances de la structure proposée avec celles des filtres RIF conventionnels. Nos simulations montrent que la structure proposée permet l'utilisation de filtres d'ordre réduite tout en gardant les mêmes performances des filtres RIF d'ordre beaucoup plus élevée
The packet radio access is an interesting option for multimedia traffic in radio mobile networks. This technique allows a radio resource allocation based on the user's activity in such a way that the canal may be used in a multi-user mode. So, the MAC protocol plays a fundamental role in this context. The S-Aloha and R-Aloha protocols are the most popular schemes due to their simplicity. Nevertheless, they offer a poor spectral efficiency. The use of smart antennas is widely proposed as a way of increasing the spectral efficiency of these MAC protocols. Actually, several papers were dedicated to performance analysis of packet networks with smart antennas. However, most of then have focussed only on the systemic aspects in detriment of signal processing ones. In this work, we evaluate the advantage of using smart antennas in a packet network with S-Aloha and R-Aloha MAC. We focus on the channel and the array geometry influences over the network performances. In the packet networks, the signal processing must be accomplished within the packet transmission time slot. That is the why the algorithm complexity must be limited. In order to decrease the overall system complexity, we propose the use of generalized orthonormal basis for the space-time equalizers. This strategy allows an equalizer order reduction if the base poles are correctly chosen. In this thesis, we compare the proposed structure performance with the conventional FIR one. Our simulations show that the proposed strategy leads to an efficient equalizer order reduction
Styles APA, Harvard, Vancouver, ISO, etc.
22

Komarova, Maryna. « Authentification rapide et contrôle d'accès basé sur la confiance dans les réseaux sans fil hétérogènes ». Paris, ENST, 2008. http://pastel.archives-ouvertes.fr/pastel-00003793/fr/.

Texte intégral
Résumé :
Les défis clés de la mobilité omniprésente sécurisée ont été analysés, notamment la sélection du réseau candidat (cible), constitution dynamique des relations de confiance, authentification rapide réciproque et contrôle d'accès dans un environnement ouvert. Les contributions présentées dans cette thèse traitent des questions de réduction du temps d'authentification inter-domaine, d'optimisation de la signalisation liée à la sécurité et du contrôle d'accès dans un environnement ouvert. Afin de diminuer la latence d'authentification dans le scénario où l'authentification pour l'accès réseau et pour les services sont les processus séparés, nous avons proposé l'approche qui combine les opérations de 802. 1X et PANA. Puis, nous introduisons le protocole d'authentification rapide pourla transtion inter - domaine. L'approche proposée élimine la nécessité de communication entre le réseau cible et le réseau d'origine d'utilisateur. Nous développons ce protocole par la proposition d'un schéma pour la distribution des tickets d'authentification. Les résultats obtenus au cours des expériences et des simulations ont montré que l'approche proposée améliore les paramètres de handover tel que la latence et le coût de la signalisation. Nous introduisons le mécanisme du contrôle d'accès fondé sur la confiance qui permet de définir les droits d'accès d'un utilisateur selon son comportement antérieur, ses recommandations et les réputations des fournisseurs de recommandations. Ce modèle offre au réseau la possibilité d'adapter les politiques d'accès à l'environnement dynamique et de traiter l'historique d'interactions à long terme
In this thesis, we study the current situation and trends in wireless technologies development. We discuss the problems related to security mechanisms specific to each technology, and in particular the possibilities for integration and interworking. We first study the possibility of authentication latency decreasing in a scenario where the network access authentication is decoupled from the service access authentication. An authorized user is granted network and service access as a result of a single authentication process that combines 802. 1X and PANA operations. Then we introduce the Fast re-Authentication Protocol (FAP) for inter-domain roaming, which aims to reduce the authentication delay for a mobile user in a visited administrative domain. The approach eliminates the need for communication between the target and the user's home networks for credentials verification. We develop the Fast re-Authentication Protocol by suggesting a ticket distribution scheme for inter-domain roaming. This method decreases the number of tickets sent and consequently the overhead and delay of the ticket acquisition phase of the protocol. Numerical results obtained from experiments on a test-bed and a series of simulations show that the proposed scheme enhances inter-domain handover parameters such as authentication latency and signalling cost. To improve the access control to network resources we propose the adjustable trust model. The purpose of this work is to provide the network with the opportunity to react to user behaviour. Users are motivated to gain higher trust because trusted users have access to a larger set of services with higher quality of service. Validation of the proposed trust-based access control method has been done via simulations. Finally, we discuss how the proposed solutions can be implemented in a single framework
Styles APA, Harvard, Vancouver, ISO, etc.
23

Nguyen, Van-Lu. « Padre : un langage d'expérimentation de programmation parallèle et distribuée basé sur les réseaux de Petri ». Paris 6, 1986. http://www.theses.fr/1986PA066594.

Texte intégral
Résumé :
Le système de types du langage offre des notations syntaxiques concises permettant : une description statique des réseaux et de leur comportement dynamique: conditions et effets des déclenchements des transitions ; des transformations simples telles que l'ajout, la suppression et la fusion d'éléments d'un réseau; la composition par fusion d'éléments de réseaux déjà construits qui implémente divers mécanismes de synchronisations et des structures de contrôle extensibles; la généricité et le polymorphisme qui permettent, à partir d'un type unique de réseau, de générer les instances potentiellement différentes; une spécification des interactions éventuelles entre un schéma de contrôle (sc) décrit en PADRE et un schéma d'interprétation (si) décrit en Pascal.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Emeriau, Samuel. « Caractérisation des réseaux multi-sujets en IRMf : apport du clustering basé sur la connectivité fonctionnelle ». Thesis, Reims, 2011. http://www.theses.fr/2011REIMS018/document.

Texte intégral
Résumé :
La compréhension du fonctionnement cérébral est en constante évolution depuis l’essor des neurosciences.Les nouvelles modalités d’imagerie ont permis de mettre en évidence une architecture de notre cerveau en réseaux complexes. Mon travail a pour but de développer une méthode mettant en évidence les réseaux les plus représentatifs d’un groupe de sujet en IRM fonctionnelle.Dans un premier temps, j’ai développé une méthode de réduction des données basées sur le clustering.J’ai introduit une nouvelle caractérisation de l’information fonctionnelle par le profil de connectivité.Celui-ci permet de réduire le biais induit par le bruit présent au sein des données d’IRM fonctionnelle.De plus ce profil ne nécessite pas d’a priori sur les données contrairement aux méthodesi nférentielles classiques.Dans un deuxième temps, j’ai développé une méthode qui permet l’identification de réseaux communs sur un groupe de sujets tout en prenant en compte les variabilités spatiales et fonctionnelles inter-sujets. Les réseaux obtenus peuvent ensuite être caractérisés par leur distribution spatiale mais également par les liens de connectivités se manisfestant en leur sein.Cette méthode permet également la comparaison des réseaux de différents groupes de sujets et la mise en évidence de l’implication de réseaux différents en fonction de stimulations différentes ou d’un état pathologique
The comprehension of cerebral operations is in constant evolution since the rise of the neurosciences.New methods of imagery made it possible to highlight an architecture of our brain in complex networks.The purpose of my work is to develop a method to find the most representative networks of a group of subjects in Functional MRI.In the first step, I developed a method to reduce the fMRI data size based on clustering. I introduced a new characterization of functional information by the profile of connectivity. This one makes it possible to reduce the variance induced by the noise present within the data of Functional MRI.Moreover this profile does not require a priori information on the data contrary to the traditional inferential methods.In the second step, I developed a method to identify common networks on a group of subjects while taking into account of spatial and functional inter-subjects variability. The networks obtained can then be characterized by their spatial organization but also by their inner connectivity links.This method also allows the comparison of the networks of various groups of subjects, making it possible to highlight the implications of different networks according to different stimulations or pathological states
Styles APA, Harvard, Vancouver, ISO, etc.
25

Vidal, Martin. « Architecture systolique pour un algorithme basé sur les réseaux de neurones pour l'égalisation de canaux ». Thèse, Université du Québec à Trois-Rivières, 1999. http://depot-e.uqtr.ca/3409/1/000662425.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
26

Ghadi, Abderrahim. « Modèle hiérarchique de contrôle d'accès d'UNIX basé sur un graphe de rôles ». Strasbourg, 2010. http://www.theses.fr/2010STRA6005.

Texte intégral
Résumé :
En termes de contrôle d’accès, est-il possible de répondre à la question suivante : "Le système de contrôle d’accès est-il décidable ?". En d’autres termes "Est-il vrai qu’à partir d’un état de protection sûr, nous pouvons dire à n’importe quel instant qu’il n’y a aucune intrusion qui mettra en péril notre système ?". Afin de répondre à cette question, nous proposons la modélisation du système de contrôle d’accès sous forme de graphe de rôles. Les rôles, qui représentent les noeuds du graphe, contiennent selon, la politique de sécurité, un certain nombre de privilèges. Chaque privilège représente un ou plusieurs droits d’accès sur un objet donné. Nous avons présenté deux méthodes d’utilisation de ce graphe : La première consiste à utiliser un algorithme, que nous avons développé en se basant sur les algorithmes de la théorie des graphes, permettant de parcourir les chemins du graphe afin de trouver les transferts de privilèges illicites. La deuxième consiste à stocker notre graphe dans un annuaire LDAP, ceci nous amène à developper un nouveau schéma LDAP pour représenter notre graphe de rôles
Concerning access control, can the following question be addressed : "Is the access control system decidable ?". In other words : is it true that starting from a safe state of protection, we can assume at any time that is no intrusion which will endanger our system ?. In order to answer this question, we propose to model the access control system in the form of a graph of roles. The roles, which represent the vertices of graph contain, according to the security-policy, certain number of privileges. Every privilege represents one or several access rights on a given object. We presented two methods of use of this graph : The first consists in using an algorithm, which we developed by basing itself on the algorithms of the theory of the graphs, permit to search all over the path of the graph in order to find illicit privilege transfer. The second consists in storing our graph in a directory LDAP, this which brings us to develop a new plan LDAP to represent our graph of roles
Styles APA, Harvard, Vancouver, ISO, etc.
27

Moussa, Ali Abdellatif Karim. « Chiffrement authentifié sur FPGAs de la partie reconfigurable à la partie static ». Electronic Thesis or Diss., Paris 6, 2014. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2014PA066660.pdf.

Texte intégral
Résumé :
Les systèmes de communication ont besoin d'accéder, stocker, manipuler, ou de communiquer des informations sensibles. Par conséquent, les primitives cryptographiques tels que les fonctions de hachage et le chiffrement par blocs sont déployés pour fournir le cryptage et l'authentification. Récemment, des techniques ont été inventés pour combiner cryptage et d'authentification en un seul algorithme qui est appelé authentifiés Encryption (AE). La combinaison de ces deux services de sécurité dans le matériel de meilleures performances par rapport aux deux algorithmes séparés puisque l'authentification et le cryptage peuvent partager une partie du calcul. En raison de la combinaison de la programmation de l'exécution de matériel personnalisé, FPGA deviennent plus communs comme cible d'une mise en œuvre de ces algorithmes. La première partie de cette thèse est consacrée aux architectures d'algorithmes AE, AES-GCM et AEGIS-128 à base de FPGA efficaces et à grande vitesse, afin d'être utilisé dans la partie reconfigurable FPGA pour soutenir les services de sécurité des systèmes de communication. Notre focalisation sur l'état de l'art conduit à la mise en place d'architectures à haute vitesse pour les applications lentes touches changeantes comme les réseaux privés virtuels (VPN). En outre, nous présentons un procédé efficace pour mettre en œuvre le GF(2¹²⁸) multiplicateur, qui est responsable de la tâche d'authentification en AES-GCM, pour supporter les applications à grande vitesse. En outre, un système efficace AEGIS-128 est également mis en œuvre en utilisant seulement cinq tours AES. Nos réalisations matérielles ont été évaluées à l'aide Virtex-5 et Virtex-4 FPGA. La performance des architectures présentées (Thr. / Parts) surpasse ceux signalés précédemment. La deuxième partie de la thèse présente des techniques pour des solutions à faible coût afin de garantir la reconfiguration du FPGA. Nous présentons différentes gammes de mises en œuvre à faible coût de AES-GCM, AES-CCM, et AEGIS-128, qui sont utilisés dans la partie statique du FPGA afin de décrypter et authentifier le bitstream FPGA. Architectures ASIC présentées ont été évaluées à l'aide de 90 et 65 technologies nm et présentent de meilleures performances par rapport aux travaux antérieurs
Communication systems need to access, store, manipulate, or communicate sensitive information. Therefore, cryptographic primitives such as hash functions and block ciphers are deployed to provide encryption and authentication. Recently, techniques have been invented to combine encryption and authentication into a single algorithm which is called Authenticated Encryption (AE). Combining these two security services in hardware produces better performance compared to two separated algorithms since authentication and encryption can share a part of the computation. Because of combining the programmability with the performance ofcustom hardware, FPGAs become more common as an implementation target for such algorithms. The first part of this thesis is devoted to efficient and high-speed FPGA-based architectures of AE algorithms, AES-GCM and AEGIS-128, in order to be used in the reconfigurable part of FPGAs to support security services of communication systems. Our focus on the state of the art leads to the introduction of high-speed architectures for slow changing keys applications like Virtual Private Networks (VPNs). Furthermore, we present an efficient method for implementing the GF(2¹²⁸) multiplier, which is responsible for the authentication task in AES-GCM, to support high-speed applications. Additionally, an efficient AEGIS-128is also implemented using only five AES rounds. Our hardware implementations were evaluated using Virtex-5 and Virtex-4 FPGAs. The performance of the presented architectures (Thr./Slices) outperforms the previously reported ones.The second part of the thesis presents techniques for low cost solutions in order to secure the reconfiguration of FPGAs. We present different ranges of low cost implementations of AES-GCM, AES-CCM, and AEGIS-128, which are used in the static part of the FPGA in order to decrypt and authenticate the FPGA bitstream. Presented ASIC architectures were evaluated using 90 and 65 nm technologies and they present better performance compared to the previous work
Styles APA, Harvard, Vancouver, ISO, etc.
28

Guyot, Dimitri. « Evaluation sur modèle de simulation thermique dynamique calibré des performances d’un contrôleur prédictif basé sur l’utilisation de réseaux de neurones ». Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC022.

Texte intégral
Résumé :
Le développement des techniques d’apprentissage automatique, et plus particulièrement des réseaux de neurones, associé à celui des nouvelles technologies de l’information et de la communication, bouleverse nos sociétés à travers des avancées technologiques dans une variété de secteurs d’activité. Le secteur du bâtiment n’est pas épargné, si bien que ces techniques peuvent constituer une opportunité intéressante dans un contexte où les émissions de gaz à effet de serre doivent être drastiquement réduites. L’objectif de ces travaux est d’évaluer l’intérêt de ces techniques appliquées à l’énergétique du bâtiment, dans une optique de réduction des consommations énergétiques et d’amélioration du confort thermique. Nous veillons par ailleurs à garder lors de cette évaluation une vision globale, en plaçant les éventuels avantages en face des différents besoins relatifs au développement de ces technologies. Ce travail de thèse s’organise en trois parties précédées d’une introduction détaillée visant à donner au lecteur une vue d’ensemble des différents éléments de contexte, permettant ainsi la mise en perspective du travail de thèse. Nous donnons ensuite dans la première partie le cadre théorique nécessaire à la compréhension des problématiques rencontrées lors de l’élaboration et de la création des réseaux de neurones pour des applications à l’énergétique du bâtiment. Dans un second temps, une étude bibliographique donnant au lecteur un large aperçu des diverses applications des réseaux de neurones au domaine de l’énergétique du bâtiment est présentée. La seconde partie est consacrée à la calibration du modèle de bâtiment utilisé ensuite pour tester et évaluer un contrôleur prédictif mettant en œuvre des réseaux de neurones. Après une explication de la méthode utilisée puis une présentation détaillée du modèle, une analyse complète des résultats de calibration est menée. Nous terminons cette partie par des observations et recommandations concernant les méthodes classiques de calibration préconisées par différents organismes internationaux. Enfin, une application concrète mettant en œuvre des réseaux de neurones pour le contrôle prédictif de la température intérieure est présentée au cours de la troisième partie. Après un point théorique concernant le contrôle prédictif, nous détaillons la méthode développée pour l’entraînement des réseaux de neurones utilisés. Les résultats obtenus en simulation avec un contrôleur prédictif sont ensuite analysés et comparés à ceux obtenus en présence de deux contrôleurs de référence pour diverses hypothèses de simulation. Le contrôleur prédictif est ainsi testé dans plusieurs cas de figures, allant d’une situation idéale à des conditions de fonctionnement plus réalistes, en passant par deux types d’émetteurs de chaleur différents, à savoir des plafonds rayonnants et un plancher chauffant
The development of machine learning techniques, particularly neural networks, combined with the development of new information and communication technologies, is shaking up our societies through technological advances in a variety of sectors. The building sector is not spared, so these techniques may represent an interesting opportunity in a context where greenhouse gas emissions must be drastically reduced. The objective of this work is to assess the interest of these techniques in the field of building energy, with the aim of reducing energy consumption and improving thermal comfort. In addition, we ensure that this evaluation is carried out with a global vision, by placing the possible advantages in front of the different needs relating to the development of these technologies. This thesis work is organized in three parts preceded by a detailed introduction intended to give the reader an overview of the various contextual elements, thus allowing the thesis work to be placed in perspective. We then give in the first part the theoretical framework needed to understand the problems encountered during the elaboration and creation of neural networks for building energy applications. Then, a bibliographical study giving the reader a broad overview of the various applications of neural networks in the field of building energy is presented. The second part is devoted to the calibration of the building model that is then used to test and evaluate a predictive controller implementing neural networks. After an explanation of the method used and a detailed presentation of the model, a complete analysis of the calibration results is carried out. We conclude this part with observations and recommendations regarding the standard calibration guidelines recommended by three international organizations. Finally, a practical application using neural networks for the predictive control of indoor temperature is presented in the third part. After a theoretical introduction concerning predictive control, we detail the method employed to train the neural networks used. The results obtained in simulation with a predictive controller are then analyzed and compared with those obtained with two reference controllers for various simulation hypothesis. The predictive controller is thus tested in several scenarios, ranging from an ideal situation to more realistic operating conditions, including two different types of heat emitters, namely radiant ceilings and underfloor heating
Styles APA, Harvard, Vancouver, ISO, etc.
29

Abdelmalek, Saif Eddine. « Algorithme de transfert intercellulaire vertical pour les réseaux sans fil hétérogènes basé sur le filtrage de Kalman ». Mémoire, École de technologie supérieure, 2011. http://espace.etsmtl.ca/936/1/ABDELMALEK_Saif_Eddine.pdf.

Texte intégral
Résumé :
Les standards de la quatrième génération assurent l'interopérabilité entre différentes technologies d'accès sans fil. Ceci est en partie permis par le transfert intercellulaire vertical (VHO) qui assure une continuité de service lorsqu’on change de technologie d'accès (par exemple à partir d'un réseau local sans fil (WLAN) à un réseau cellulaire (CN) et vice-versa). Dans cet article, nous proposons un algorithme de décision de transfert intercellulaire vertical basée sur le filtrage de Kalman scalaire. Des critères tels que la probabilité de transfert intercellulaire, le nombre de faux transferts intercellulaire et la position des transferts intercellulaires sont utilisés pour évaluer et comparer notre travail avec des algorithmes de transfert intercellulaire basés sur des techniques de filtrage existants. Dans le pire des cas, nous avons démontré que notre algorithme diminue de 40 pour cent la probabilité des faux transferts intercellulaire par rapport à d'autres algorithmes de transfert intercellulaire.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Abdelhamid, Zebdi. « DZ-MAODV : nouveau protocole de routage multicast pour les réseaux adhoc mobiles basé sur les zones denses ». Thèse, Université du Québec à Trois-Rivières, 2006. http://depot-e.uqtr.ca/1323/1/000135082.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Bergeron, Cyril. « Optimisation conjointe source/canal d'une transmission vidéo H. 264/AVC sur lien sans fil ». Paris, ENST, 2007. https://pastel.hal.science/pastel-00004234.

Texte intégral
Résumé :
Dans le domaine des transmissions de données multimédia, de remarquables progrès ont été fait au cours des vingt dernières années permettant d'optimiser chaque module d'une chaîne de communication moderne. Mais en dépit de ces excellents résultats, une approche cloisonnée ou "séparée" a montré ses limites dans le cas des communications sans fil. Notre approche, qui suit celle du codage source/canal conjoint, a pour objectif de développer des stratégies où le codage de source et le codage canal sont déterminés conjointement tout en prenant en compte les paramètres du réseau et d'éventuelles contraintes utilisateurs. Cette approche offre la possibilité de faire converser le monde de l'application (codage source, chiffrement) et le monde des transmissions (codage canal) afin qu'ils optimisent conjointement l'usage du lien de communications sans fil de bout en bout. Trois axes de recherche sont traités dans ce mémoire de thèse qui permettent d'optimiser l'allocation des ressources de l'utilisateur et du réseau appliquée tout en assurant une compatibilité avec la norme de codage vidéo H. 264. Tout d'abord, nous proposons d'utiliser la redondance résiduelle présente dans un flux binaire en sortie du codeur source afin d'améliorer les performances du décodage. Ensuite, nous introduisons une méthode proposant des propriétés de scalabilité temporelle compatible du standard H. 264. Enfin, nous présentons une méthode d'optimisation conjointe de la répartition de débit entre le codeur de source et le codeur de canal au moyen d'un contrôleur applicatif estimant la distorsion globale introduite par ces différents codeurs grâce au calcul de la sensibilité des flux binaires considérés.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Moussa, Ali Abdellatif Karim. « Chiffrement authentifié sur FPGAs de la partie reconfigurable à la partie static ». Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066660/document.

Texte intégral
Résumé :
Les systèmes de communication ont besoin d'accéder, stocker, manipuler, ou de communiquer des informations sensibles. Par conséquent, les primitives cryptographiques tels que les fonctions de hachage et le chiffrement par blocs sont déployés pour fournir le cryptage et l'authentification. Récemment, des techniques ont été inventés pour combiner cryptage et d'authentification en un seul algorithme qui est appelé authentifiés Encryption (AE). La combinaison de ces deux services de sécurité dans le matériel de meilleures performances par rapport aux deux algorithmes séparés puisque l'authentification et le cryptage peuvent partager une partie du calcul. En raison de la combinaison de la programmation de l'exécution d'matériel personnalisé, FPGA deviennent plus communs comme cible d'une mise en œuvre de ces algorithmes. La première partie de cette thèse est consacrée aux architectures d'algorithmes AE, AES-GCM et AEGIS-128 à base de FPGA efficaces et à grande vitesse, afin d'être utilisé dans la partie reconfigurable FPGA pour soutenir les services de sécurité des systèmes de communication. Notre focalisation sur l'état de l'art conduit à la mise en place d'architectures à haute vitesse pour les applications lentes touches changeantes comme les réseaux privés virtuels (VPN). En outre, nous présentons un procédé efficace pour mettre en oeuvre le GF($2^{128}$) multiplicateur, qui est responsable de la tâche d'authentification en AES-GCM, pour supporter les applications à grande vitesse. En outre, un système efficace AEGIS-128 est également mis en œuvre en utilisant seulement cinq tours AES. Nos réalisations matérielles ont été évaluées à l'aide Virtex-5 et Virtex-4 FPGA. La performance des architectures présentées (Thr. / Parts) surpasse ceux signalés précédemment.La deuxième partie de la thèse présente des techniques pour des solutions à faible coût afin de garantir la reconfiguration du FPGA. Nous présentons différentes gammes de mises en œuvre à faible coût de AES-GCM, AES-CCM, et AEGIS-128, qui sont utilisés dans la partie statique du FPGA afin de décrypter et authentifier le bitstream FPGA. Architectures ASIC présentées ont été évaluées à l'aide de 90 et 65 technologies nm et présentent de meilleures performances par rapport aux travaux antérieurs
Communication systems need to access, store, manipulate, or communicate sensitive information. Therefore, cryptographic primitives such as hash functions and block ciphers are deployed to provide encryption and authentication. Recently, techniques have been invented to combine encryption and authentication into a single algorithm which is called Authenticated Encryption (AE). Combining these two security services in hardware produces better performance compared to two separated algorithms since authentication and encryption can share a part of the computation. Because of combining the programmability with the performance ofcustom hardware, FPGAs become more common as an implementation target for such algorithms. The first part of this thesis is devoted to efficient and high-speed FPGA-based architectures of AE algorithms, AES-GCM and AEGIS-128, in order to be used in the reconfigurable part of FPGAs to support security services of communication systems. Our focus on the state of the art leads to the introduction of high-speed architectures for slow changing keys applications like Virtual Private Networks (VPNs). Furthermore, we present an efficient method for implementing the GF($2^{128}$) multiplier, which is responsible for the authentication task in AES-GCM, to support high-speed applications. Additionally, an efficient AEGIS-128is also implemented using only five AES rounds. Our hardware implementations were evaluated using Virtex-5 and Virtex-4 FPGAs. The performance of the presented architectures (Thr./Slices) outperforms the previously reported ones.The second part of the thesis presents techniques for low cost solutions in order to secure the reconfiguration of FPGAs. We present different ranges of low cost implementations of AES-GCM, AES-CCM, and AEGIS-128, which are used in the static part of the FPGA in order to decrypt and authenticate the FPGA bitstream. Presented ASIC architectures were evaluated using 90 and 65 nm technologies and they present better performance compared to the previous work
Styles APA, Harvard, Vancouver, ISO, etc.
33

Chevobbe, Stéphane. « Unité de commande pour systèmes parallèles : contrôleur basé sur la mise en oeuvre dynamique de réseaux de Pétri ». Rennes 1, 2005. http://www.theses.fr/2005REN1S173.

Texte intégral
Résumé :
Les progrès des technologies de fabrication et des méthodologies de conception ont contribué à l'apparition de nouveaux composants de type SoC (System on Chip). Cette technique permet d'intégrer rapidement et efficacement un fort potentiel de puissance de calcul. Cependant, les modèles d'exécution des unités de contrôle nécessaire pour gérer cette puissance de calcul sont souvent inadaptés. Ce travail de thèse présente l'étude, la validation et la mise en œuvre d'une unité de contrôle pour des systèmes parallèles hétérogènes multi cœurs appelé RAC. Elle est basée sur l'implantation de réseaux de Pétri simples interprétés non temporisés. Il s'agit d'une architecture asynchrone auto-adaptable dynamiquement implantant directement des réseaux de Pétri. Elle permet de gérer efficacement le parallélisme de tâche inhérent aux architectures multi cœurs hétérogènes. Sa surface est d'environ 1 mm² avec sa mémoire de programme dans une technologie 130 nm.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Okouyi, Antsina W'Ampoumou Rodrigue. « Faisabilité d'un système basé sur le DS-CDMA pour les futurs réseaux locaux sans fil à 60 GHz ». Lille 1, 2006. http://www.theses.fr/2005LIL12024.

Texte intégral
Résumé :
L'objectif de ce travail est d'étudier l'utilisation de la bande millimétrique autour de 60 GHz pour les futurs réseaux intra-bâtiment. Les contraintes imposées sont la simplicité des architectures, la souplesse d'utilisation et l'asynchronisme dès utilisateurs. Le choix, de la méthode d'accès multiples est la division par codes à séquence directe (DS-CDMA) sur des bandes de 250 MHz. Dans un premier temps, une étude théorique, qui repose sur un modèle statistique du canal développé à l'IEMN à partir de mesures, permet de déterminer la qualité de la transmission. Le réseau est centralisé et le récepteur mono-utilisateur. Notre étude unifie les calculs de taux d'erreur pour différentes techniques de diversité. Le contrôle de puissance est pris en compte et, s'il est parfait, les résultats montrent des capacités de l'ordre de 17 utilisateurs avec un débit de 8 Mbits/s par sous bande, pour un taux d'erreur binaire sans codage canal de 10-2 et une portée d'une dizaine de mètres. Nous proposons ensuite des méthodes de simulation du système. Elles nous permettent d'introduire différentes formes d'ondes, des défauts de synchronisation et ainsi d'en étudier les impacts. Enfin, la technique à étalement de spectre par combinaison parallèle a été adoptée pour gérer les débits variables. Cette technique permet à un utilisateur de changer son débit à la demande sans modifier la qualité des liens des autres utilisateurs. Par sa conception, elle assure de bonnes performances et nous l'avons modifiée afin d'obtenir une réduction de la complexité du système. A l'issue de cette étude, le DS-CDMA apparaît comme une technique de partage de la ressource du canal intéressante pour les futurs réseaux locaux sans fil dans la bande millimétrique des 60 GHz.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Renault, Éric. « Étude de l'impact de la sécurité sur les performances dans les grappes de PC ». Versailles-St Quentin en Yvelines, 2000. http://www.theses.fr/2000VERS0016.

Texte intégral
Résumé :
Développées depuis le début des années 90, les grappes de PC s'imposent de plus en plus comme une alternative aux supercalculateurs. En particulier, l'avènement récent des réseaux giga bits a conforté cette position. C'est dans ce cadre qu'a été développé la machine multi-PC, implémentant le protocole remote write (ou les adresses physiques locale et distante doivent être précisées par l'émetteur du message). Si ce protocole est très efficace, l'emploi des adresses physiques par l'utilisateur constitue un trou de sécurité très important. L'organisation des blocs de mémoire physique contigue͏̈, La protection de ces blocs par l'intermédiaire d'une signature et/ou d'un chiffrement, mécanismes originaux efficaces et adaptés à ces informations, l'évaluation fine des divers temps intervenant dans les transmissions sont les principaux apports de cette thèse.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Aït, Ali Ahmed. « Amélioration de la mesure de la bande passante dans un réseau basé sur IP ». Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10088/document.

Texte intégral
Résumé :
Les travaux menés dans cette thèse s’intéressent particulièrement à la mesure de la bande passante disponible qui est un paramètre très important pour le bon fonctionnement de plusieurs applications réseaux et dont la détermination avec précision reste jusqu’à aujourd’hui un défi à relever. Ces travaux visent donc à améliorer les techniques de mesure de ce paramètre en proposant un nouveau modèle déterministe basé sur la technique de la paire de paquets. Ce dernier est implémenté dans un nouvel outil de mesure appelé IGMPS. Les test expérimentaux visant à évaluer les performances de cette outil ont montré que ce dernier permet de mesurer la bande passante disponible avec une très grande précision qui dépasse largement celle offerte par les autres outils existants. Par ailleurs, une analyse de sensibilité et un calcul d’incertitudes sur les modèles étudiés ont montré que les erreurs dues à l’estampillage des paquets sondes au niveau de l’émetteur et du récepteur sont principalement à l’origine de l’imprécision des mesures fournies par les différents outils de mesure de la bande passante disponible
This thesis work is focused on the end-to-end available bandwidth measurement that has attracted extensive attentions this last decade. This parameter is useful for several network applications, however, its measurement with good accuracy still stays a challenge to take up. To improve the performance of the available bandwidth measurement techniques, we developed a new deterministic model of packet pair delays that takes into account the probing packet size parameter; and implemented it in a new measurement tool called IGMPS. Through measurements on several network testbed configurations, we evaluated IGMPS and found that it provides available bandwidth measurements with high accuracy. Using sensitivity and uncertainty analysis to study the proposed model, we investigated the sources of observed errors on the measurement tools. We found that these errors are likely to be inherent in delay measurement. Indeed, the timestamping operations at the sender end the receiver are mainly at the origin of the inaccuracy of the estimates provided by the available bandwidth measurement tools
Styles APA, Harvard, Vancouver, ISO, etc.
37

Rekik, Mouna. « Routage géographique multi-chemin basé sur l’intelligence d’essaim pour réseaux de capteurs et d’actionneurs sans fil : application aux Smart Grids ». Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10059/document.

Texte intégral
Résumé :
Le Smart Grid (SG) permet une gestion intelligente du réseau électrique en mettant en place une infrastructure de communication pour l'échange des données. A travers cette thèse, nous avons proposé un protocole de routage des données pour les réseaux de capteurs sans fil (WSN) appliqués au niveau distribution des SGs. Nous avons proposé GRACO, un nouveau protocole de routage géographique basé sur l'intelligence d'essaim pour les WSNs. GRACO utilise le routage géographique comme mécanisme principal de routage de données, et un processus de recouvrement basé sur l'optimisation par colonies de fourmis pour contourner les vides de communication. Les performances du protocole ont été validées à travers des simulations. En comparant les résultats à l'état de l'art, le protocole proposé permet d'améliorer les performances du réseau en termes de taux de livraison, temps de réception et coût de livraison. Ensuite, nous avons proposé GRACO pour les réseaux de voisinages(NAN) sans fil du SG. GRACO permet d'assurer tous les types de paradigme de communication, surtout la communication Point-à-Point tout en offrant une évolutivité et des capacités d'auto-guérison. La faisabilité de GRACO dans les NANs a été confirmée à travers des simulations en utilisant des paramètres définis par le NIST.Enfin, nous nous sommes concentrés sur les qualités de service (QoS) requises par les applications du NAN. Nous avons ajouté un modèle de QoS à GRACO pour tenir compte de ces exigences. Les performances du protocole ont été validées à travers des simulations. Les résultats ont montré que le protocole permet de satisfaire les exigences en termes de fiabilité et de délai de réception des données
The Smart Grid (SG) enables an intelligent management of the electrical grid. The implementation of SGs is conditional to the implementation of a communication infrastructure to exchange data between the entities connected to the grid. This thesis is positioned in the context of wireless sensor networks (WSN) in SGs. Through this work, we have proposed a data routing protocol for the communication network at the distribution level. First, we proposed GRACO, a new geographical routing protocol based on swarm intelligence for WSNs. GRACO uses the geographic routing as a main data routing mechanism, and a recovery process based on ant colony optimization to bypass communication voids. The protocol performances were validated through simulations. By comparing the results to the state of the art, the proposed protocol improves the network performances in terms of data delivery rate, end-to-end delay and delivery cost. Second, we proposed GRACO as the routing protocol for wireless neighborhood area networks (NANs) in SG. GRACO ensures all communication schemes, especially Point-to-Point communication while providing scalability and self-healing capabilities. The feasibility of the protocol in NANs was confirmed through simulations using parameters defined by NIST.Finally, we focused on the qualities of service (QoS) required by NAN's applications. We have added a QoS model to the proposed routing protocol to take account of NAN's communication requirements. The performances of the new protocol were validated through simulations. The results showed that the protocol can satisfy the most severe requirements in terms of reliability and end-to-end delay
Styles APA, Harvard, Vancouver, ISO, etc.
38

Pardo, Fabrice. « Étude et réalisation d'un dispositif bistable optique basé sur l'excitation d'un mode guidé couplé par réseau dans une couche mince de silicium sur saphir ». Paris 11, 1986. http://www.theses.fr/1986PA112161.

Texte intégral
Résumé :
Cette thèse présente l'étude et la réalisation d'un dispositif entièrement optique originel, permettent d'obtenir des commutations ultrarapides. Ce dispositif met à profit l'excitation de modes guidés d ns une couche mince non-linéaire, équivalente à un système résonnant de grande finesse. On fait une étude théorique des dispositifs bistables optiques résonnants, qui prend en compte, d'une façon complète au premier ordre, les variations locales d'indice de réfraction dans le milieu non ­ linéaire, pour un résonateur de grande finesse. On peut ainsi prévoir les grandeurs caractérisant le dispositif, comme le seuil de bistabilité, d'une façon comparable à la méthode dite du "champ moyen", mais avec une bien meilleure précision. La théorie, faite pour un dispositif plan, est étendue au cas d'un système couplé par réseau. On décrit la réalisation d'un dispositif constitué d'un guide d'onde non linéaire en silicium épitaxié sur saphir, et notamment la gravure en surface d'un réseau de diffraction au pas de 0,33 um, par une méthode photolithographique. La présence d'ondes stationnaires dans l'épaisseur de la résine, déposée sur le silicium, peut conduire à de fortes variations d'exposition dans la résine et donc à de fortes fluctuations de la profondeur de modulation du réseau de silicium obtenu ensuite par gravure ionique. Une étude du dispositif été réalisée en régime linéaire pour déterminer les caractéristiques des modes TE et TM du guide réalisé. Puis l'étude a été effectuée en régime non linéaire, en utilisant des excitations lumineuses de 20 ns de durée ; elle a démontré la possibilité d'obtenir des commutations très contrastées bien plus rapides que la nanoseconde
This thesis presents a theoretical study and the realization of an original all optical device allowing ultrafast switching, taking advantage of the excitation of guided modes in a non-linear thin film, equivalent to a high finesse resonant system. In the theoretical study carried out to describe resonant optical bistable devices, all first order effects related ta refractive index local variations in the non-linear medium are taken into account, for a high finesse resonator. Characteristics of the device, as the threshold for bistability, can then be determined with a better precision than in the "mean field" method. The theory, developed for a planar system, is extended ta a grating coupled system. The realization of silicon on sapphire (SOS) non-linear wave-guide is described, especially the etching of a diffraction grating with a 0. 33 um groove-spacing by photolithography technics. Stationary waves appearing in the photoresist deposited on the silicon layer con lead ta large variations of exposure in the resist depth and then ta large fluctuations of the silicon grating modulation depth, obtained by ionic etching. A linear study of the device has been performed ta determine the guided TE and TM mode characteristics ta carry out the non-linear study, 20 ns duration light pulses have been used. Highly contrasted subnanosecond switching has been observed
Styles APA, Harvard, Vancouver, ISO, etc.
39

Lai, Cristian. « Modèle d'indexation sémantique de ressources de mémoires personnelle et collective basé sur une approche pair à pair ». Compiègne, 2011. http://www.theses.fr/2011COMP1953.

Texte intégral
Résumé :
La présente thèse explore l’utilisation d’une approche sémantique pour indexer des ressources partagées par les membres d’une communauté répartis dans un réseau pair à pair. La thèse contribue aux études des approches d’indexation sémantique qui peuvent être utilisées à la fois pour des ressources personnelles et pour des ressources partagées dans une mémoire collective et réparties dans un réseau distribué. La solution est générique et peut être appliquée pour des communautés de différents domaines. Le système d’indexation proposé est basé sur le point de vue de l’utilisateur et l’indexation doit être réalisée manuellement. Elle réfère à une information qui peut être subjective, non nécessairement contenue dans les ressources elles-mêmes, ou qui serait difficile à extraire automatiquement des documents. L’approche nécessite des interfaces adaptées qui permettent de naviguer dans les ontologies et facilitent l’indexation. Nous définissons également un système de patrons d’indexation qui gèrent les ontologies lors de la création des clés d’index. Ces patrons simplifient aussi la navigation dans les ontologies en ne montrant que les parties indispensables à l’indexation. Nous prenons aussi en compte le problème de la différence de contexte entre la publication des ressources et leur recherche. La solution proposée est de prévoir différentes possibilités de recherche lors de la publication d’une ressource. L’application pratique masque les fonctionnalités dont a besoin l’utilisateur pour gérer ses ressources. Le développement de son prototype est guidé par les descriptions de l’architecture et de l’implémentation du système d’indexation
The present thesis explores the use of a semantic approach for indexing resources that are shared among a community of users who are scattered in a peer-to-peer network. The thesis contributes to the studies of Semantic Indexing approaches that can be used both with resources owned within personal memories, and with resources that are shared in a distributed network. Because the system is generic, the exact nature of the distributed community can be left undefined but our narrower focus is on applications in the e-learning domain. To address the problem that resources have different types, an indexing system is proposed that is based on the user point of view and is performed manually. Indeed, because indices refer to the subjective information that is not necessarily contained in the resources or that are hard to extract from documents that are not textual, the indexing of such type of resources can only be done in an interactive way. We show that a unique approach can be taken that allows one to store documents in personal or collective memories. The approach requires suitable browsing interfaces for accessing ontologies that satisfy and facilitate indexing. We therefore also define an Indexing Patterns system for managing ontologies that can be utilized for creating indices. The method is intended to facilitate the browsing of ontologies by showing only that part of the ontology that is useful for indexing and can be employed by users of various operating systems. A related problem that we address concerns the difference between the publication context and the retrieval context. The solution poroposed in this thesis foresees different retrieval situations and queries during the time a resource is published and builds the index based on those assumptions. The intended practical application encapsulates in a transparent manner the functionalities that the user requires for managing the resources. The development of a prototype is guided by Architectural and Implementation descriptions of the indexing system, both of which are described in the thesis. Although the solution we offer is generic and can be used by different user communities, the approach benefits Domain Specific Communities in particular, by assisting specilized loose communities that are structured as peer to peer networks and that allow publishing and searching of documents
Styles APA, Harvard, Vancouver, ISO, etc.
40

Jiao, Yunlong. « Pronostic moléculaire basé sur l'ordre des gènes et découverte de biomarqueurs guidé par des réseaux pour le cancer du sein ». Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM027/document.

Texte intégral
Résumé :
Le cancer du sein est le deuxième cancer le plus répandu dans le monde et la principale cause de décès due à un cancer chez les femmes. L'amélioration du pronostic du cancer a été l'une des principales préoccupations afin de permettre une meilleure gestion et un meilleur traitement clinique des patients. Avec l'avancement rapide des technologies de profilage génomique durant ces dernières décennies, la disponibilité aisée d'une grande quantité de données génomiques pour la recherche médicale a motivé la tendance actuelle qui consiste à utiliser des outils informatiques tels que l'apprentissage statistique dans le domaine de la science des données afin de découvrir les biomarqueurs moléculaires en lien avec l'amélioration du pronostic. Cette thèse est conçue suivant deux directions d'approches destinées à répondre à deux défis majeurs dans l'analyse de données génomiques pour le pronostic du cancer du sein d'un point de vue méthodologique de l'apprentissage statistique : les approches basées sur le classement pour améliorer le pronostic moléculaire et les approches guidées par un réseau donné pour améliorer la découverte de biomarqueurs. D'autre part, les méthodologies développées et étudiées dans cette thèse, qui concernent respectivement l'apprentissage à partir de données de classements et l'apprentissage sur un graphe, apportent une contribution significative à plusieurs branches de l'apprentissage statistique, concernant au moins les applications à la biologie du cancer et la théorie du choix social
Breast cancer is the second most common cancer worldwide and the leading cause of women's death from cancer. Improving cancer prognosis has been one of the problems of primary interest towards better clinical management and treatment decision making for cancer patients. With the rapid advancement of genomic profiling technologies in the past decades, easy availability of a substantial amount of genomic data for medical research has been motivating the currently popular trend of using computational tools, especially machine learning in the era of data science, to discover molecular biomarkers regarding prognosis improvement. This thesis is conceived following two lines of approaches intended to address two major challenges arising in genomic data analysis for breast cancer prognosis from a methodological standpoint of machine learning: rank-based approaches for improved molecular prognosis and network-guided approaches for enhanced biomarker discovery. Furthermore, the methodologies developed and investigated in this thesis, pertaining respectively to learning with rank data and learning on graphs, have a significant contribution to several branches of machine learning, concerning applications across but not limited to cancer biology and social choice theory
Styles APA, Harvard, Vancouver, ISO, etc.
41

Tournoux, Pierre Ugo. « Un protocole de fiabilité basé sur un code à effacement "on-the-fly" ». Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00547003.

Texte intégral
Résumé :
Le monde du protocole de transport a fortement évolué depuis la création de l'internet. On retrouve désormais une grande diversité de liens avec des caractéristiques hétérogènes en termes de débit, taux de pertes et délais. Plus récemment, le caractère ubiquitaire des périphériques sans fil a permis d'envisager un nouveau mode de transfert prenant en compte la mobilité des utilisateurs pour propager l'information dans le réseau. Ce paradigme de communication rompt définitivement avec les hypothèses de conceptions des protocoles de transport classique. Les applications qui utilisent l'internet ont également évolué. Les réseaux best effort sont maintenant utilisés pour transporter des flux à contrainte de délai tels que la voix sur IP et la vidéo conférence. Cependant, malgré ces changements importants, le principe de fiabilité utilisé n'a guère évolué et se base toujours sur des retransmissions. C'est dans ce contexte que s'inscrit cette thèse qui vise à fournir une brique de fiabilité novatrice pour le support de tout type d'application sur les réseaux best effort et les challenged neworks qui font de plus en plus partie du paysage de l'internet. A cette fin, nous proposons un mécanisme de codage dénommé Tetrys. Ce code est sans rendement et ses symboles de redondance sont générés à la volée. Il permet à la fois une fiabilité totale et un délai de reconstruction quasi-optimal. Après une étude détaillée de ses propriétés, nous illustrons la généricité de ce mécanisme. Nous verrons que ses caractéristiques mènent à des contributions aussi bien sur le transport de flux de vidéo-conférence que sur le support du streaming dans les DTN ou encore la fiabilisation des handovers. De manière plus prospective, cette thèse reconsidère les hypothèses initiales du contrôle de congestion. Tetrys est utilisé comme code optimal dans le cas de réseaux dit "anarchiques" (i.e. caractérisés par une absence totale de contrôle de congestion). Nous montrons que le concept de réseau anarchi que est une alternative viable au contrôle de congestion et qu'il le remplace mÆeme avantageusement.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Génevé, Lionel. « Système de déploiement d'un robot mobile autonome basé sur des balises ». Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD024/document.

Texte intégral
Résumé :
Cette thèse s’inscrit dans le cadre d’un projet visant à développer un robot mobile autonome capable de réaliser des tâches spécifiques dans une zone préalablement définie par l’utilisateur. Afin de faciliter la mise en œuvre du système, des balises radiofréquences fournissant des mesures de distance par rapport au robot sont disposées au préalable autour du terrain. Le déploiement du robot s’effectue en deux phases, une première d’apprentissage du terrain, puis une seconde, où le robot effectue ses tâches de façon autonome. Ces deux étapes nécessitent de résoudre les problèmes de localisation et de localisation et cartographie simultanées pour lesquels différentes solutions sont proposées et testées en simulation et sur des jeux de données réelles. De plus, afin de faciliter l’installation et d’améliorer les performances du système, un algorithme de placement des balises est présenté puis testé en simulation afin de valider notamment l’amélioration des performances de localisation
This thesis is part of a project which aims at developing an autonomous mobile robot able to perform specific tasks in a preset area. To ease the setup of the system, radio-frequency beacons providing range measurements with respect to the robot are set up beforehand on the borders of the robot’s workspace. The system deployment consists in two steps, one for learning the environment, then a second, where the robot executes its tasks autonomously. These two steps require to solve the localization and simultaneous localization and mapping problems for which several solutions are proposed and tested in simulation and on real datasets. Moreover, to ease the setup and improve the system performances, a beacon placement algorithm is presented and tested in simulation in order to validate in particular the improvement of the localization performances
Styles APA, Harvard, Vancouver, ISO, etc.
43

Mouelhi-Chibani, Wiem. « Apprentissage autonome de réseaux de neurones pour le pilotage en temps réel des systèmes de production basé sur l'optimisation via simulation ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00725259.

Texte intégral
Résumé :
Le pilotage en temps réel des systèmes de production nécessite de prendre des décisions complexes sur l'affectation des ressources ou le choix des tâches à réaliser. Compte tenu de l'importance de la pertinence des décisions pour la performance d'un atelier, le pilotage fait l'objet de travaux de recherche dont l'objectif est d'aider les preneurs de décision. En particulier, on ne sait pas évaluer les conséquences sur la performance d'une décision en temps réel car les bonnes performances résultent d'une séquence de décisions et non d'une seule. De ce fait, il est difficile d'établir quelle est la meilleure décision à prendre à un instant donné. Plusieurs auteurs ont utilisé la simulation pour apprendre des bonnes pratiques à l'aide d'approches d'apprentissage automatique, mais se sont heurtés à la difficulté d'obtenir des exemples ou des observations sur des décisions en temps réel, où la prise en compte des changements d'états est indispensable pour choisir des stratégies de production. Nous avons réussi à aborder ce problème en proposant une approche d'apprentissage à l'aide de réseaux de neurones, qui ne nécessite pas d'exemples, d'observations ni de connaissances d'experts préalables. Ce type d'apprentissage s'effectue par optimisation via simulation des paramètres du réseau de neurones par rapport à un objectif de performance du système. Il vise à extraire de façon autonome des connaissances sur la meilleure façon de décider d'un modèle de simulation. Nous montrons la faisablité et l'apport de notre approche sur deux exemples inspirés de la littérature
Styles APA, Harvard, Vancouver, ISO, etc.
44

Ritty, Alexandre. « CONCEPTION, RÉALISATION ET CARACTÉRISATION D'UN HAUT-PARLEUR ULTRA-DIRECTIF BASÉ SUR L'AUTO-DÉMODULATION NON LINÉAIRE ». Phd thesis, Université du Maine, 2007. http://tel.archives-ouvertes.fr/tel-00201456.

Texte intégral
Résumé :
Les non-linéarités associées à la propagation d'une onde acoustique fort niveau se traduisent par un phénomène d'auto-démodulation d'amplitude : lorsqu'une onde porteuse ultrasonore (onde primaire) est modulée en amplitude par un signal audio, le signal audio (ondes secondaires) se reconstruit le long du lobe d'émission des ultrasons. L'antenne paramétrique ainsi obtenue présente alors une directivité très étroite en comparaison des systèmes classiques de restitution du son de dimensions comparables.
Ce travail de thèse vise à améliorer les systèmes existants. Pour ce faire, un outil de dimensionnement et un prototype de démonstration sont réalisés.
Dans un premier temps, les principes fondamentaux de l'acoustique non linéaire permettant de comprendre le phénomène d'auto-démodulation sont rappelés. Ceci permet de conclure sur l'influence du champ d'ondes primaires sur le champ d'ondes secondaires et de déterminer les propriétés nécessaires au champ d'ondes primaires pour une utilisation comme haut-parleur directif. Les distorsions induites par l'auto-démodulation sont également mises en évidence. Les prétraitements usuels de réduction des distorsions sont ensuite détaillés et évalués à l'aide d'un algorithme de simulation afin de conclure sur leurs avantages et leurs conditions d'utilisation.
Afin d'obtenir une directivité très étroite et un fort niveau aux fréquences ultrasonores, un réseau de transducteurs est utilisé. Nous avons choisi de travailler avec des transducteurs à base de film PVDF. Dans un second temps, une modélisation décrivant le comportement des transducteurs réalisés à l'aide de film PVDF couplé à une cavité est proposée. Celle-ci permet d'estimer la pression acoustique rayonnée par une cellule élmentaire en fonction de différents paramètres tels que les dimensions de la cavité et les propriétés du film. Enfin, l'utilisation du modèle de rayonnement d'un réseau de sources permet de définir un réseau de cellules répondant aux exigences de cette application.
Finalement, un prototype de haut-parleur directif est réalisé. Il est caractérisé expérimentalement en régime linéaire (sans auto-démodulation) ainsi que pour une utilisation comme haut-parleur directif afin de réaliser une validation des différentes parties de l'étude.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Fenet, Serge. « Vers un paradigme de programmation pour les applications distribuées basé sur le comportement des insectes sociaux : application à la sécurité des réseaux ». Lyon 1, 2001. http://www.theses.fr/2001LYO10261.

Texte intégral
Résumé :
Les travaux présentés dans cette thèse se positionnent dans la perspective de la création de futures applications orientées réseau. Nous nous orientons vers un paradigme de programmation d'applications distribuées dans lequel les systèmes informatiques seraient conçus comme de vrais écosystèmes. Les applications distribuées seraient alors vues comme des populations d'agents mobiles vivant et évoluant sur le réseau et dont les fonctionnalités seraient des caractéristiques émergentes. Nous proposons dans cette thèse une architecture générique à base d'agents mobiles se basant sur les mécanismes de communication des insectes sociaux et pouvant se dédier à des tâches de contrôle des réseaux, de routage ou de protection. Elle est basée sur une approche émergente et s'adapte aux constants changements imposés par l'évolution des conditions de fonctionnement du réseau. Elle utilise plusieurs populations d'agents mobiles qui, comme les agents naturels tels que les insectes sociaux, sont individuellement peu sophistiqués et intègrent une part d'aléatoire. Toutefois, leur comportement collectif, issu de l'interaction d'un grand nombre d'individus les uns avec les autres et avec leur environnement, est complexe et tend de façon émergente vers un optimum sans faire appel à un contrôle central. Ils évoluent au sein d'un réseau de machines et interagissent avec un mécanisme supportant la prise en compte spatio-temporelle de critères multiples incarnés en des champs dynamiques. Leur déplacement au sein de ces champs leur permet de se rendre sur une position géographique qui satisfasse les critères modélisés. Une grande partie de nos travaux se concentre sur la détection d'intrusion au sein de réseaux locaux.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Voiry, Matthieu. « Étude et conception d'un système automatisé de contrôle d'aspect des pièces optiques basé sur des techniques connexionnistes ». Thesis, Paris Est, 2008. http://www.theses.fr/2008PEST0077/document.

Texte intégral
Résumé :
Dans différents domaines industriels, la problématique du diagnostic prend une place importante. Ainsi, le contrôle d’aspect des composants optiques est une étape incontournable pour garantir leurs performances opérationnelles. La méthode conventionnelle de contrôle par un opérateur humain souffre de limitations importantes qui deviennent insurmontables pour certaines optiques hautes performances. Dans ce contexte, cette thèse traite de la conception d’un système automatique capable d’assurer le contrôle d’aspect. Premièrement, une étude des capteurs pouvant être mis en oeuvre par ce système est menée. Afin de satisfaire à des contraintes de temps de contrôle, la solution proposée utilise deux capteurs travaillant à des échelles différentes. Un de ces capteurs est basé sur la microscopie Nomarski ; nous présentons ce capteur ainsi qu’un ensemble de méthodes de traitement de l’image qui permettent, à partir des données fournies par celui-ci, de détecter les défauts et de déterminer la rugosité, de manière robuste et répétable. L’élaboration d’un prototype opérationnel, capable de contrôler des pièces optiques de taille limitée valide ces différentes techniques. Par ailleurs, le diagnostic des composants optiques nécessite une phase de classification. En effet, si les défauts permanents sont détectés, il en est de même pour de nombreux « faux » défauts (poussières, traces de nettoyage. . . ). Ce problème complexe est traité par un réseau de neurones artificiels de type MLP tirant partie d’une description invariante des défauts. Cette description, issue de la transformée de Fourier-Mellin est d’une dimension élevée qui peut poser des problèmes liés au « fléau de la dimension ». Afin de limiter ces effets néfastes, différentes techniques de réduction de dimension (Self Organizing Map, Curvilinear Component Analysis et Curvilinear Distance Analysis) sont étudiées. On montre d’une part que les techniques CCA et CDA sont plus performantes que SOM en termes de qualité de projection, et d’autre part qu’elles permettent d’utiliser des classifieurs de taille plus modeste, à performances égales. Enfin, un réseau de neurones modulaire utilisant des modèles locaux est proposé. Nous développons une nouvelle approche de décomposition des problèmes de classification, fondée sur le concept de dimension intrinsèque. Les groupes de données de dimensionnalité homogène obtenus ont un sens physique et permettent de réduire considérablement la phase d’apprentissage du classifieur tout en améliorant ses performances en généralisation
In various industrial fields, the problem of diagnosis is of great interest. For example, the check of surface imperfections on an optical device is necessary to guarantee its operational performances. The conventional control method, based on human expert visual inspection, suffers from limitations, which become critical for some high-performances components. In this context, this thesis deals with the design of an automatic system, able to carry out the diagnosis of appearance flaws. To fulfil the time constraints, the suggested solution uses two sensors working on different scales. We present one of them based on Normarski microscopy, and the image processing methods which allow, starting from issued data, to detect the defects and to determine roughness in a reliable way. The development of an operational prototype, able to check small optical components, validates the proposed techniques. The final diagnosis also requires a classification phase. Indeed, if the permanent defects are detected, many “false” defects (dust, cleaning marks. . . ) are emphasized as well. This complex problem is solved by a MLP Artificial Neural Network using an invariant description of the defects. This representation, resulting from the Fourier-Mellin transform, is a high dimensional vector, what implies some problems linked to the “curse of dimensionality”. In order to limit these harmful effects, various dimensionality reduction techniques (Self Organizing Map, Curvilinear Component Analysis and Curvilinear Distance Analysis) are investigated. On one hand we show that CCA and CDA are more powerful than SOM in terms of projection quality. On the other hand, these methods allow using more simple classifiers with equal performances. Finally, a modular neural network, which exploits local models, is developed. We proposed a new classification problems decomposition scheme, based on the intrinsic dimension concept. The obtained data clusters of homogeneous dimensionality have a physical meaning and permit to reduce significantly the training phase of the classifier, while improving its generalization performances
Styles APA, Harvard, Vancouver, ISO, etc.
47

Négru, Daniel. « Un Eco-système de Médias Réseaux basé sur la Conscience du Contexte, du Réseau et du Contenu à destination de l'Internet Media du Futur ». Habilitation à diriger des recherches, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-01012046.

Texte intégral
Résumé :
La tendance et l'absolu nécessité d'aujourd'hui est de construire l'Internet du futur. De nombreuses actions de recherche sont menées dans ce sens et la plupart d'entre elles décrivent le domaine des médias comme l'un des plus prédominants et essentiels à prendre en considération. En effet, le contenu média est déjà dominant sur Internet et ne cesse d'augmenter alors que l'architecture actuelle n'avait pas été construite avec les médias en tête. La diffusion efficace de contenu multimédia devient maintenant une évolution nécessaire non seulement pour plaire aux utilisateurs finaux, mais aussi pour révéler de nouvelles opportunités d'affaires pour tous les acteurs de la chaîne de valeur. Dans cette thèse, nous proposons une nouvelle architecture pour l'avenir des réseaux de médias Internet, centrée autour du concept d'une approche collaborative gagnant-gagnant entre tous les acteurs. Le "Networked Media écosystème" que nous nous efforçons de construire permettra de nouvelles fonctionnalités et des avantages pour toutes les parties prenantes, essentiellement grâce à l'innovation basée sur la prise de conscience qu'il permet et leurs résultats en termes d'amélioration de la qualité et de l'adaptation. L'approche proposée repose sur: (1) une couche Home-Box virtuelle, qui d'une part prend en compte le Contexte et le Réseau au niveau de l'Application afin de permettre un système de diffusion de contenu efficace et, d'autre part, fournit des informations pour mettre en œuvre la conscience du contenu au niveau du Réseau; (2) une couche réseau basée sur le Contenu (CAN), dont le rôle est d'examiner les informations relatives au contenu transporté et de prendre les mesures appropriées, en plus de fournir de l'information aux couches supérieures. L'architecture proposée n'a pas seulement été conçue et simulée, mais aussi mise en œuvre et validée par le projet européen nommé ALICANTE. Ce projet a permis de fournir des résultats intéressants et a ouvert la voie à des évolutions et des orientations futures de la recherche dans le domaine des Réseaux de Média.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Sahade, Mohamad. « Un démonstrateur automatique basé sur la méthode de tableaux pour les logiques modales : implémentation et études de stratégies ». Toulouse 3, 2006. http://www.theses.fr/2006TOU30055.

Texte intégral
Résumé :
A divers titres, les logiques modales interviennent dans la formalisation de l'interaction entre agents rationnels, y compris la formalisation de plusieurs aspects relatifs à la sécurité des applications Internet (authentification de signature, autorisation). Ces applications nécessitent la mise au point de procédures automatiques, ainsi que la possibilité de tests et expérimentations. Les démonstrateurs automatiques connus ne concernent que des familles de logiques très restreintes. Dans cette thèse nous présentons un démonstrateur automatique générique basé sur la méthode de tableaux nommé : LoTREC. Ce n'est pas seulement un démonstrateur mais un générateur des modèles et de contre modèles pour les formules en entrée. Nous présentons aussi son langage déclaratif basé sur des règles de réécriture de graphes et d'instructions de contrôle pour la définition de stratégies d'application de ces règles. Nous démontrons aussi la complétude, l'adéquation et la terminaison de nos stratégies. Ces résultats couvrent toutes les logiques modales de bases (comme K, KT, S4, S5, KB. . . ) ainsi que les logiques : K+confluence, K4+confluence, la logique temporelle linéaire et la logique dynamique.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Belloum, Adam Scander. « Étude d'un système multiprocesseurs reconfigurable dédié aux traitements d'images basé sur les processeurs de signaux ». Compiègne, 1996. http://www.theses.fr/1996COMPD877.

Texte intégral
Résumé :
L'objectif de ce travail est d'étudier la faisabilité d'un système de vision parallèle et reconfigurable à base de processeurs de signaux. Les caractéristiques principales de ce dernier ont été déterminées grâce à l'étude de quelques algorithmes connus en traitement d'images : filtre de Deriche, Transformée de Hough, reconstruction 3D par des méthodes géométriques. Dans ce système de vision, les traitements de haut niveau sont exécutés par des processeurs de signaux, alors que les traitements de bas niveau sont câblés pour une exécution en temps réel. Les échanges interprocesseurs sont assurés par les ports de communication des D. S. P. (TMS320C40 ou ADSP21060) à travers un réseau d'interconnexion reconfigurable multi-niveaux (MRN), implémenté en utilisant des circuits électroniques programmables. Le réseau proposé permet de connecter les éléments de calcul selon différentes topologies (hypercube, grille, arbre binaire,. . . ). Des chemins redondants ont été prévus pour permettre la tolérance aux pannes dans le réseau. La récursivité de ce dernier permet de construire facilement une architecture massivement parallèle. Une étude comparative a montré que seules les structures intégrant moins de 1024 nœuds présentent des caractéristiques équivalentes à celles des réseaux conventionnels (hypercube, grille,. . . ). L'existence de chemins redondants entre chaque paire de nœuds du réseau nous a poussé à faire une étude sur la tolérance aux pannes dans le MRN, ce qui a permis de montrer, en utilisant le concept des ensembles de pannes interdits, que le MRN pouvait tolérer jusqu'a 32 pannes simultanées sans se déconnecter. Parallèlement, une étude sur l'évolution du diamètre du réseau en présence de pannes a montré qu'il restait très proche du diamètre normal pour les structures intégrant moins de 1024 nœuds. Pour synchroniser les différentes horloges du réseau, une approche matérielle basée sur la hiérarchisation de la référence a été utilisée, permettant à chaque groupe de nœuds de se synchroniser par rapport a une horloge unique issue du niveau supérieur de la hiérarchie. Des liens dédiés à cette tache sont prévus, ce qui permet le contrôle des délais de propagation dans le réseau.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Hillali, Yassin El. « Etude et réalisation d'un système de communication et de localisation, basé sur les techniques d'étalement de spectre, dédié aux transports guidés ». Valenciennes, 2005. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/bc65c6c9-a961-4f5e-88e5-cac7be0268f3.

Texte intégral
Résumé :
L’objectif de ce travail est de concevoir un système de communication et de localisation destiné à des métros automatiques guidés afin d’améliorer leur exploitation et d’accroître la sécurité. La principale application du RADAR est de réduire le temps de perte d’exploitation causé par un métro en panne, en permettant au train suivant de connaître en temps réel la distance le séparant de celui qui est immobilisé. Le capteur est du type radar coopératif constitué de deux couples d’interrogateurs–répondeurs équipant l’avant et l’arrière de chaque train et formant ainsi une boucle complète. Le choix du capteur s’est orienté vers le radar à corrélation, car il maximise le rapport signal à bruit en sortie. Des techniques de multiplexage originales à étalement de spectre ont été développées afin de combiner la fonction de localisation et l’établissement d’une communication avec le même capteur. Une des caractéristiques de ce système est qu’il est amené à fonctionner en tunnel et en espace libre. D’où le choix des têtes hyperfréquences proposées. La chaîne de transmission/réception a ensuite été simulée dans son intégralité et dans son environnement de fonctionnement afin de valider les choix techniques opérées. Finalement, nous avons présenté des solutions d’implémentation des algorithmes de traitement sur une plateforme de développement de type FPGA. Un prototype a été réalisé et les premiers tests ont été menés en espace libre. Les résultats obtenus montrent qu’une portée de l’ordre de 700 m peut être atteinte. Les techniques de multiplexage que nous avons proposées permettent d’établir une communication avec des débits variables suivant la technique de multiplexage. Ils peuvent prendre les valeurs (97kb/s,1,6Mb/S, 5,4Mb/s et 11,27Mb/s)
The aim of this work is to design a localization and communication system dedicated to guided automatic trains in order to enhance their exploitation and to increase their reliability. The principal function of this radar is to reduce the lost exploitation time caused by a broken-down train to allow the following train to estimate in real time the distance between them. The sensor is a cooperative radar composed by two couples of interrogators– transponders which equip the front and the rear of each train following a complete loop. The choice of the sensor type is directed towards the correlation radar, because it maximizes the output signal to noise ratio. Some original multiplexing techniques based on spreading spectrum have been developed to combine the localization and the communication functions inside the same device. This system must be able to work on open area and also in tunnel. The choice of Hyperfrequency front-ends has been done following this important characteristic. The whole system (Transmitter/Receiver) have been simulated in real conditions in order to validate the selected technical choices. Finally, we present some solutions to implement the computing algorithms on a FPGA devices. A mock-up has been realized and the first tests have been carried out on open area. The obtained results show that a range of about 700m could be reached. The proposed multiplexing techniques allow the system to establish a communication with different data rates among (97kb/s, 1. 6Mb/S, 5. 4Mb/s and 11. 27Mb/s)
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie