To see the other types of publications on this topic, follow the link: Intelligence artificielle – Mesures de sécurité.

Dissertations / Theses on the topic 'Intelligence artificielle – Mesures de sécurité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Intelligence artificielle – Mesures de sécurité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hemmer, Adrien. "Méthodes de détection pour la sécurité des systèmes IoT hétérogènes." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0020.

Full text
Abstract:
Cette thèse porte sur de nouvelles méthodes de détection pour la sécurité des systèmes IoT hétérogènes, et s'inscrit dans le cadre du projet européen Secure IoT. Nous avons tout d'abord proposé une solution utilisant le process mining couplé à un pré-traitement des données, pour construire des modèles de comportement et identifier des anomalies à partir de données hétérogènes. Nous avons évalué cette solution à partir de jeux de données issus de plusieurs domaines d'applications différents : véhicules connectés, industrie 4.0, robots d'assistance. Cette solution permet de construire des modèles plus facilement compréhensibles. Elle obtient des meilleurs résultats de détection que d'autres méthodes usuelles, mais demande un temps de traitement plus long. Pour réduire ce dernier sans dégrader les performances de détection, nous avons ensuite étendu notre méthode à l'aide d'une approche ensembliste, qui permet de combiner les résultats de plusieurs méthodes de détection utilisées simultanément. En particulier, nous avons comparé différentes stratégies d'agrégation des scores. Nous avons aussi évalué un mécanisme permettant d'ajuster dynamiquement la sensibilité de la détection. Enfin, nous avons implanté la solution sous la forme d'un prototype, qui a été intégré à une plateforme de sécurité développée avec des partenaires européens
This thesis concerns new detection methods for the security of heterogenous IoT systems, and fits within the framework of the SecureIoT European project. We have first proposed a solution exploiting the process mining together with pre-treatment techniques, in order to build behavioral models, and identifying anomalies from heterogenous systems. We have then evaluated this solution from datasets coming from different application domains : connected cars, industry 4.0, and assistance robots.. This solution enables to build models that are more easily understandable. It provides better detection results than other common methods, but may generate a longer detection time. In order to reduce this time without degrading detection performances, we have then extended our method with an ensemble approach, which combines the results from several detection methods that are used simultaneously. In particular, we have compared different score aggregation strategies, as well as evaluated a feedback mechanism for dynamically adjusting the sensitivity of the detection. Finally, we have implemented the solution as a prototype, that has been integrated into a security platform developed in collaboration with other European industrial partners
APA, Harvard, Vancouver, ISO, and other styles
2

Doniat, Christophe. "Contribution à l'élaboration d'une méthodologie d'analyse systématique des vols centrée facteur humain : le système S-ethos." Aix-Marseille 3, 1999. http://www.theses.fr/1998AIX30081.

Full text
Abstract:
Les travaux presentes dans cette these s'inscrivent dans un contexte d'activite relevant a la fois du retour d'experience, de l'intelligence artificielle et de l'ergonomie psychologique cognitive. L'objectif de ces travaux est d'elaborer une methodologie pour ameliorer la securite des vols dans le domaine de l'aeronautique. Notre objectif est d'ameliorer la securite des vols en proposant une methodologie d'analyse systematique des vols centree facteur humain. Notre travail a permis de concevoir un modele conceptuel fondamental du comportement des pilotes d'avion : le modele ethos. Ce modele conceptuel est la base d'un outil d'analyse systematique des vols centree facteur humain. Cet outil se situe au cur d'un projet de retour d'experience. Ce projet se demarque de ces predecesseurs par le fait que l'experience recueillie est positive et non plus negative. En effet, ce projet trouve ses principes de base dans la description du cycle de retour d'experience naturel de l'homme qui est par definition positive. Nous avons developpe un outil de demonstration pour valider notre travail de recherche et experimenter les principes que nous proposons. Nous appliquons notre outil a des enregistrements de vol issus de simulations pilotees.
APA, Harvard, Vancouver, ISO, and other styles
3

Duchene, Fabien. "Detection of web vulnerabilities via model inference assisted evolutionary fuzzing." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM022/document.

Full text
Abstract:
Le test est une approche efficace pour détecter des bogues d'implémentation ayant un impact sur la sécurité, c.a.d. des vulnérabilités. Lorsque le code source n'est pas disponible, il est nécessaire d'utiliser des techniques de test en boîte noire. Nous nous intéressons au problème de détection automatique d'une classe de vulnérabilités (Cross Site Scripting alias XSS) dans les applications web dans un contexte de test en boîte noire. Nous proposons une approche pour inférer des modèles de telles applications et frelatons des séquences d'entrées générées à partir de ces modèles et d'une grammaire d'attaque. Nous inférons des automates de contrôle et de teinte, dont nous extrayons des sous-modèles afin de réduire l'espace de recherche de l'étape de frelatage. Nous utilisons des algorithmes génétiques pour guider la production d'entrées malicieuses envoyées à l'application. Nous produisons un verdict de test grâce à une double inférence de teinte sur l'arbre d'analyse grammaticale d'un navigateur et à l'utilisation de motifs de vulnérabilités comportant des annotations de teinte. Nos implémentations LigRE et KameleonFuzz obtiennent de meilleurs résultats que les scanneurs boîte noire open-source. Nous avons découvert des XSS ``0-day'' (c.a.d. des vulnérabilités jusque lors inconnues publiquement) dans des applications web utilisées par des millions d'utilisateurs
Testing is a viable approach for detecting implementation bugs which have a security impact, a.k.a. vulnerabilities. When the source code is not available, it is necessary to use black-box testing techniques. We address the problem of automatically detecting a certain class of vulnerabilities (Cross Site Scripting a.k.a. XSS) in web applications in a black-box test context. We propose an approach for inferring models of web applications and fuzzing from such models and an attack grammar. We infer control plus taint flow automata, from which we produce slices, which narrow the fuzzing search space. Genetic algorithms are then used to schedule the malicious inputs which are sent to the application. We incorporate a test verdict by performing a double taint inference on the browser parse tree and combining this with taint aware vulnerability patterns. Our implementations LigRE and KameleonFuzz outperform current open-source black-box scanners. We discovered 0-day XSS (i.e., previously unknown vulnerabilities) in web applications used by millions of users
APA, Harvard, Vancouver, ISO, and other styles
4

Le, Coz Adrien. "Characterization of a Reliability Domain for Image Classifiers." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG109.

Full text
Abstract:
Les réseaux de neurones profonds ont révolutionné le domaine de la vision par ordinateur. Ces modèles apprennent une tâche de prédiction à partir d'exemples. La classification d'images consiste à identifier l'objet principal présent dans l'image. Malgré de très bonnes performances des réseaux de neurones sur cette tâche, il arrive fréquemment qu'ils se trompent de façon imprévue. Cette limitation est un frein à leur utilisation pour de nombreuses applications. L'objectif de cette thèse est d'explorer des moyens de définir un domaine de fiabilité qui expliciterait les conditions pour lesquelles un modèle est fiable. Trois aspects ont été considérés. Le premier est qualitatif : générer des exemples extrêmes synthétiques permet d'illustrer les limites d'un classifieur et de mieux comprendre ce qui le fait échouer. Le second aspect est quantitatif : la classification sélective permet au modèle de s'abstenir en cas de forte incertitude, et la calibration permet de mieux quantifier l'incertitude de prédiction. Enfin, le troisième aspect est d'inclure de la sémantique : des modèles multimodaux qui associent images et texte sont utilisés pour décrire textuellement les images susceptibles de provoquer de mauvaises, ou inversement, de bonnes prédictions
Deep neural networks have revolutionized the field of computer vision. These models learn a prediction task from examples. Image classification involves identifying the main object present in the image. Despite the very good performance of neural networks on this task, they often fail unexpectedly. This limitation prevents them from being used in many applications. The goal of this thesis is to explore methods for defining a reliability domain that would clarify the conditions under which a model is trustworthy. Three aspects have been considered. The first is qualitative: generating synthetic extreme examples helps illustrate the limits of a classifier and better understand what causes it to fail. The second aspect is quantitative: selective classification allows the model to abstain in cases of high uncertainty, and calibration helps better quantify prediction uncertainty. Finally, the third aspect involves semantics: multimodal models that associate images and text are used to provide textual descriptions of images likely to lead to incorrect or, conversely, to correct predictions
APA, Harvard, Vancouver, ISO, and other styles
5

Smache, Meriem. "La sécurité des réseaux déterministes de l’Internet des objets industriels (IIoT)." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEM033.

Full text
Abstract:
La synchronisation est une exigence fondamentale pour l'Internet industriel des objets (IIoT). Elle est assurée par l'application du mode TSCH (Time-Slotted Channel-Hopping) du protocole IEEE802.15.4e de la couche MAC. La synchronisation TSCH permet d'atteindre un réseau sans fil de faible puissance et de haute fiabilité. Cependant, les ressources de synchronisation de TSCH sont une cible évidente pour les cyber attaques. Elles peuvent être manipulées par des attaquants pour paralyser l'ensemble des communications du réseau. Cette thèse a pour but d'analyser la vulnérabilité de la synchronisation offerte par le mode TSCH. À cette fin, de nouvelles métriques de détection ont été proposées en se basant sur l'expression interne et locale de la machine d'état TSCH de chaque nœud dans le réseau, sans avoir besoin de communications supplémentaires, ni de captures ou d'analyse des traces des paquets. Ensuite, de nouvelles techniques d'autodétection et d'autodéfense embarquées dans chaque nœud ont été conçues et mises en œuvre. Ces techniques prennent en compte l'intelligence et la capacité d'apprentissage de l'attaquant, du nœud légitime et des interactions du réseau industriel en temps réel. Les résultats de ces expériences montrent que les mécanismes proposés sont résistants face aux les attaques de synchronisation
Time synchronization is a crucial requirement for the IEEE802.15.4e based Industrial Internet of Things (IIoT). It is provided by the application of the Time-Slotted Channel-Hopping (TSCH) mode of the IEEE802.15.4e. TSCH synchronization allows reaching low-power and high-reliability wireless networking. However, TSCH synchronization resources are an evident target for cyber-attacks. They can be manipulated by attackers to paralyze the whole network communications. In this thesis, we aim to provide a vulnerability analysis of the TSCH asset synchronization. We propose novel detection metrics based on the internal process of the TSCH state machine of every node without requiring any additional communications or capture or analysis of the packet traces. Then, we design and implement novel self-detection and self-defence techniques embedded in every node to take into account the intelligence and learning ability of the attacker, the legitimate node and the real-time industrial network interactions. The experiment results show that the proposed mechanisms can protect against synchronization attacks
APA, Harvard, Vancouver, ISO, and other styles
6

Chbib, Fadlallah. "Enhanced Cross Layer and Secure Architecture for Connected Vehicles." Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0038.

Full text
Abstract:
Les réseaux ad hoc de véhicules (VANET), sont déployés pour minimiser le risque d'accidents de la route et améliorer le confort des passagers. Cette thèse traite le problème de l'abandon et du retard des paquets dans les VANET en réduisant le temps d'échange des données et en améliorant le taux de livraison des paquets. Elle traite également la problématique de protection de l’architecture véhiculaire. D’abord, nous proposons une méthode pour éviter la congestion sur le canal de contrôle afin de garantir le transfert en temps réel et la fiabilité des messages de sécurité urgents. En outre, nous utilisons un réseau de neurones pour réduire le temps d'échange des données de sécurité. Deuxièmement, nous proposons deux protocoles de routage basés sur le rapport Signal/Interférence (SIR). Dans les deux protocoles, notre objectif est de maximiser le SIR global entre la source et la destination afin de sélectionner le chemin optimal. Dans le premier protocole, nous évaluons le niveau de SIR, tandis que dans le second, nous utilisons une chaîne de Markov pour prédire le niveau de SIR. Enfin, nous protégeons ces protocoles contre diverses attaques grâce à trois algorithmes anti-attaque. Dans le premier algorithme, nous créons une variable clé-valeur pour détecter la fabrication de l'adresse source au niveau du nœud intermédiaire. Dans le deuxième, nous créons un tampon et le vérifions périodiquement afin d'attraper le nœud malveillant dans le champ de destination. Enfin, le but du dernier algorithme est de découvrir l’attaque au niveau du SIR
Vehicular Ad hoc NETworks, known as VANETs, are deployed to minimize the risk of road accidents as well as to improve passengers comfort. This thesis deals with the problem of dropping and delaying packets in VANETs by reducing the time of exchanging data, improving the packet delivery ratio, as well as securing the vehicular architecture. First, we propose a novel method to avoid the congestion on the control channel in order to guarantee the real time transfer and the reliability of urgent safety messages. In addition, we extend the proposed method by using a neural network with various parameters such as priority of the message, sensitivity of road, type of vehicle and buffer state to reduce the time of exchanging safety data. Second, we propose two routing protocols based on signal to interference ratio (SIR). Our target in both is to maximize the overall SIR between source and destination with the aim to select the optimal path. In the first one, we evaluate the SIR level, while in the second, we use a Markov chain model to predict the SIR level. Finally, we protect these protocols from various attacks through three anti-attack algorithms. In the first algorithm, we create a key-value variable to detect the fabrication of the source address at the intermediate node. In the second one, we create a buffer and check it periodically in order to catch out the malicious node occurring at the destination field. In the last one, we discover the attack at the SIR level
APA, Harvard, Vancouver, ISO, and other styles
7

Ben, Saad Sabra. "Security architectures for network slice management for 5G and beyond." Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS023V2.pdf.

Full text
Abstract:
L'architecture de découpage du réseau en sous-réseaux "Network slicing", rendue possible grâce aux nouvelles technologies telles que la virtualisation des fonctions réseau (NFV) et le réseau défini par logiciel (SDN), est l'un des principaux piliers des réseaux 5G et au-delà (B5G). Dans les environnements de la cinquième génération et au-delà (B5G), on s'attend à une multiplication du nombre de sous-réseaux coexistant, plus ou moins complexes, avec des durées de vie, des besoins en ressources et des objectifs de performance très divers. Cela crée des défis importants pour la gestion et l'orchestration des sous-réseaux sans intervention humaine, y compris la sécurité, la gestion des pannes et la confiance. En outre, le découpage du réseau ouvre le marché à de nouvelles parties prenantes, à savoir le vertical ou le locataire, le fournisseur de tranches de réseau et le fournisseur d'infrastructure. Dans ce contexte, il est nécessaire d'assurer non seulement une interaction sécurisée entre ces acteurs, mais aussi que chaque acteur fournisse le service attendu pour répondre aux exigences des sous-réseaux. Il convient donc de concevoir de nouvelles architectures sécurisées capables d'identifier/détecter en temps réel les nouvelles formes d'attaques liées au découpage de réseaux en tranches, tout en gérant de manière sûre et automatique les accords de niveau de service (SLAs) entre les acteurs impliqués. Dans cette thèse, nous concevons une nouvelle architecture sécurisée adaptée aux réseaux prêts pour le "Network slicing" (réseaux de cinquième génération (5G) et au-delà), en nous appuyant fortement sur la blockchain et l'intelligence artificielle (IA) pour permettre une gestion sécurisée et fiable des sous-réseaux
Network slicing architecture, enabled by new technologies such as Network Functions Virtualization (NFV) and Software-Defined Networking (SDN), is one of the main pillars of Fifth-generation and Beyond (B5G). In B5G settings, the number of coexisting slices with varying degrees of complexity and very diverse lifespans, resource requirements, and performance targets is expected to explode. This creates significant challenges towards zero-touch slice management and orchestration, including security, fault management, and trust. In addition, network slicing opens the business market to new stakeholders, namely the vertical or tenant, the network slice provider, and the infrastructure provider. In this context, there is a need to ensure not only a secure interaction between these actors, but also that each actor delivers the expected service to meet the network slice requirements. Therefore, new trust architectures should be designed, which are able to identify/detect the new forms of slicing-related attacks in real-time, while securely and automatically managing Service Level Agreements (SLA) among the involved actors. In this thesis, we devise new security architectures tailored to network slicing ready networks (B5G), heavily relying on blockchain and Artificial Intelligence (AI) to enable secure and trust network slicing management
APA, Harvard, Vancouver, ISO, and other styles
8

Bertin, Bruno. "Système d'acquisition et de traitement des signaux pour la surveillance et le diagnostic de système complexe." Compiègne, 1986. http://www.theses.fr/1986COMPI241.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Picot, Marine. "Protecting Deep Learning Systems Against Attack : Enhancing Adversarial Robustness and Detection." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG017.

Full text
Abstract:
Au cours de la dernière décennie, l'apprentissage profond a été à l'origine de percées dans de nombreux domaines différents, tels que le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale. Cependant, il est désormais connu que les modèles basés sur l'apprentissage profond sont extrêmement sensibles aux perturbations, en particulier lorsque la perturbation est bien conçue et générée par un agent malveillant. Cette faiblesse des réseaux neuronaux profonds tend à empêcher leur utilisation dans des applications critiques, où des informations sensibles sont disponibles, ou lorsque le système interagit directement avec la vie quotidienne des gens. Dans cette thèse, nous nous concentrons sur la protection des réseaux neuronaux profonds contre les agents malveillants de deux manières principales. La première méthode vise à protéger un modèle des attaques en augmentant sa robustesse, c'est-à-dire la capacité du modèle à prédire la bonne classe même en cas d'attaques. Nous observons que la sortie d'un réseau neuronal profond forme une variété statistique et que la décision est prise sur cette variété. Nous exploitons cette connaissance en utilisant la mesure de Fisher-Rao, qui calcule la distance géodésique entre deux distributions de probabilité sur la variété statistique auquel elles appartiennent. Nous utilisons la mesure de Fisher-Rao pour régulariser la fonction coût utilisée lors de l'apprentissage et augmenter la robustesse du modèle. Nous adaptons ensuite cette méthode à une autre application critique : les réseaux intelligents (Smart Grids), qui, en raison de divers besoins de la surveillance et de service, reposent sur des composants cybernétiques, tels qu'un estimateur d'état, ce qui les rend sensibles aux attaques. Nous construisons donc des estimateurs d'état robustes en utilisant des autoencodeurs variationnels et l'extension de notre méthode proposée au cas de la régression. La deuxième méthode sur laquelle nous nous concentrons et qui vise à protéger les modèles basés sur l'apprentissage profond est la détection d'échantillons adverses. En ajoutant un détecteur au modèle, il est possible d'augmenter la fiabilité des décisions prises par les réseaux neuronaux profonds. De multiples méthodes de détection sont disponibles aujourd'hui, mais elles reposent souvent sur un entraînement lourd et des heuristiques ad-hoc. Dans notre travail, nous utilisons des outils statistiques simples appelés les profondeurs de données (data-depth) pour construire des méthodes de détection efficaces supervisées (c'est-à-dire que les attaques sont fournies pendant l'entraînement du détecteur) et non supervisées (c'est-à-dire que l'entraînement ne peut s'appuyer que sur des échantillons propres)
Over the last decade, Deep Learning has been the source of breakthroughs in many different fields, such as Natural Language Processing, Computer Vision, and Speech Recognition. However, Deep Learning-based models have now been recognized to be extremely sensitive to perturbations, especially when the perturbation is well-designed and generated by a malicious agent. This weakness of Deep Neural Networks tends to prevent their use in critical applications, where sensitive information is available, or when the system interacts directly with people's everyday life. In this thesis, we focus on protecting Deep Neural Networks against malicious agents in two main ways. The first method aims at protecting a model from attacks by increasing its robustness, i.e., the ability of the model to predict the right class even under threats. We observe that the output of a Deep Neural Network forms a statistical manifold and that the decision is taken on this manifold. We leverage this knowledge by using the Fisher-Rao measure, which computes the geodesic distance between two probability distributions on the statistical manifold to which they belong. We exploit the Fisher-Rao measure to regularize the training loss to increase the model robustness. We then adapt this method to another critical application: the Smart Grids, which, due to monitoring and various service needs, rely on cyber components, such as a state estimator, making them sensitive to attacks. We, therefore, build robust state estimators using Variational AutoEncoders and the extension of our proposed method to the regression case. The second method we focus on that intends to protect Deep-Learning-based models is the detection of adversarial samples. By augmenting the model with a detector, it is possible to increase the reliability of decisions made by Deep Neural Networks. Multiple detection methods are available nowadays but often rely on heavy training and ad-hoc heuristics. In our work, we make use of a simple statistical tool called the data-depth to build efficient supervised (i.e., attacks are provided during training) and unsupervised (i.e., training can only rely on clean samples) detection methods
APA, Harvard, Vancouver, ISO, and other styles
10

Ajayi, Idowu Iseoluwa. "Enhanced Physical Layer Security through Frequency and Spatial Diversity." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS227.

Full text
Abstract:
La sécurité de la couche physique (PLS) est un paradigme émergent qui se concentre sur l'utilisation des propriétés de la communication sans fil, telles que le bruit, l'évanouissement, la dispersion, l'interférence, la diversité, etc. pour assurer la sécurité entre les utilisateurs légitimes en présence d'un espion. Comme le PLS utilise des techniques de traitement du signal et de codage, il intervient au niveau de la couche physique et peut donc garantir le secret quelle que soit la puissance de calcul de l'espion. Cela en fait une approche intéressante pour compléter la cryptographie traditionnelle dont le principe de sécurité est basé sur la dureté informatique de l'algorithme de cryptage qui ne peut pas être facilement cassé par un espion. En outre, les récents progrès rapides des technologies de communication sans fil ont permis l'émergence et l'adoption de technologies telles que l'internet des objets, les communications ultra-fiables et à faible latence, les communications massives de type machine, les véhicules aériens sans pilote, etc. La plupart de ces technologies sont décentralisées, limitées en ressources de calcul et de puissance, et sensibles aux délais. La plupart de ces technologies sont décentralisées, limitées en ressources de calcul et de puissance, et sensibles aux délais. Cela fait du PLS une alternative très intéressante pour assurer la sécurité dans ces technologies. À cette fin, dans cette thèse, nous étudions les limites de la mise en œuvre pratique de la PLS et proposons des solutions pour relever ces défis. Tout d'abord, nous étudions le défi de l'efficacité énergétique de la PLS par l'injection de bruit artificiel (AN) dans un contexte massif d'entrées multiples et de sorties multiples (MIMO). La grande matrice de précodage dans le contexte MIMO massif contribue également à un signal d'émission avec un rapport élevé entre la puissance de crête et la puissance moyenne (PAPR). Cela nous a incités à proposer un nouvel algorithme, appelé PAPR-Aware-Secure-mMIMO. Dans ce schéma, les informations instantanées sur l'état du canal (CSI) sont utilisées pour concevoir un AN tenant compte du PAPR qui assure simultanément la sécurité tout en réduisant le PAPR. Ensuite, nous considérons le PLS par adaptation du canal. Ces schémas PLS dépendent de la précision de la CSI instantanée et sont inefficaces lorsque la CSI est imprécise. Toutefois, la CSI peut être inexacte dans la pratique en raison de facteurs tels qu'un retour d'information bruyant, une CSI périmée, etc. Pour résoudre ce problème, nous commençons par proposer un schéma PLS qui utilise le précodage et la diversité pour fournir le PLS. Nous proposons ensuite un réseau neuronal autoencodeur peu complexe pour débruiter la CSI imparfaite et obtenir des performances PLS optimales. Les modèles d'autoencodeur proposés sont appelés respectivement DenoiseSecNet et HybDenoiseSecNet. Enfin, nous étudions les performances de la PLS dans le cas d'une signalisation à alphabet fini. Les signaux gaussiens ont une grande complexité de détection parce qu'ils prennent un continuum de valeurs et ont des amplitudes non limitées. Dans la pratique, on utilise des entrées de canal discrètes parce qu'elles permettent de maintenir une puissance de transmission de crête et une complexité de réception modérées. Cependant, elles introduisent des contraintes qui affectent de manière significative la performance du PLS, d'où la contribution de cette thèse. Nous proposons d'utiliser des clés dynamiques pour partitionner les espaces de modulation de manière à ce qu'ils profitent à un récepteur légitime et non à un espion. Ces clés sont basées sur le canal principal indépendant et leur utilisation pour la partition conduit à des régions de décision plus grandes pour le récepteur prévu et plus petites pour l'espion. Ce système est appelé modulation partitionnée par index (IPM)
Physical layer security (PLS) is an emerging paradigm that focuses on using the properties of wireless communication, such as noise, fading, dispersion, interference, diversity, etc., to provide security between legitimate users in the presence of an eavesdropper. Since PLS uses signal processing and coding techniques, it takes place at the physical layer and hence can guarantee secrecy irrespective of the computational power of the eavesdropper. This makes it an interesting approach to complement legacy cryptography whose security premise is based on the computational hardness of the encryption algorithm that cannot be easily broken by an eavesdropper. The advancements in quantum computing has however shown that attackers have access to super computers and relying on only encryption will not be enough. In addition, the recent rapid advancement in wireless communication technologies has seen the emergence and adoption of technologies such as Internet of Things, Ultra-Reliable and Low Latency Communication, massive Machine-Type Communication, Unmanned Aerial Vehicles, etc. Most of these technologies are decentralized, limited in computational and power resources, and delay sensitive. This makes PLS a very interesting alternative to provide security in such technologies. To this end, in this thesis, we study the limitations to the practical implementation of PLS and propose solutions to address these challenges. First, we investigate the energy efficiency challenge of PLS by artificial noise (AN) injection in massive Multiple-Input Multiple-Output (MIMO) context. The large precoding matrix in massive MIMO also contributes to a transmit signal with high Peak-to-Average Power Ratio (PAPR). This motivated us to proposed a novel algorithm , referred to as PAPR-Aware-Secure-mMIMO. In this scheme, instantaneous Channel State Information (CSI) is used to design a PAPR-aware AN that simultaneously provides security while reducing the PAPR. This leads to energy efficient secure massive MIMO. The performance is measured in terms of secrecy capacity, Symbol Error Rate (SER), PAPR, and Secrecy Energy Efficiency (SEE). Next, we consider PLS by channel adaptation. These PLS schemes depend on the accuracy of the instantaneous CSI and are ineffective when the CSI is inaccurate. However, CSI could be inaccurate in practice due to such factors as noisy CSI feedback, outdated CSI, etc. To address this, we commence by proposing a PLS scheme that uses precoding and diversity to provide PLS. We then study the impact of imperfect CSI on the PLS performance and conclude with a proposal of a low-complexity autoencoder neural network to denoise the imperfect CSI and give optimal PLS performance. The proposed autoencoder models are referred to as DenoiseSecNet and HybDenoiseSecNet respectively. The performance is measured in terms of secrecy capacity and Bit Error Rate (BER). Finally, we study the performance of PLS under finite-alphabet signaling. Many works model performance assuming that the channel inputs are Gaussian distributed. However, Gaussian signals have high detection complexity because they take a continuum of values and have unbounded amplitudes. In practice, discrete channel inputs are used because they help to maintain moderate peak transmission power and receiver complexity. However, they introduce constraints that significantly affect PLS performance, hence, the related contribution in this thesis. We propose the use of dynamic keys to partition modulation spaces in such a way that it benefits a legitimate receiver and not the eavesdropper. This keys are based on the independent main channel and using them to partition leads to larger decision regions for the intended receiver but smaller ones for the Eavesdropper. The scheme is referred to as Index Partitioned Modulation (IPM). The performance is measured in terms of secrecy capacity, mutual information and BER
APA, Harvard, Vancouver, ISO, and other styles
11

Li, Chuanqi. "Caractérisation automatique et semi-automatique des discontinuités des piliers de roche dure." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALI045.

Full text
Abstract:
Le pilier de roche dure est une structure rocheuse unique qui joue un rôle toujours cEAssant dans le maintien de la stabilité de l'espace souterrain dans les mines de métaux. Cependant, des effondrements, des éclatements de roches, des éboulements locaux sur de vastes zones et d'autres catastrophes techniques défavorables sont fréquemment observés sur le pilier avec des informations de discontinuité inconnues. Les recherches sur la caractérisation des discontinuités pour améliorer la sécurité minière méritent donc d’être menées. D'autre part, avec la vulgarisation et l'application de l'intelligence artificielle dans le secteur minier, il est nécessaire de réaliser la caractérisation automatique des informations discontinues des piliers.Cette thèse vise à caractériser les discontinuités des piliers en roche dure par des méthodes automatiques ou semi-automatiques. Les codes des principaux algorithmes sont écrits respectivement dans les langages MATLAB, Python et C++. Tout d’abord, une technique de mesure sans contact appelée SfM basée sur la photogrammétrie est utilisée pour obtenir des informations sur les discontinuités représentées par des images. Ensuite, un modèle de pilier 3D est reconstruit pour exporter les données de nuages de points afin de détecter les ensembles de discontinuités et les plans correspondants et de calculer l'orientation des discontinuités à l'aide d'une méthode automatique. Ensuite, les données d'image sont adoptées pour établir des modèles d'apprentissage profond permettant d'extraire des traces de fracture. La squelettisation, la description quantitative et l'approximation sont utilisées pour quantifier la longueur de la trace, l'angle d'inclinaison, la densité et l'intensité. Enfin, l'espacement des traces de fracture est caractérisé à l'aide d'une méthode semi-automatique. Les traces de fracture extraites sont déconnectées à l'aide d'un algorithme de seuil d'angle et classées à l'aide d'un nouvel algorithme de regroupement. Trois indices d'espacement peuvent être calculés à l'aide de lignes de balayage définies par les utilisateurs. Le travail présenté étudie d’abord les paramètres discontinus des piliers en roche dure, fournissant ainsi des données réelles pour la conception des supports des piliers, l’évaluation de la stabilité et l’analyse de simulation de rupture
The hard rock pillar is a unique rock structure that plays an ever-increasing role in maintaining underground space stability in metal mines. However, collapse, rock burst, local large area caving, and other adverse engineering disasters are frequently observed on the pillar with unknown discontinuity information. Therefore, the research on the characterization of discontinuities to improve mining safety is worth carrying out. On the other hand, with the popularization and application of artificial intelligence in mining, it is necessary to realize the automatic characterization of pillar discontinuous information.This dissertation aims to characterize the discontinuities of hard rock pillars using automatic or semi-automatic methods. The codes of the main algorithms are written in MATLAB, Python, and C++ languages, respectively. First, a non-contact measurement technique named the photogrammetry-based SfM is utilized to obtain discontinuity information represented by images. Then, a 3D pillar model is reconstructed to export point cloud data for detecting discontinuity sets and the corresponding planes and calculating discontinuity orientation using an automatic method. Next, the image data is adopted to establish deep learning models for extracting fracture traces. The skeletonization, quantitative description, and approximation are used to quantify trace length, dip angle, density, and intensity. Finally, the fracture trace spacing is characterized using a semi-automatic method. The extracted fracture traces are disconnected using an angle threshold algorithm and classified using a novel grouping algorithm. Three spacing indices can be calculated using scanlines set by users. The presented work first investigates discontinuous parameters of hard rock pillars, thus it provides real data for pillars’ support design, stability evaluation, and failure simulation analysis
APA, Harvard, Vancouver, ISO, and other styles
12

Shahid, Mustafizur Rahman. "Deep learning for Internet of Things (IoT) network security." Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAS003.

Full text
Abstract:
L’internet des objets (IoT) introduit de nouveaux défis pour la sécurité des réseaux. La plupart des objets IoT sont vulnérables en raison d'un manque de sensibilisation à la sécurité des fabricants d'appareils et des utilisateurs. En conséquence, ces objets sont devenus des cibles privilégiées pour les développeurs de malware qui veulent les transformer en bots. Contrairement à un ordinateur de bureau, un objet IoT est conçu pour accomplir des tâches spécifiques. Son comportement réseau est donc très stable et prévisible, ce qui le rend bien adapté aux techniques d'analyse de données. Ainsi, la première partie de cette thèse tire profit des algorithmes de deep learning pour développer des outils de surveillance des réseaux IoT. Deux types d'outils sont explorés: les systèmes de reconnaissance de type d’objets IoT et les systèmes de détection d'intrusion réseau IoT. Pour la reconnaissance des types d’objets IoT, des algorithmes d'apprentissage supervisé sont entrainés pour classifier le trafic réseau et déterminer à quel objet IoT le trafic appartient. Le système de détection d'intrusion consiste en un ensemble d'autoencoders, chacun étant entrainé pour un type d’objet IoT différent. Les autoencoders apprennent le profil du comportement réseau légitime et détectent tout écart par rapport à celui-ci. Les résultats expérimentaux en utilisant des données réseau produites par une maison connectée montrent que les modèles proposés atteignent des performances élevées. Malgré des résultats préliminaires prometteurs, l’entraînement et l'évaluation des modèles basés sur le machine learning nécessitent une quantité importante de données réseau IoT. Or, très peu de jeux de données de trafic réseau IoT sont accessibles au public. Le déploiement physique de milliers d’objets IoT réels peut être très coûteux et peut poser problème quant au respect de la vie privée. Ainsi, dans la deuxième partie de cette thèse, nous proposons d'exploiter des GAN (Generative Adversarial Networks) pour générer des flux bidirectionnels qui ressemblent à ceux produits par un véritable objet IoT. Un flux bidirectionnel est représenté par la séquence des tailles de paquets ainsi que de la durée du flux. Par conséquent, en plus de générer des caractéristiques au niveau des paquets, tel que la taille de chaque paquet, notre générateur apprend implicitement à se conformer aux caractéristiques au niveau du flux, comme le nombre total de paquets et d'octets dans un flux ou sa durée totale. Des résultats expérimentaux utilisant des données produites par un haut-parleur intelligent montrent que notre méthode permet de générer des flux bidirectionnels synthétiques réalistes et de haute qualité
The growing Internet of Things (IoT) introduces new security challenges for network activity monitoring. Most IoT devices are vulnerable because of a lack of security awareness from device manufacturers and end users. As a consequence, they have become prime targets for malware developers who want to turn them into bots. Contrary to general-purpose devices, an IoT device is designed to perform very specific tasks. Hence, its networking behavior is very stable and predictable making it well suited for data analysis techniques. Therefore, the first part of this thesis focuses on leveraging recent advances in the field of deep learning to develop network monitoring tools for the IoT. Two types of network monitoring tools are explored: IoT device type recognition systems and IoT network Intrusion Detection Systems (NIDS). For IoT device type recognition, supervised machine learning algorithms are trained to perform network traffic classification and determine what IoT device the traffic belongs to. The IoT NIDS consists of a set of autoencoders, each trained for a different IoT device type. The autoencoders learn the legitimate networking behavior profile and detect any deviation from it. Experiments using network traffic data produced by a smart home show that the proposed models achieve high performance.Despite yielding promising results, training and testing machine learning based network monitoring systems requires tremendous amount of IoT network traffic data. But, very few IoT network traffic datasets are publicly available. Physically operating thousands of real IoT devices can be very costly and can rise privacy concerns. In the second part of this thesis, we propose to leverage Generative Adversarial Networks (GAN) to generate bidirectional flows that look like they were produced by a real IoT device. A bidirectional flow consists of the sequence of the sizes of individual packets along with a duration. Hence, in addition to generating packet-level features which are the sizes of individual packets, our developed generator implicitly learns to comply with flow-level characteristics, such as the total number of packets and bytes in a bidirectional flow or the total duration of the flow. Experimental results using data produced by a smart speaker show that our method allows us to generate high quality and realistic looking synthetic bidirectional flows
APA, Harvard, Vancouver, ISO, and other styles
13

Querrec, Ronan. "Les Systèmes Multi-Agents pour les Environnements Virtuels de Formation : Application à la sécurité civile." Brest, 2003. http://www.theses.fr/2002BRES2037.

Full text
Abstract:
Nos travaux concernent les environnements virtuels de formation pour l'apprentissage en situation opérationnelle. Nus soutenons la thèse que ces environnements sont des sytsèmes multi-agents hétérogènes et ouverts. Nous proposons le modèle MASCARET pour structurer les interactions entre les agents et pour fournir aux agents les capacités réactives, cognitives et sociales leur permettant de simuler l'environnement physique et social composant l'univers virtuel de formation. L'environnement physique simule de manière réaliste les phénomènes que les apprenants et les formateurs doivent prendre en compte. L'environnement social est simulé par des agents réalisant un travail collaboratif et adaptatif; ils effectuent, en équipe, des procédures qu'ils doivent adapter à l'environnement. Les utilisateurs participent à l'environnement de formation via leur avatar. Pour valider notre modèle, nous avons développé l'application SécuRéVi destinée à la formation des officiers sapeurs-pompiers
This study concerns virtual environments for training in operationnal conditions. The principal developed idea is that these environments are heterogeneous and open multiagent systems. The MASCARET model is proposed to organize the interactions between the agents and to give them reactives, cognitives ans socials abilities to simulate the physical and social environment. The physical environment represent, in a realistic way, the phenomena that the learners and the teachers have to take into account. The social environment is simulated by agents executing collaborative and adaptative tasks. They realize, in team, the procedures that they have to adapt to the environment. The users participate to the training environment throught their avatar. To validate our model, the SecuRevi application for fire-fighters training is developed
APA, Harvard, Vancouver, ISO, and other styles
14

Ghidalia, Sarah. "Etude sur les mesures d'évaluation de la cohérence entre connaissance et compréhension dans le domaine de l'intelligence artificielle." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCK001.

Full text
Abstract:
Cette thèse traite de la notion de cohérence au sein des systèmes intelligents. Son objectif principal est d'analyser comment la cohérence, en tant que concept, peut être comprise et évaluée dans le domaine de l'intelligence artificielle, en mettant particulièrement l'accent sur les connaissances préalables intégrées dans ces systèmes. Ce travail, financé dans le cadre du projet européen H2020 RESPONSE, repose sur le context applicatif de la Smart City où l'évaluation de la cohérence entre prédictions artificielles et réalités de terrain reste la condition préalable à toute initiative politique. Un examen minutieux de la cohérence en relation avec l'intelligence artificielle, ainsi qu'une exploration approfondie des connaissances préalables fait l'objet de ce travail. Pour cela une revue systématique de la littérature est réalisée pour cartographier le paysage actuel, mettant en lumière l'intersection et l'interaction entre l'apprentissage automatique et les ontologies, avec un focus particulier sur les techniques algorithmiques en usage. Notre analyse comparative positionne également notre recherche par rapport à des œuvres significatives dans le domaine. Une étude approfondie sur les différentes méthodes d'intégration des connaissances analyse comment la cohérence peut être évaluée en fonction des techniques d'apprentissage utilisées. La qualité globale des systèmes d'intelligence artificielle, avec un focus particulier sur l'évaluation de la cohérence, est également examinée. L'ensemble de cette étude est ensuite appliqué sur l'évaluation de la cohérence d'un modèle par rapport aux lois physiques représentées au sein d'ontologies. Deux études de cas, l'une sur la prédiction des mouvements d'un oscillateur harmonique et l'autre sur l'estimation de la durée de vie d'un matériau, sont présentées pour souligner l'importance des contraintes physiques dans l'évaluation de la cohérence. De plus, nous proposons une nouvelle méthode pour formaliser les connaissances dans une ontologie, en évaluant son efficacité. L'objectif de ce travail est d'apporter un nouvel éclairage sur l'évaluation des algorithmes d'apprentissage automatique, en proposant une méthode d'évaluation de la cohérence. Cette thèse aspire à être une contribution significative au domaine de l'intelligence artificielle, en mettant en lumière l'importance de la cohérence dans la construction de systèmes intelligents fiables et pertinents
This thesis investigates the concept of coherence within intelligent systems, aiming to assess how coherence can be understood and measured in artificial intelligence, with a particular focus on pre-existing knowledge embedded in these systems. This research is funded as part of the European H2020 RESPONSE project and is set in the context of smart cities, where assessing the consistency between AI predictions and real-world data is a fundamental prerequisite for policy initiatives. The main objective of this work is to examine consistency in the field of artificial intelligence meticulously and to conduct a thorough exploration of prior knowledge. To this end, we conduct a systematic literature review to map the current landscape, focusing on the convergence and interaction between machine learning and ontologies, and highlighting, in particular, the algorithmic techniques employed. In addition, our comparative analysis positions our research in the broader context of important work in the field.An in-depth study of different knowledge integration methods is undertaken to analyze how consistency can be assessed based on the learning techniques employed. The overall quality of artificial intelligence systems, with particular emphasis on consistency assessment, is also examined. The whole study is then applied to the coherence evaluation of models concerning the representation of physical laws in ontologies. We present two case studies, one on predicting the motion of a harmonic oscillator and the other on estimating the lifetime of materials, to highlight the importance of respecting physical constraints in consistency assessment. In addition, we propose a new method for formalizing knowledge within an ontology and evaluate its effectiveness. This research aims to provide new perspectives in the evaluation of machine learning algorithms by introducing a coherence evaluation method. This thesis aspires to make a substantial contribution to the field of artificial intelligence by highlighting the critical role of consistency in the development of reliable and relevant intelligent systems
APA, Harvard, Vancouver, ISO, and other styles
15

Ribas, Santos Eduardo. "Contribution au diagnostic qualitatif des procédés en intelligence artificielle." Vandoeuvre-les-Nancy, INPL, 1996. http://docnum.univ-lorraine.fr/public/INPL_T_1996_RIBAS_SANTOS_E.pdf.

Full text
Abstract:
L’objectif de la supervision des procédés est de surveiller le fonctionnement d'une unité afin d'assurer la réalisation des objectifs fixés, quels que soient les incidents et perturbations extérieures pouvant intervenir. Il est nécessaire d'avoir une vue générale afin d'être en mesure de réagir et de se focaliser sur les points clés. Dans cette thèse, nous proposons une modélisation de la connaissance du fonctionnement des procédés adaptée à la représentation généralement choisie par les spécialistes lors d'un problème donné: à l'aide d'un modèle complet du fonctionnement normal de l'unité, ils cherchent à trouver des fautes ou des combinaisons de fautes possibles. Les concepts proposés sont fondés sur une réflexion du processus d'acquisition de la connaissance qui permet au spécialiste de progresser dans l'analyse des activités en production. Ce processus inclut la formulation, à partir des modèles mathématiques contenant la description du comportement dynamique ou statique des systèmes, d'un modèle préliminaire, de telle manière qu'un spécialiste, pour améliorer ses connaissances, puisse s'appuyer sur celles composant un modèle crée par un autre spécialiste. Dans un premier temps, nous introduisons une méthodologie pour la définition des connaissances permettant au spécialiste (ou, en général, à un individu placé au sein d'une organisation industrielle) de mieux représenter formellement les descriptions de problèmes afin de reproduire ses raisonnements. Dans un deuxième temps, nous proposons une formulation pour la représentation de la connaissance et pour le diagnostic, ou la construction de la base de connaissances comprend des étapes résultant du processus d'acquisition de la connaissance qualitative. Les concepts sont illustrés par des procédés simples choisis dans le domaine du génie des procédés. Ainsi, le diagnostic qualitatif d'un réacteur idéal continu parfaitement agité est examiné en détail dans le cadre général précédemment étudié
APA, Harvard, Vancouver, ISO, and other styles
16

Shrivastwa, Ritu Ranjan. "Enhancements in Embedded Systems Security using Machine Learning." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT051.

Full text
Abstract:
La liste des appareils connectés (ou IoT) s’allonge avec le temps, de même que leur vulnérabilité face aux attaques ciblées provenant du réseau ou de l’accès physique, communément appelées attaques Cyber Physique (CPS). Alors que les capteurs visant à détecter les attaques, et les techniques d’obscurcissement existent pour contrecarrer et améliorer la sécurité, il est possible de contourner ces contre-mesures avec des équipements et des méthodologies d’attaque sophistiqués, comme le montre la littérature récente. De plus, la conception des systèmes intégrés est soumise aux contraintes de complexité et évolutivité, ce qui rend difficile l’adjonction d’un mécanisme de détection complexe contre les attaques CPS. Une solution pour améliorer la sécurité est d’utiliser l’Intelligence Artificielle (IA) (au niveau logiciel et matériel) pour surveiller le comportement des données en interne à partir de divers capteurs. L’approche IA permettrait d’analyser le comportement général du système à l’aide des capteurs , afin de détecter toute activité aberrante, et de proposer une réaction appropriée en cas d’attaque. L’intelligence artificielle dans le domaine de la sécurité matérielle n’est pas encore très utilisée en raison du comportement probabiliste. Ce travail vise à établir une preuve de concept visant à montrer l’efficacité de l’IA en matière de sécurité.Une partie de l’étude consiste à comparer et choisir différentes techniques d’apprentissage automatique (Machine Learning ML) et leurs cas d’utilisation dans la sécurité matérielle. Plusieurs études de cas seront considérées pour analyser finement l’intérêt et de l’ IA sur les systèmes intégrés. Les applications seront notamment l’utilisation des PUF (Physically Unclonable Function), la fusion de capteurs, les attaques par canal caché (SCA), la détection de chevaux de Troie, l’intégrité du flux de contrôle, etc
The list of connected devices (or IoT) is growing longer with time and so is the intense vulnerability to security of the devices against targeted attacks originating from network or physical penetration, popularly known as Cyber Physical Security (CPS) attacks. While security sensors and obfuscation techniques exist to counteract and enhance security, it is possible to fool these classical security countermeasures with sophisticated attack equipment and methodologies as shown in recent literature. Additionally, end node embedded systems design is bound by area and is required to be scalable, thus, making it difficult to adjoin complex sensing mechanism against cyberphysical attacks. The solution may lie in Artificial Intelligence (AI) security core (soft or hard) to monitor data behaviour internally from various components. Additionally the AI core can monitor the overall device behaviour, including attached sensors, to detect any outlier activity and provide a smart sensing approach to attacks. AI in hardware security domain is still not widely acceptable due to the probabilistic behaviour of the advanced deep learning techniques, there have been works showing practical implementations for the same. This work is targeted to establish a proof of concept and build trust of AI in security by detailed analysis of different Machine Learning (ML) techniques and their use cases in hardware security followed by a series of case studies to provide practical framework and guidelines to use AI in various embedded security fronts. Applications can be in PUFpredictability assessment, sensor fusion, Side Channel Attacks (SCA), Hardware Trojan detection, Control flow integrity, Adversarial AI, etc
APA, Harvard, Vancouver, ISO, and other styles
17

Fenet, Serge. "Vers un paradigme de programmation pour les applications distribuées basé sur le comportement des insectes sociaux : application à la sécurité des réseaux." Lyon 1, 2001. http://www.theses.fr/2001LYO10261.

Full text
Abstract:
Les travaux présentés dans cette thèse se positionnent dans la perspective de la création de futures applications orientées réseau. Nous nous orientons vers un paradigme de programmation d'applications distribuées dans lequel les systèmes informatiques seraient conçus comme de vrais écosystèmes. Les applications distribuées seraient alors vues comme des populations d'agents mobiles vivant et évoluant sur le réseau et dont les fonctionnalités seraient des caractéristiques émergentes. Nous proposons dans cette thèse une architecture générique à base d'agents mobiles se basant sur les mécanismes de communication des insectes sociaux et pouvant se dédier à des tâches de contrôle des réseaux, de routage ou de protection. Elle est basée sur une approche émergente et s'adapte aux constants changements imposés par l'évolution des conditions de fonctionnement du réseau. Elle utilise plusieurs populations d'agents mobiles qui, comme les agents naturels tels que les insectes sociaux, sont individuellement peu sophistiqués et intègrent une part d'aléatoire. Toutefois, leur comportement collectif, issu de l'interaction d'un grand nombre d'individus les uns avec les autres et avec leur environnement, est complexe et tend de façon émergente vers un optimum sans faire appel à un contrôle central. Ils évoluent au sein d'un réseau de machines et interagissent avec un mécanisme supportant la prise en compte spatio-temporelle de critères multiples incarnés en des champs dynamiques. Leur déplacement au sein de ces champs leur permet de se rendre sur une position géographique qui satisfasse les critères modélisés. Une grande partie de nos travaux se concentre sur la détection d'intrusion au sein de réseaux locaux.
APA, Harvard, Vancouver, ISO, and other styles
18

Bonte, Mathieu. "Influence du comportement de l'occupant sur la performance énergétique du bâtiment : modélisation par intelligence artificielle et mesures in situ." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2495/.

Full text
Abstract:
Dans le contexte de crise énergétique actuel, les concepteurs de bâtiments tentent de concevoir des habitats très performants d'un point de vue énergétique. Toutefois, de plus en plus de retours d'expérience montrent que les performances énergétiques réelles sont très différentes de celles prévues à l'origine lors des calculs de conception. Une des raisons principales avancées par la communauté scientifique est la mauvaise ou la non prise en compte du rôle actif des occupants. Les travaux présentés ici ont pour objectif de caractériser le comportement de l'occupant et son influence sur la performance énergétique. Différentes méthodologies sont utilisées : le plan d'expériences, une étude expérimentale in situ et la modélisation du comportement par intelligence artificielle dans le logiciel TRNSys
Building sector plays a major role in global warming. In France, it is responsible of about 40% of energy consumption et about 33% of carbon emissions. In this context, building designers try to improve building energy performance. To do so, they often use building energy modeling (BEM) software to predict future energy use. For several years now, researchers have observed a difference between actual and predicted energy performance. Some reasons are pointed out such as uncertainties on physical properties of building materials and lack of precision of fluid dynamics models. One of the main causes could come from bad assessments in the modeling of occupant behavior. Occupant is often considered as passive in building simulation hypothesis. However, numerous of papers show that he act on the building he is in, and on personal characteristics. The work presented here intend to characterize occupant behavior and its influence on energy use. In the first part of the manuscript we assess the individual impact of several actions using design of experiments (DOE) methodology. Actions like operations on windows, blind or thermostat are investigated separately. We show that two opposite extreme behaviors (economic and wasteful) could lead to significant difference in building energy use. Moreover, a factor two-to-one in total energy use is observed between passive and active behaviors. In the second part we focused on an experimental approach. Thermal and visual environment of 4 offices have been monitored during a year and online questionnaires about comfort and behavior have been submitted to office occupants. Tank to a statistical analysis we estimates probabilities of acting on windows, blinds and clothing insulation against physical variables or thermal sensation. Final part of the thesis deals with the development of an occupant behavior model called OASys (Occupant Actions System) and running under TRNSys software. The model is based on an artificial intelligence algorithm and is intended to predict occupant interactions with thermostat, clothing insulation, windows, blinds and lighting system based on thermal and visual sensation. Results from OASys are compared to results from literature through various case studies for partial validation. They also confirm the significant impact of occupant behavior on building energy performance
APA, Harvard, Vancouver, ISO, and other styles
19

Luang, Aphay Jean Siri. "Quelle confiance pour améliorer la sécurité du système d'information ? Contribution à une modélisation de la sécurité des systèmes d'information socio-techniques." Compiègne, 2004. http://www.theses.fr/2004COMP1527.

Full text
Abstract:
La sécurité des systèmes d'information repose sur d'importants moyens techniques dont l'insertion organisationnelle et sociale est souvent renvoyée à la sensibilisation. Nos enquêtes montrent que l'apprentissage de la sécurité s'insère dans un apprentissage stratégique global situé. La pratique de la sécurité s'indexe à un système de contraintes, d'objectifs individuels et collectifs parfois divergents et d'intentions. Au regard des priorités que se construit l'individu, la sécurité prend un poids variable susceptible d'être négocié à chaque instant. La sécurité est donc un apprentissage des aménagements qu'opèrent les acteurs et les menaces autour de la forme apparente mais non exclusive qu'est l'organisation. Le pilotage de la sécurité suppose la construction permanente d'une représentation des régulations de ce système complexe. Ce travail de construction nécessite d'investir les marges d'appropriation locales par la confiance pour de mettre à profit la richesse de l'entreprise
Information security rests on important technical means whose organisational and social insertion is often retumed to the steps of sensitising. Our investigations show that the training of safety forms part of a strategie global training and located. The practice of safety is indexed with a system of constraints, individual and collective objectives sometimes divergent and intentions. Ln comparison with the priorities that the individual builds itself, safety thus takes a variable weight likely to be negotiated at every moment. Safety is thus not a process but a training of installations which the actors and the threats around the apparent but nonexclusive form operate which is the organization. The piloting of safety supposes permanent construction and update of a representation of the regulations of the complex information system. This building work requires to invest the local margins of appropriation by confidence, thus making it possible to make profitable the company richness
APA, Harvard, Vancouver, ISO, and other styles
20

Yaich, Mohamed Reda. "Adaptiveness and Social-Compliance in Trust Management - A Multi-Agent Based approach." Thesis, Saint-Etienne, EMSE, 2013. http://www.theses.fr/2013EMSE0717/document.

Full text
Abstract:
Les communautés virtuelles sont des systèmes sociotechniques dans lesquels des entités (humaines et/ou artificielles) répartis à travers le monde se réunissent autour d’intérêts et/ou d’objectifs communs. Afin de réaliser ces objectifs, les membres de la communauté doivent collaborer en partageant leurs ressources et/ou connaissances. Or, toute collaboration comporte une part de risque dans la mesure où les membres peuvent se comporter de manière non coopérative ou malveillante. Dans de tels contextes, où les mécanismes de sécurité standard ne suffissent plus, la confiance est rapidement devenue un facteur déterminant lors de la prise de décision. Le travail présenté dans cette thèse s’attaque à la problématique de la gestion de la confiance dans les communautés virtuelles ouvertes et décentralisées. Pour cela, nous avons proposé une infrastructure de gestion de la confiance adaptative et conforme socialement (ASC-TMS). L’aspect novateur de ce système réside dans sa faculté à exhiber des propriétés sociales et adaptatives. L’aspect social du ASC-TMS fait référence à la capacité de notre système à prendre des décisions qui soient sûres non seulement pour l’individu mais également et surtout pour les autres membres de la communauté. Par ailleurs, l’aspect adaptatif du système fait référence à la capacité du système à prendre des décisions qui soient en parfaite adéquation avec l’environnement dans lequel ces décisions sont prises. Ainsi, cette thèse constitue une nouvelle étape vers l’automatisation de l’évaluation de la confiance en assistant les membres des communautés virtuelles ouvertes et décentralisées dans leur prise de décision. Le système a été implémenté et déployé en utilisant la plateforme de développement multi-agent JaCaMo. Nous avons également illustré l’applicabilité de notre approche sur un scénario réel de communauté virtuelle d’innovation ouverte. Enfin, nous avons évalué notre système expérimentalement en utilisant la plateforme de simulation multi-agent Repast. Les résultats obtenus montrent que l’utilisation de notre système avait un impact positif sur la dynamique des communautés dans lesquels il est a été utilisé
Virtual communities (VCs) are socio-technical systems wherein distributed individuals (human and/or artificial) are grouped together around common objectives and goals. In such systems, participants are massively collaborating with each other’s by sharing their private resources and knowledge. A collaboration always bears the risk that one partner exhibits uncooperative or malicious behaviour. Thus, trust is a critical issue for the success of such systems. The work presented in this dissertation addresses the problem of trust management in open and decentralised virtual communities (VCs). To address this problem, we proposed an Adaptive and Socially-Compliant Trust Management System (ASC-TMS). The novelty of ASC-TMS lies in its ability to exhibit social-awareness and context-awareness features. Social-awareness refers to the ability of the trust management system (TMS) to handle the social nature of VCs by making trust evaluations that are collectively harmful, while context-awareness refers to the ability of the system to handle the dynamic nature of VCs by making trust evaluations that are always in adequacy with the context in which these evaluations are undertaken. Thus, the contributions made in this thesis constitute an additional step towards the automation of trust assessment. We provided accordingly a novel trust management system that assists members of open and decentralised virtual communities in their trust decisions. The system has been implemented and deployed using the JaCaMo multi-agent platform. We illustrated also the applicability of on a real life open innovation virtual community scenario. Finally, the ASC-TMS has been experimentally evaluated using the multi-agent based Repast simulation platform. The preliminary results show that the use of our system significantly improves the stability of the virtual communities in which it has been deployed
APA, Harvard, Vancouver, ISO, and other styles
21

Morissette, Jean-François. "Algorithmes de gestion de ressources en temps-réel : positionnement et planification lors d'attaques aériennes." Thesis, Université Laval, 2004. http://www.theses.ulaval.ca/2004/22184/22184.pdf.

Full text
Abstract:
Depuis plusieurs années, Recherche et D´eveloppement pour la Défense Canada (RDDC) et Lockheed Martin Canada (LMC) travaillent en collaboration afin de moderniser le système de Commande et Contrôle (C2) présent sur une frégate. Un tel système a pour but d’analyser et de gérer un flot d’informations considérable afin d’effectuer les bonnes actions face à une situation donnée. Notre rôle au sein de ce projet se situe au niveau de la prise de décision. Nous devons étudier les possibilités que peut offrir la technologie agent à un tel système. Dans ce mémoire, nous proposons un mod`ele formel d’interaction entre les différentes ressources disponibles sur la frégate et les menaces auxquelles elle doit faire face. Nous proposons aussi une technique de positionnement et une approche de planification afin de maximiser les chances de survie de la frégate. Enfin, nous présentons les résultats que nous avons obtenus au moyen de simulations.
APA, Harvard, Vancouver, ISO, and other styles
22

Kaplan, Caelin. "Compromis inhérents à l'apprentissage automatique préservant la confidentialité." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4045.

Full text
Abstract:
À mesure que les modèles d'apprentissage automatique (ML) sont de plus en plus intégrés dans un large éventail d'applications, il devient plus important que jamais de garantir la confidentialité des données des individus. Cependant, les techniques actuelles entraînent souvent une perte d'utilité et peuvent affecter des facteurs comme l'équité et l'interprétabilité. Cette thèse vise à approfondir la compréhension des compromis dans trois techniques de ML respectueuses de la vie privée : la confidentialité différentielle, les défenses empiriques, et l'apprentissage fédéré, et à proposer des méthodes qui améliorent leur efficacité tout en maintenant la protection de la vie privée. La première étude examine l'impact de la confidentialité différentielle sur l'équité entre les groupes définis par des attributs sensibles. Alors que certaines hypothèses précédentes suggéraient que la confidentialité différentielle pourrait exacerber l'injustice dans les modèles ML, nos expériences montrent que la sélection d'une architecture de modèle optimale et le réglage des hyperparamètres pour DP-SGD (Descente de Gradient Stochastique Différentiellement Privée) peuvent atténuer les disparités d'équité. En utilisant des ensembles de données standards dans la littérature sur l'équité du ML, nous montrons que les disparités entre les groupes pour les métriques telles que la parité démographique, l'égalité des chances et la parité prédictive sont souvent réduites ou négligeables par rapport aux modèles non privés. La deuxième étude se concentre sur les défenses empiriques de la vie privée, qui visent à protéger les données d'entraînement tout en minimisant la perte d'utilité. La plupart des défenses existantes supposent l'accès à des données de référence — un ensemble de données supplémentaire provenant de la même distribution (ou similaire) que les données d'entraînement. Cependant, les travaux antérieurs n'ont que rarement évalué les risques de confidentialité associés aux données de référence. Pour y remédier, nous avons réalisé la première analyse complète de la confidentialité des données de référence dans les défenses empiriques. Nous avons proposé une méthode de défense de référence, la minimisation du risque empirique pondéré (WERM), qui permet de mieux comprendre les compromis entre l'utilité du modèle, la confidentialité des données d'entraînement et celle des données de référence. En plus d'offrir des garanties théoriques, WERM surpasse régulièrement les défenses empiriques de pointe dans presque tous les régimes de confidentialité relatifs. La troisième étude aborde les compromis liés à la convergence dans les systèmes d'inférence collaborative (CIS), de plus en plus utilisés dans l'Internet des objets (IoT) pour permettre aux nœuds plus petits de décharger une partie de leurs tâches d'inférence vers des nœuds plus puissants. Alors que l'apprentissage fédéré (FL) est souvent utilisé pour entraîner conjointement les modèles dans ces systèmes, les méthodes traditionnelles ont négligé la dynamique opérationnelle, comme l'hétérogénéité des taux de service entre les nœuds. Nous proposons une approche FL novatrice, spécialement conçue pour les CIS, qui prend en compte les taux de service variables et la disponibilité inégale des données. Notre cadre offre des garanties théoriques et surpasse systématiquement les algorithmes de pointe, en particulier dans les scénarios où les appareils finaux gèrent des taux de requêtes d'inférence élevés. En conclusion, cette thèse contribue à l'amélioration des techniques de ML respectueuses de la vie privée en analysant les compromis entre confidentialité, utilité et autres facteurs. Les méthodes proposées offrent des solutions pratiques pour intégrer ces techniques dans des applications réelles, en assurant une meilleure protection des données personnelles
As machine learning (ML) models are increasingly integrated into a wide range of applications, ensuring the privacy of individuals' data is becoming more important than ever. However, privacy-preserving ML techniques often result in reduced task-specific utility and may negatively impact other essential factors like fairness, robustness, and interpretability. These challenges have limited the widespread adoption of privacy-preserving methods. This thesis aims to address these challenges through two primary goals: (1) to deepen the understanding of key trade-offs in three privacy-preserving ML techniques—differential privacy, empirical privacy defenses, and federated learning; (2) to propose novel methods and algorithms that improve utility and effectiveness while maintaining privacy protections. The first study in this thesis investigates how differential privacy impacts fairness across groups defined by sensitive attributes. While previous assumptions suggested that differential privacy could exacerbate unfairness in ML models, our experiments demonstrate that selecting an optimal model architecture and tuning hyperparameters for DP-SGD (Differentially Private Stochastic Gradient Descent) can mitigate fairness disparities. Using standard ML fairness datasets, we show that group disparities in metrics like demographic parity, equalized odds, and predictive parity are often reduced or remain negligible when compared to non-private baselines, challenging the prevailing notion that differential privacy worsens fairness for underrepresented groups. The second study focuses on empirical privacy defenses, which aim to protect training data privacy while minimizing utility loss. Most existing defenses assume access to reference data---an additional dataset from the same or a similar distribution as the training data. However, previous works have largely neglected to evaluate the privacy risks associated with reference data. To address this, we conducted the first comprehensive analysis of reference data privacy in empirical defenses. We proposed a baseline defense method, Weighted Empirical Risk Minimization (WERM), which allows for a clearer understanding of the trade-offs between model utility, training data privacy, and reference data privacy. In addition to offering theoretical guarantees on model utility and the relative privacy of training and reference data, WERM consistently outperforms state-of-the-art empirical privacy defenses in nearly all relative privacy regimes.The third study addresses the convergence-related trade-offs in Collaborative Inference Systems (CISs), which are increasingly used in the Internet of Things (IoT) to enable smaller nodes in a network to offload part of their inference tasks to more powerful nodes. While Federated Learning (FL) is often used to jointly train models within CISs, traditional methods have overlooked the operational dynamics of these systems, such as heterogeneity in serving rates across nodes. We propose a novel FL approach explicitly designed for CISs, which accounts for varying serving rates and uneven data availability. Our framework provides theoretical guarantees and consistently outperforms state-of-the-art algorithms, particularly in scenarios where end devices handle high inference request rates.In conclusion, this thesis advances the field of privacy-preserving ML by addressing key trade-offs in differential privacy, empirical privacy defenses, and federated learning. The proposed methods provide new insights into balancing privacy with utility and other critical factors, offering practical solutions for integrating privacy-preserving techniques into real-world applications. These contributions aim to support the responsible and ethical deployment of AI technologies that prioritize data privacy and protection
APA, Harvard, Vancouver, ISO, and other styles
23

Es-Saidi, Soukaina. "Optimisation de la réponse optique de réseaux diffractifs métalliques appliqués à la sécurité des documents." Thesis, Troyes, 2020. http://www.theses.fr/2020TROY0016.

Full text
Abstract:
Les hologrammes de sécurité composés de structures sub-diffractives se développent à la croisée des besoins de protection des documents sensibles et de l'avènement des technologies modernes de reprographie servant la falsification grand public. L’objectif de ce travail est de concevoir des dispositifs de sécurité dont les effets visuels, basés sur la génération de couleurs structurales, soient facilement authentifiables, difficiles à contrefaire et compatibles avec la production de films holographiques. Nous étudions la réponse plasmonique de réseaux métalliques dissymétriques uni et bi-dimensionnels, fabriqués par lithographie interférentielle et transposés à grande échelle sur film polymère par des procédés de réplication roll-to-roll. L’analyse approfondie des mécanismes résonants observés dans les réseaux hybrides métal-diélectrique ouvre des perspectives nouvelles de conception et d’amélioration de la qualité des couleurs perçues. Les résultats montrent que l'utilisation de processus d'optimisation modernes, avant la fabrication, constitue une approche efficace permettant d'adapter et d'optimiser la réponse résonante des réseaux de diffraction. Nous démontrons que l’approche multi-objectifs surpasse les stratégies mono-objectif ouvrant la possibilité d'augmenter la complexité des structures employées pour la reproduction des couleurs. Enfin, nous montrons que le recours à des outils d’intelligence artificielle constitue une alternative efficace aux méthodes électromagnétiques traditionnelles
Security holograms based on sub-wavelength gratings (SWGs) are increasingly used not only to protect sensitive documents, but also to combat against the reprographic technologies used in counterfeiting.The aim of the present work is to design optical security devices to produce visual and chromatic effects, based on the generation of structural colors, easily recognizable but difficult to counterfeit and compatible with high-tech foil production. To this end, we study the optical response of one and two-dimensional asymmetric SWGs fabricated by laser interferometric lithography and scaled up to larger scales on polymer film using roll-to-roll replication processes. The in-depth physical analysis of the resonance mechanisms generated by metallic and hybrid metal-dielectric SWGs allows to understand and tailor their chromatic response. We also demonstrate that hybrid SWGs open new design perspectives and enhance the quality of the perceived colors. The research evidence presented in this contribution clearly shows that the use of modern optimization tools, prior to fabrication, provides an efficient way to tailor and to optimize the resonant response of diffraction gratings. We demonstrate that the multi-objective approach outperforms single-objective strategies and opens the possibility of increasing the complexity of the diffractive structures used for color reproduction. We emphasize that Artificial Intelligence tools constitute an efficient alternative to the traditional time-consuming electromagnetic methods
APA, Harvard, Vancouver, ISO, and other styles
24

Khatoun, Rida. "Système multi-agents et architecture pair à pair pour la détection d'attaques de déni de service distribuées." Troyes, 2008. http://www.theses.fr/2008TROY0015.

Full text
Abstract:
Le réseau Internet est devenu, d'une manière incontournable, le support de tout type de services en réseaux. Ces mêmes services sont de plus en plus nombreux, interagissent et ainsi introduisent une dimension de complexité de plus en plus importante. A cela s'ajoute les vulnérabilités dues à leur implantation. En effet, tout cela favorise des convoitises et attaques de plus en plus nombreuses. Dans ce contexte, les attaques de déni de service sont parmi les plus courantes et relativement faciles à mettre en œuvre. Ces attaques sont menées par plusieurs équipements simultanément et qui travaillent de manière coopérative. Ce type d'attaques a des conséquences économiques importantes par ses effets. De nombreuses solutions ont été proposées pour résoudre le problème, mais elles sont toujours incomplètes pour des raisons économiques, techniques et de coopération entre les différents acteurs de l'Internet. Notre objectif dans ce contexte est de répondre par une solution basée sur une architecture distribuée d'agents coopératifs pour effectuer la détection d'intrusion. Les agents sont associés aux routeurs de bordure de l'opérateur et la détection d'attaques se réalise en mettant en coopération les connaissances de ces agents. Pour un routage efficace d'informations entre les agents nous avons adopté une architecture de type pair à pair. Cette solution a été validée par une réalisation concrète intégrant dans nos agents intelligents les sondes Snort bien connues et en utilisant Pastry comme protocole pair à pair pour le routage d'information entre les agents
The Internet has ultimately become, the support for all types of network services which are numerously increasing, interacting and thereby introducing an important dimension of complexity. In addition, they introduce vulnerabilities due to their location and implementation. Indeed, it promotes more covetousness and attacks. In this context, denial of service attacks are among the most popular ones and they are relatively easy to implement. Attack streams are simultaneously generated from several attack machines that are spread all over the Internet and, therefore, making cooperation among a large number of equipment. Such attacks have important economic consequences due to their effects. Many solutions have been proposed to solve this problem, but they are still incomplete because of economical and technical reasons and also for cooperation between different operators of the Internet. Our objective, in this context, is to respond by a solution that is based a distributed architecture of cooperative agents in order to detect intrusions and attacks. The agents are implemented on all the edge routers in an ISP domain. The attack detection is carried out by sharing agents' knowledge about traffic. For an efficient routing algorithm among agents we used a peer-to-peer architecture. This solution has been validated concretely over a real network, integrating the well-known Snort sensor in our intelligent agents and using Pastry as a peer-to-peer protocol for routing information among agents
APA, Harvard, Vancouver, ISO, and other styles
25

Aimé, Xavier. "Gradients de prototypicalité, mesures de similarité et de proximité sémantique : une contribution à l'Ingénierie des Ontologies." Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00660916.

Full text
Abstract:
En psychologie cognitive, la notion de prototype apparaît de manière centrale dans les représentations conceptuelles. Dans le cadre de nos travaux, nous proposons d'introduire cette notion au sein des activités relevant de l'Ingénierie des Ontologies et de ses modèles de représentation. L'approche sémiotique que nous avons développée est fondée sur les trois dimensions d'une conceptualisation que sont l'intension (les propriétés), l'expression (les termes), et l'extension (les instances). Elle intègre, en sus de l'ontologie, des connaissances supplémentaires propres à l'utilisateur (pondération des propriétés, corpus, instances). Pratiquement, il s'agit de pondérer les liens "is-a", les termes et les instances d'une hiérarchie de concepts, au moyen de gradients de prototypicalité respectivement conceptuelle, lexicale et extensionnelle. Notre approche a été mise en oeuvre dans un système industriel de gestion documentaire et de recherche d'information pour la société Tennaxia - société de veille juridique dans le domaine de l'Environnement. Elle a conduit au développement d'une ontologie du domaine Hygiène-Sécurité-Environnement, et de deux applications logicielles : l'application TooPrag dédiée au calcul des différents gradients de prototypicalité, et le moteur de Recherche d'Information sémantique Theseus qui exploite les gradients de prototypicalité. Nous avons enfin étendu notre approche à la définition de deux nouvelles mesures sémantiques, en nous inspirant des lois de similarité et de proximité de la théorie de la perception : Semiosem, une mesure de similarité, et Proxem, une mesure de proximité.
APA, Harvard, Vancouver, ISO, and other styles
26

Mkhida, Abdelhak. "Contribution à l'évaluation de la sûreté de fonctionnement des Systèmes Instrumentés de Sécurité à Intelligence Distribuée." Electronic Thesis or Diss., Vandoeuvre-les-Nancy, INPL, 2008. http://www.theses.fr/2008INPL083N.

Full text
Abstract:
L’incorporation des instruments intelligents dans les boucles de sécurité nous mène vers une sécurité intelligente et les systèmes deviennent des « systèmes instrumentés de sécurité à intelligence distribuée (SISID) ». La justification de l’usage de ces instruments dans les applications de sécurité n’est pas complètement avérée. L’évaluation de la sûreté de fonctionnement de ce type de systèmes n’est pas triviale. Dans ce travail, la modélisation et l'évaluation des performances relatives à la sûreté de fonctionnement des systèmes instrumentés de sécurité (SIS) sont traitées pour des structures intégrant de l’intelligence dans les instruments de terrain. La méthodologie que nous utilisons consiste en la modélisation de l’aspect fonctionnel et dysfonctionnel de ces systèmes en adoptant le formalisme basé sur les réseaux de Petri stochastiques qui assurent la représentation du comportement dynamique de ce type de systèmes. La modélisation est traitée sous la forme d’une approche stochastique utilisant les réseaux d’activité stochastiques SAN (Stochastic Activity Network). L’introduction d’indicateurs de performances permet de mettre en évidence l’effet de l’intégration des niveaux d’intelligence dans les applications de sécurité. La méthode de Monte Carlo est utilisée pour évaluer les paramètres de sûreté de fonctionnement des SIS en conformité avec les normes de sécurité relatives aux systèmes instrumentés de sécurité (CEI 61508 et CEI 61511). Nous avons proposé une méthode et les outils associés pour approcher cette évaluation par simulation et ainsi apporter une aide à la conception des systèmes instrumentés de sécurité (SIS) intégrant quelques fonctionnalités des instruments intelligents
The incorporation of intelligent instruments in safety loops leads towards the concept of intelligent safety and the systems become “Intelligent Distributed Safety Instrumented Systems (IDSIS)”. The justification for using these instruments in safety applications is not fully proven and the dependability evaluation of such systems is a difficult task. Achieved work in this thesis deals with modelling and thus the performance evaluation relating to the dependability for structures which have intelligence in the instruments constituting the Safety Instrumented Systems (SIS). In the modelling of the system, the functional and dysfunctional aspects coexist and the dynamic approach using the Stochastic Activity Network (SAN) is proposed to overcome the difficulties mentioned above. The introduction of performance indicators highlight the effect of the integration of intelligence levels in safety applications. Monte-Carlo method is used to assess the dependability parameters in compliance with safety standards related to SIS (IEC 61508 & IEC 61511). We have proposed a method and associated tools to approach this evaluation by simulation and thus provide assistance in designing Safety Instrumented Systems (SIS) integrating some features of intelligent tools
APA, Harvard, Vancouver, ISO, and other styles
27

Dandrieux, Jean-Pierre. "Contributions à l'analyse de la complexité de problèmes de résolution de contraintes." Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-210.pdf.

Full text
Abstract:
Tout d'abord par une etude theorique du phenomene de seuil dans 3sat, une categorie du probleme de satisfaction de contraintes booleennes, sous forme normale conjonctive (cnf), avec exactement 3 variables par clauses. Soit g le rapport entre le nombre de clauses et le nombre de variables, experimentallement on a decouvert un seuil brutal pour g appele g 0 (= 4. 25), tel que, quand le nombre de variables tend vers l'infini, la proportion des expressions satisfiables s'effondre de 1 a 0 quand g passe d'inferieur a superieur a g 0. Peu de proprietes relatives au seuil sont prouvees. Son existence meme reste a etablir. De plus 3sat semble np dur en moyenne seulement au seuil, l'analyse de l'algorithme de davis-puttnam montrant que le probleme est polynomial en moyenne. Apres avoir ameliore (de 4. 60 a 4. 58) la valeur du plus petit majorant existant pour g 0, nous montrons que les techniques utilisees ne permettraient plus d'ameliorations significatives. Ensuite, chez detexis service contre-mesures, par l'etude d'un probleme de resolution de contraintes booleennes : l'identification de menaces en territoire inconnu, un probleme d'optimisation multifactorielle, np-complet pour plusieurs parametres. Il illustre les difficultes de l'informatique, a exprimer un probleme, a le modeliser convenablement puis a le resoudre en un temps raisonnable. Description du probleme : il s'agit, a partir de donnees electromagnetiques recues et d'une base de donnees des signatures electromagnetiques des appareils connus, de reconstituer l'environnement et d'anticiper les actions des appareils reconnus. Ici la pratique est souvent pragmatique (utilisation de coefficients de confiance). Nous y avons esquisse une approche probabiliste. En particulier, dans un cas simple, nous montrons comment cette approche permet de substituer a des calculs exhaustifs durs un calcul des solutions les plus dangereuses base sur des methodes formelles.
APA, Harvard, Vancouver, ISO, and other styles
28

Mkhida, Abdelhak. "Contribution à l'évaluation de la sûreté de fonctionnement des Systèmes Instrumentés de Sécurité à Intelligence Distribuée." Thesis, Vandoeuvre-les-Nancy, INPL, 2008. http://www.theses.fr/2008INPL083N/document.

Full text
Abstract:
L’incorporation des instruments intelligents dans les boucles de sécurité nous mène vers une sécurité intelligente et les systèmes deviennent des « systèmes instrumentés de sécurité à intelligence distribuée (SISID) ». La justification de l’usage de ces instruments dans les applications de sécurité n’est pas complètement avérée. L’évaluation de la sûreté de fonctionnement de ce type de systèmes n’est pas triviale. Dans ce travail, la modélisation et l'évaluation des performances relatives à la sûreté de fonctionnement des systèmes instrumentés de sécurité (SIS) sont traitées pour des structures intégrant de l’intelligence dans les instruments de terrain. La méthodologie que nous utilisons consiste en la modélisation de l’aspect fonctionnel et dysfonctionnel de ces systèmes en adoptant le formalisme basé sur les réseaux de Petri stochastiques qui assurent la représentation du comportement dynamique de ce type de systèmes. La modélisation est traitée sous la forme d’une approche stochastique utilisant les réseaux d’activité stochastiques SAN (Stochastic Activity Network). L’introduction d’indicateurs de performances permet de mettre en évidence l’effet de l’intégration des niveaux d’intelligence dans les applications de sécurité. La méthode de Monte Carlo est utilisée pour évaluer les paramètres de sûreté de fonctionnement des SIS en conformité avec les normes de sécurité relatives aux systèmes instrumentés de sécurité (CEI 61508 et CEI 61511). Nous avons proposé une méthode et les outils associés pour approcher cette évaluation par simulation et ainsi apporter une aide à la conception des systèmes instrumentés de sécurité (SIS) intégrant quelques fonctionnalités des instruments intelligents
The incorporation of intelligent instruments in safety loops leads towards the concept of intelligent safety and the systems become “Intelligent Distributed Safety Instrumented Systems (IDSIS)”. The justification for using these instruments in safety applications is not fully proven and the dependability evaluation of such systems is a difficult task. Achieved work in this thesis deals with modelling and thus the performance evaluation relating to the dependability for structures which have intelligence in the instruments constituting the Safety Instrumented Systems (SIS). In the modelling of the system, the functional and dysfunctional aspects coexist and the dynamic approach using the Stochastic Activity Network (SAN) is proposed to overcome the difficulties mentioned above. The introduction of performance indicators highlight the effect of the integration of intelligence levels in safety applications. Monte-Carlo method is used to assess the dependability parameters in compliance with safety standards related to SIS (IEC 61508 & IEC 61511). We have proposed a method and associated tools to approach this evaluation by simulation and thus provide assistance in designing Safety Instrumented Systems (SIS) integrating some features of intelligent tools
APA, Harvard, Vancouver, ISO, and other styles
29

Hirsch, Gérard. "Équations de relation floue et mesures d'incertain en reconnaissance de formes." Nancy 1, 1987. http://www.theses.fr/1987NAN10030.

Full text
Abstract:
Il est appelé que le sylogisme indirect n'est pas parfait quelque soit l'opérateur de composition floue. Un opérateur de maximalisation (ou de minimalisation) est déterminé pour la composition sup-T norme (ou INF-T conorme). Après la reprise des résultats des mesures d'incertain il est donné une application numérique au problème de classification des phonèmes
APA, Harvard, Vancouver, ISO, and other styles
30

Ciarletta, Laurent. "Contribution à l'évaluation des technologies de l'informatique ambiante." Nancy 1, 2002. http://www.theses.fr/2002NAN10234.

Full text
Abstract:
L'informatique et les réseaux s'embarquent toujours plus dans notre quotidien. L' " informatique (devenant) ambiante " est à la convergence de quatre domaines classiques : les réseaux (qui assureront l'interconnexion des divers éléments), l'informatique personnelle (et les services qu'elle fournit), l'informatique embarquée (et les progrès de la miniaturisation matérielle et logicielle), ainsi que l'interaction homme-machine (où l'intelligence artificielle fournira l'intelligence nécessaire à cette interaction). Le document présente ce domaine émergent et les différents outils, architectures et méthodes d'évaluation de ces technologies développés pendant ma thèse : le modèle LCP de l'informatique ambiante, la plate-forme d'évaluation EXiST et l'architecture de sécurité VPSS. Ils sont une première étape à la résolution des problèmes de sécurité, de standardisation, d'intégration et de convergence des technologies en jeu. Il présente aussi les résultats de nos expérimentations avec les adaptateurs Aroma (fournissant de l'intelligence adhoc à des appareils électroniques), une salle de conférence intelligente et l'utilisation d'agents intelligents avec EXiST
Computer Science and Networks are more and more embedded into our daily life. Pervasive or Ubiquitous Computing is at the crossroad of four typical areas: Networking (connecting the elements), Personal Computing (providing services), Embedded Computing (improving software and hardware miniaturization), and Computer-Human Interaction (where artificial intelligence will provide the needed cleverness). This document introduces this emerging technology and the tools, architectures and methods that were developed during the course of my PhD: the Layered Pervasive Computing model, EXiST, the evaluation and distributed simulation platform and the VPSS security architecture. They are first steps towards the resolution of security, standardization, integration, and convergence issues of the technologies at play. Some prototypes and implementations, such as the Aroma Adapter (providing adhoc "intelligence" to electronic devices), a Smart conference Room and a version of EXiST working with Intelligent Agents, are also detailed
APA, Harvard, Vancouver, ISO, and other styles
31

Goyat, Yann. "Estimation précise des trajectoires de véhicule par un système optique." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2008. http://tel.archives-ouvertes.fr/tel-00399848.

Full text
Abstract:
La métrologie du trafic et des trajectoires des véhicules évolue fortement depuis dix ans. Cette croissance est principalement Liée aux demandes de services de plus en plus nombreuses des usagers et à un bilan d'accidents corporels toujours très insatisfaisant ( 4 838 tués, 106 709 blessés dont 39 754 blessés hospitalisés en 2007). L'objectif des travaux de cette thèse était de proposer un système de mesure pour mieux comprendre les relations entre l'accidentologie et les caractéristiques de l'infrastructure. Un système de cette nature permettrait d'apporter des réponses pertinentes à de nombreuses questions encore en suspend, telles que : - la route est-elle bien utilisée par les conducteurs, - les informations proposées par la signalisation et le tracé sont-elles bien comprises, - le site induit-il des comportements dangereux : si oui, pourquoi, - quels sont les mécanismes d'accidents ou de presqu'accidents . . . Un cahier des charges a donc été établi, en accord avec des experts en sécurité routière, pour répondre à ce besoin. Après un état de l'art des systèmes "bord de voie" et des méthodes existantes, il s'est avéré que de nombreux systèmes sont commercialisés pour la mesure de trafic. Quelques systèmes optiques permettent aussi la mesure de trajectoires, avec l'objectif d'une part de détecter les incidents et d'autre part d'améliorer la fiabilité de mesure par l'étude d'une zone (moyenne) plutôt que d'un seul point. Toutefois, aucun de ces dispositifs ne répond au cahier des charges, notamment en terme de précision de mesure. Il a donc été décidé de réaliser intégralement (matériel et logiciel) un nouvel outil de mesure, appelé Observatoire De Trajectoire (ODT), combinant les deux capteurs du marché qui permettent une mesure en "champ large" : la caméra et le laser. Le domaine scientifique le plus exploré étant le suivi d'objets, une bibliographie a donc été effectuée pour identifier les méthodes les plus appropriées pour notre problématique. Le choix s'est positionné sur les méthodes probabilistes et particulièrement sur deux techniques bien connues que sont le filtre à particules et le "Markov Chain Monte Carlo" (MCMC). La contribution principale de la thèse porte sur le développement de deux méthodes opérationnelles pour l'estimation précise des trajectoires de véhicules à partir d'une combinaison d'images vidéo et de mesures télémétriques. Ces méthodes de suivi s'appuient sur une nouvelle méthode de soustraction fond/forme, sur la combinaison d'un modèle cinématique et d'un modèle d'observations et enfin sur une technique originale de fusion de capteurs, utilisant un processus de ré-échantillonnage de filtre à particules. L'avantage de la première méthode, dite "séquentielle", est de pouvoir estimer toutes les trajectoires des véhicules légers. Elle permet donc de récupérer une grande quantité d'informations (5 paramètres par point mesuré), proportionnelle au temps passé pour son analyse. La seconde méthode, dite "globale", permet une plus grande réactivité et une analyse plus fine, grâce à une réduction considérablement des paramètres de suivi. Néanmoins, elle a l'inconvénient de ne pas pouvoir suivre les trajectoires "atypiques". Cette caractéristique peut, en revanche, être utilisée comme critère de classification de trajectoires. Enfin, les différentes étapes de ces méthodes ont été validées à l'aide de nombreuses trajectoires étalons. Ces trajectoires étalons étant suivies et mesurées par un véhicule équipé d'un GPS précis au cm près, à différentes vitesses. Les deux méthodes ont ensuite été comparées entre elles et avec ces mêmes vérités terrains.
APA, Harvard, Vancouver, ISO, and other styles
32

Goyat, Yann. "Estimation précise des trajectoires de véhicule par un système optique." Phd thesis, Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21900.

Full text
Abstract:
L'objectif du projet intégrant de cette thèse était de proposer un système de mesure pour mieux comprendre les comportements des usagers en virage. Aucun des dispositifs du marché ne répondant au cahier des charges, notamment concernant la précision de mesure, il a donc été décidé de réaliser un nouvel outil de mesure. Cet outil, appelé Observatoire Optique de Trajectoire (ODT), combine les deux capteurs qui permettent une mesure en "champ large" : la caméra et le laser. La contribution principale de la thèse, orientée "suivi d'objets", porte sur le développement et la validation de deux méthodes, en ligne par filtrage particulaire, et hors ligne par Markov Chain Monte Carlo, pour le suivi des véhicules. Ces méthodes s'appuient sur une nonvelle méthode de soustraction fond/forme, sur la combinaison d'un modèle cinématique et d'un modèle d'observations et enfin sur une technique originale de fusion de capteurs, utilisant un processus de ré-échantillonnage de filtre à particules
APA, Harvard, Vancouver, ISO, and other styles
33

Leurent, Edouard. "Apprentissage par renforcement sûr et efficace pour la prise de décision comportementale en conduite autonome." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I049.

Full text
Abstract:
Dans cette thèse de doctorat, nous étudions comment des véhicules autonomes peuvent apprendre à garantir la sûreté et à éviter les accidents, bien qu'ils partagent la route avec des conducteurs humains dont les comportements sont incertains. Pour prendre en compte cette incertitude, nous nous appuyons sur les observations en ligne de l'environnement pour construire une région de confiance autour de la dynamique du système, qui est ensuite propagée au cours du temps pour borner l'ensemble des trajectoires possibles des véhicules à proximité. Pour assurer la sûreté en présence de cette incertitude, nous avons recours à la prise de décision robuste, qui préconise de toujours considérer le pire cas. Cette approche garantit que la performance obtenue pendant la planification sera également atteinte sur le système réel, et nous montrons dans une analyse de bout en bout que la sous-optimalité qui en résulte est bornée. Nous en fournissons une implémentation efficace, basée sur des algorithmes de recherche arborescente. Une seconde contribution est motivée par le constat que cette approche pessimiste tend à produire des comportements excessivement prudents : imaginez vouloir dépasser un véhicule, quelle certitude avez-vous que ce dernier ne changera pas de voie au tout dernier moment, provoquant un accident ? Ce type de raisonnement empêche les robots de conduire aisément parmi d'autres conducteurs, de s'insérer sur une autoroute ou de traverser une intersection, un phénomène connu sous le nom de « robot figé ». Ainsi, la présence d'incertitude induit un compromis entre deux objectifs contradictoires : sûreté et efficacité. Comment arbitrer ce conflit ? La question peut être temporairement contournée en réduisant au maximum l'incertitude. Par exemple, nous proposons une architecture de réseau de neurones basée sur de l'attention, qui tient compte des interactions entre véhicules pour améliorer ses prédictions. Mais pour aborder pleinement ce compromis, nous nous appuyons sur la prise de décision sous contrainte afin de considérer indépendamment les deux objectifs de sûreté et d'efficacité. Au lieu d'une unique politique de conduite, nous entrainons toute une gamme de comportements, variant du plus prudent au plus agressif. Ainsi, le concepteur du système dispose d'un curseur lui permettant d'ajuster en temps réel le niveau de risque assumé par le véhicule
In this Ph.D. thesis, we study how autonomous vehicles can learn to act safely and avoid accidents, despite sharing the road with human drivers whose behaviors are uncertain. To explicitly account for this uncertainty, informed by online observations of the environment, we construct a high-confidence region over the system dynamics, which we propagate through time to bound the possible trajectories of nearby traffic. To ensure safety under such uncertainty, we resort to robust decision-making and act by always considering the worst-case outcomes. This approach guarantees that the performance reached during planning is at least achieved for the true system, and we show by end-to-end analysis that the overall sub-optimality is bounded. Tractability is preserved at all stages, by leveraging sample-efficient tree-based planning algorithms. Another contribution is motivated by the observation that this pessimistic approach tends to produce overly conservative behaviors: imagine you wish to overtake a vehicle, what certainty do you have that they will not change lane at the very last moment, causing an accident? Such reasoning makes it difficult for robots to drive amidst other drivers, merge into a highway, or cross an intersection — an issue colloquially known as the “freezing robot problem”. Thus, the presence of uncertainty induces a trade-off between two contradictory objectives: safety and efficiency. How to arbitrate this conflict? The question can be temporarily circumvented by reducing uncertainty as much as possible. For instance, we propose an attention-based neural network architecture that better accounts for interactions between traffic participants to improve predictions. But to actively embrace this trade-off, we draw on constrained decision-making to consider both the task completion and safety objectives independently. Rather than a unique driving policy, we train a whole continuum of behaviors, ranging from conservative to aggressive. This provides the system designer with a slider allowing them to adjust the level of risk assumed by the vehicle in real-time
APA, Harvard, Vancouver, ISO, and other styles
34

Gouel, Matthieu. "Internet-Scale Route Tracing Capture and Analysis." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS160.

Full text
Abstract:
Le réseau Internet est l'une des réalisations les plus remarquables de notre civilisation, permettant la communication entre environ deux tiers de la population mondiale. Ce réseau de réseaux a une portée internationale et est géré de manière hautement décentralisée, rendant sa représentation globale impossible au niveau IP. Cependant, depuis plus de deux décennies, les chercheurs ont développé de nouvelles techniques, construit de nouveaux outils et créé de nouvelles plateformes pour capturer et fournir des cartes plus précises et complètes de la topologie de l'Internet, soutenant ainsi les opérateurs réseau de l'industrie et les autres chercheurs dans l'amélioration des composantes essentielles du réseau Internet comme sa sécurité, ses performances, sa connectivité ou sa neutralité. Cette thèse présente de nouvelles contributions visant à améliorer la mesure de la topologie de l'Internet à grande échelle. Elle introduit une plateforme de mesure permettant l'utilisation un traçage à grande vitesse des routes IP, ainsi qu'une approche d'apprentissage par renforcement pour optimiser la découverte de la topologie de l'Internet. L'analyse des données des routes de l'Internet collectées nécessitant des métadonnées supplémentaires, cette thèse étudie également l'évolution de la géolocalisation des adresses IP dans une base de données privée couramment utilisée sur une période de 10 ans et fournit des conseils pour éviter les biais dans les études utilisant cette base de données. Enfin, un cadre d'analyse à grande échelle a été développé pour exploiter de manière efficace cette grande quantité de données collectées, ainsi que les métadonnées supplémentaires provenant d'autres sources telles que la géolocalisation des adresses IP, afin de produire des études pertinentes à l'échelle de l'Internet. Ce travail vise à considérablement améliorer l'étude de la topologie de l'Internet en proposant des méthodes et des outils pour la collecte et l'analyse de quantités massives de données sur la topologie IP de ce réseau. Cette approche permettra une meilleure compréhension de la structure et de l'évolution de l'Internet, facilitant ainsi la compréhension de ce système complexe
The Internet is one of the most remarkable human creations, enabling communication among about two thirds of the global population. This network of networks spans the entire globe and is managed in a highly decentralized way, making it impossible to fully comprehend at IP-level. Nonetheless, for over two decades, researchers have been devising new techniques, developing new tools, and creating new platforms to capture and provide more precise and comprehensive maps of the Internet's topology. These efforts support network operators in the industry and other researchers in improving core features of the Internet such as its connectivity, performance, security, or neutrality. This thesis presents new contributions that improve the scalability of Internet topology measurement. It introduces a state of the art measurement platform that enables the use of high-speed probing techniques for IP route tracing at Internet scale, as well as a reinforcement learning approach to maximize the discovery of the Internet topology. Because the analysis of the route tracing data collected requires additional metadata, the evolution of IP address geolocation over a 10-year period in a widely used proprietary database is examined, and lessons are provided to avoid biases in studies using this database. Finally, a large-scale analysis framework is developed to effectively utilize the large number of collected data and augmented metadata from other sources, such as IP address geolocation, to produce insightful studies at the Internet scale. This work aims to considerably improve the study of the Internet topology by providing tools to collect and analyze large amounts of Internet topology data. This will allow researchers to better understand how the Internet is structured and how it evolves over time, leading to a more comprehensive understanding of this complex system
APA, Harvard, Vancouver, ISO, and other styles
35

Delefosse, Thierry. "Stratégies de recherche d'Informations émergentes pour la compréhension de grands volumes documentaires numérisées : application à la sécurité des systèmes d'information." Thesis, Paris Est, 2008. http://www.theses.fr/2008PEST0224.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Yang, Mingqiang. "Extraction d'attributs et mesures de similarité basées sur la forme." Phd thesis, INSA de Rennes, 2008. http://tel.archives-ouvertes.fr/tel-00335083.

Full text
Abstract:
Dans le contexte de la reconnaissance de forme et de l'observation de similarité d'un objet parmi d'autres, les caractéristiques de forme extraites de son image sont des outils puissants. En effet la forme de l'objet est habituellement et fortement liée à sa fonctionnalité et son identité. S'appuyant sur cette forme, un éventail de méthodes par extraction de caractéristiques et mesures de similarité a été proposé dans la littérature. De nombreuses et diverses applications sont susceptibles d'utiliser ces caractéristiques de forme. L'invariance géométrique et la résistance aux déformations sont des propriétés importantes que doivent posséder ces caractéristiques et mesures de similarité. Dans cette thèse, trois nouveaux descripteurs de forme sont développés. Les deux premiers, celui par différence de surfaces et contrôlée par l'échelle (SCAD) et celui correspondant au vecteur de surfaces partielles normalisées (NPAV), sont fondés sur une normalisation "iso-surface" (IAN). SCAD est un vecteur dont les éléments sont les différences de surface entre les principaux segments du contour original et contour filtré. Ces segments sont définis par des ensembles de points entre chaque paire de points de courbure nulle, relative au contour filtré et au contour original. En nous appuyant sur deux théorèmes que nous proposons et en prenant en considération surface partielle, transformée affine et filtrage linéaire, nous avons défini le second descripteur, NPAV. Nous prouvons alors, que pour tout contour filtré linéairement, la surface d'un triangle, dont les sommets sont le barycentre du contour et une paire de points successifs sur le contour normalisé, reste linéaire sous toutes les transformations affines. Ainsi est établie une relation entre filtrage et transformation affine. Les deux descripteurs SCAD et NPAV ont la propriété d'invariance aux transformations affines. Comparant les deux approches SCAD et NPAV, SCAD s'avère plus compact que NPAV mais les performances de NPAV sont meilleures que celles de SCAD. La dernière approche proposée est la représentation par "contexte des cordes". Cette représentation décrit une distribution des longueurs de cordes selon une orientation. L'histogramme représentant ce contexte des cordes est compacté et normalisé dans une matrice caractéristique. Une mesure de similarité est alors définie sur cette matrice. La méthode proposée est insensible à la translation, à la rotation et au changement d'échelle; de plus, elle s'avère robuste aux faibles occultations, aux déformations élastiques et au bruit. En outre, son évaluation sur des objets réels souligne tous ses atouts dans le contexte des applications de la vision. Ces nouveaux descripteurs de forme proposés sont issus d'une recherche et d'études menées sur une quarantaine de techniques de la littérature. Contrairement à la classification traditionnelle, ici, les approches de descripteurs de forme sont classées selon leurs approches de traitement: ceci facilite ainsi le choix du traitement approprié. Une description et une étude de ces approches est ici fournie, et nous reprenons certaines d'entre elles dans une évaluation comparative avec les nôtres et ce sur différentes bases de données
APA, Harvard, Vancouver, ISO, and other styles
37

Motta, Mariane Prado. "Contribution à l’étude de systèmes de surveillance de l'usinage basés sur des méthodes d‘apprentissage machine et des mesures de vibrations, efforts et température de coupe." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0296.

Full text
Abstract:
L'usinage est un processus de fabrication d'une grande importance économique qui se base sur l'utilisation d'un outil de coupe affuté pour couper et enlever mécaniquement de la matière d'une pièce afin d'obtenir une géométrie souhaitée. Compte tenu des exigences toujours croissantes en termes de qualité, de variabilité des produits et de réduction des coûts, les systèmes de surveillance de l'état des outils ainsi que de la qualité de la pièce usinée, basés sur des techniques du domaine de l'intelligence artificielle (IA), constituent une solution potentielle pour en avoir des processus de fabrication plus fiables et économiques. Les récents développements dans le domaine de l'IA, ont montré un grand potentiel pour transformer le domaine de la fabrication avec des outils avancés dédiés à l'analyse et à la modélisation des données. En particulier, les algorithmes d'apprentissage machine supervisé (ML), constituent un outil puissant pour modéliser les relations complexes entre les variables d'entrée et de sortie sur la base d'un ensemble de données contenant des exemples, c'est-à-dire, de paires d'entrées-sorties. Néanmoins, l'un des principaux inconvénients de ces techniques de modélisation est qu'une grande quantité de données, généralement obtenues par la réalisation d'expériences (souvent longues et coûteuses à réaliser), est nécessaire pour former des modèles précis et fiables. Ce qui limite l'applicabilité de ces types de modèle dans un contexte industriel. Compte tenu de ce contexte, l'étude menée vise à contribuer à l'identification de méthodologies pour le développement de modèles ML dédiés à la surveillance d'usinage en conditions industrielles, dans lesquelles le temps et les ressources pour la réalisation d'expériences sont souvent limités. A cet effet, il est considéré dans cette étude que, bien que les expériences puissent parfois être coûteuses, dans l'industrie, il est courant qu'avant de lancer des productions d'usinage avec un nouvel outil ou un nouveau matériau, des expériences de réglage soient effectuées afin de déterminer les paramètres de coupe les plus appropriés pour réaliser cette production. Compte tenu de cette nécessité (ou recommandation), il sera investigué dans cette thèse, les performances prédictives qui peuvent être atteintes si des données, issues de ces expériences de réglage, sont utilisées pour générer des modèles prédictifs pour la surveillance de l'usinage. Plus précisément, des expériences de réglage issues de la méthodologie normalisée Couple-Outil-Matière (NF E 66-520) sont considérées. Soucieux d'obtenir de bonnes performances prédictives avec une quantité limitée de données expérimentales, des capteurs pour la mesure des efforts, de la température et des vibrations de coupe sont choisis comme instrumentation du système de surveillance à développer, en raison de ses relations étroites avec la cinématique du procédé d'usinage. A ce propos, une attention particulière est accordée à l'étape d'ingénierie des caractéristiques. Autrement dit, le processus qui consiste à transformer les données brutes disponibles, par exemple, les signaux enregistrés par les capteurs, en caractéristiques, c'est-à-dire, des informations, représentant plus précisément le problème sous-jacent au modèle prédictif. Finalement, étant donné que, dans l'industrie, le changement de référence de l'outil de coupe peut se produire assez souvent, il sera aussi étudié si les modèles développés pour un type d'outil de coupe cible peuvent être appliqués à d'autres types d'outils légèrement différents (variations sur le rayon de bec, substrat et revêtement) et si, pour l'entrainement de modèles ML, l'utilisation de bases de données plus volumineuses, mais contenant des observations relatives pas seulement l'outil cible, mais aussi à d'autres outils légèrement différents de celle-ci, sera plus avantageuse, par rapport à l'utilisation d'une base de données moins volumineuse, mais spécifique à l'outil cible
Machining is an economically important manufacturing process that relies on the use of a sharpened cutting tool to mechanically cut and remove material from a part to achieve a desired geometry. Given the ever-increasing demands for quality, product variability and cost reduction, tool condition and workpiece quality monitoring systems based on artificial intelligence (AI) techniques are a potential solution are a potential solution for a more reliable and economical manufacturing processes. Recent developments in the field of AI, have shown great potential to transform the manufacturing domain with advanced tools dedicated to data analysis and modeling. In particular, supervised machine learning (ML) algorithms are a powerful tool for modeling complex relationships between input and output variables based on a dataset containing examples, i.e., input-output pairs. Nevertheless, one of the main drawbacks of these modeling techniques is that a large amount of data, usually obtained through experiments (often long and expensive to perform), is required to train accurate and reliable models. This fact limits the applicability of these types of models in an industrial context. Considering this context, this study aims to contribute to the identification of methodologies for the development of ML models dedicated to machining monitoring within industrial conditions, in which time and resources for the realization of experiments are often limited. For this purpose, it is considered in this study that, although experiments can be onerous, in the industry it is common that, before starting large scale machining productions with a new tool or material, setup experiments are performed to determine the most appropriate cutting parameters to perform that production. Given this need (or recommendation), it will be investigated in this thesis, the predictive performances that can be achieved if data, obtained from these tuning experiments, are used to generate predictive models for machining monitoring. More precisely, setting experiments from the standardized methodology Couple Tool-Material protocol (NF E 66-520) are considered. In an effort to obtain good predictive performance with a limited amount of experimental data, sensors for measuring cutting forces, temperature and vibrations are chosen as instrumentation for the monitoring system to be developed, given its close relationship with the kinematics of the machining process. In this matter, special attention is given to the feature engineering step. That is, the process of transforming the available raw data, for example, the signals recorded by the sensors, into features, i.e., information, that more accurately represent the problem underlying the predictive model. Finally, since in the industry the changes in cutting tool reference can occur quite often, it will also be investigated whether the models developed for a given target tool can be applied to other slightly different tools (variations on nose radius, substrate and coating) and whether, for the training of ML models, the use of larger databases, but containing observations related not only to the target tool but also to other tools slightly different from it, will be more advantageous, compared to the use of a smaller database specific to the target tool
APA, Harvard, Vancouver, ISO, and other styles
38

Babari, Raouf. "Estimation des conditions de visibilité météorologique par caméras routières." Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00786898.

Full text
Abstract:
La mesure de la visibilité météorologique est un élément important pour la sécurité des transports routiers et aériens. Nous proposons dans ce travail de recherche un indicateur de la visibilité météorologique adapté aux caméras fixes de vidéo surveillance du réseau routier. Il est fondé sur le module du gradient sélectionné dans des zones dont le comportement suit une loi de réflexion de Lambert vis à vis des conditions d'éclairage. La réponse de cet indicateur est issue d'une modélisation fondée sur une hypothèse de la distribution des profondeurs dans la scène. Celle-ci est calibrée avec des données provenant d'un visibilimètre ou bien avec une carte de profondeurs issue d'un modèle numérique de terrain. Les estimations sont ensuite comparées avec des données de référence obtenues par un visibilimètre et montrent une erreur moyenne similaire pour des images prises dans différentes conditions d'éclairage et de visibilité météorologique
APA, Harvard, Vancouver, ISO, and other styles
39

Ciguene, Richardson. "Génération automatique de sujets d'évaluation individuels en contexte universitaire." Electronic Thesis or Diss., Amiens, 2019. http://www.theses.fr/2019AMIE0046.

Full text
Abstract:
Ce travail de thèse s'intéresse à l'évaluation des apprentissages et notamment à la génération automatique de sujets d'évaluations dans les universités. Nous nous appuyons sur une base de questions sources pour créer les questions des sujets grâce à des algorithmes qui sont en mesure de construire des tests d'évaluation différenciés. Ces recherches ont permis d'élaborer une métrique qui mesure cette différenciation et de proposer des algorithmes visant à maximiser la différenciation totale sur des collections de tests, tout en minimisant le nombre de patterns nécessaires. Les performances en moyenne de ces derniers dépendent du nombre de patterns disponibles dans la base source (en regard du nombre d'items souhaités dans les tests), et de la taille des collections générées. On s'est focalisé sur la différenciation possible dans de très petites collections de sujets, et propose des pistes méthodologiques pour optimiser la distribution de ces sujets différenciés à des cohortes d'étudiants en respectant les contraintes de l'enseignant. La suite de ce travail sera éventuellement de prendre en compte le niveau de difficulté d'un Test comme nouvelle contrainte, en s'appuyant en partie sur les données statistiques et sémantiques récoltées après chaque Épreuve. Le but est de pouvoir maximiser la différenciation en gardant l'équité entre les Tests d'une Collection, pour une distribution optimisée lors des Épreuves
This PhD work focuses on the evaluation of learning and especially the automatic generation of evaluation topics in universities. We rely on a base of source questions to create topic questions through algorithms that are able to construct differentiated assessment tests. This research has made it possible to develop a metric that measures this differentiation and to propose algorithms aimed at maximizing total differentiation on test collections, while minimizing the number of necessary patterns. The average performance of the latter depends on the number of patterns available in the source database (compared to the number of items desired in the tests), and the size of the generated collections. We focused on the possible differentiation in very small collections of subjects, and proposes methodological tracks to optimize the distribution of these differentiated subjects to cohorts of students respecting the constraints of the teacher. The rest of this work will eventually take into account the level of difficulty of a test as a new constraint, relying in part on the statistical and semantic data collected after each test. The goal is to be able to maximize the differentiation by keeping the equity between the Tests of a Collection, for an optimized distribution during the Events
APA, Harvard, Vancouver, ISO, and other styles
40

Qamar, Ali Mustafa. "Mesures de similarité et cosinus généralisé : une approche d'apprentissage supervisé fondée sur les k plus proches voisins." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM083.

Full text
Abstract:
Les performances des algorithmes d'apprentissage automatique dépendent de la métrique utilisée pour comparer deux objets, et beaucoup de travaux ont montré qu'il était préférable d'apprendre une métrique à partir des données plutôt que se reposer sur une métrique simple fondée sur la matrice identité. Ces résultats ont fourni la base au domaine maintenant qualifié d'apprentissage de métrique. Toutefois, dans ce domaine, la très grande majorité des développements concerne l'apprentissage de distances. Toutefois, dans certaines situations, il est préférable d'utiliser des similarités (par exemple le cosinus) que des distances. Il est donc important, dans ces situations, d'apprendre correctement les métriques à la base des mesures de similarité. Il n'existe pas à notre connaissance de travaux complets sur le sujet, et c'est une des motivations de cette thèse. Dans le cas des systèmes de filtrage d'information où le but est d'affecter un flot de documents à un ou plusieurs thèmes prédéfinis et où peu d'information de supervision est disponible, des seuils peuvent être appris pour améliorer les mesures de similarité standard telles que le cosinus. L'apprentissage de tels seuils représente le premier pas vers un apprentissage complet des mesures de similarité. Nous avons utilisé cette stratégie au cours des campagnes CLEF INFILE 2008 et 2009, en proposant des versions en ligne et batch de nos algorithmes. Cependant, dans le cas où l'on dispose de suffisamment d'information de supervision, comme en catégorisation, il est préférable d'apprendre des métriques complètes, et pas seulement des seuils. Nous avons développé plusieurs algorithmes qui visent à ce but dans le cadre de la catégorisation à base de k plus proches voisins. Nous avons tout d'abord développé un algorithme, SiLA, qui permet d'apprendre des similarités non contraintes (c'est-à-dire que la mesure peut être symétrique ou non). SiLA est une extension du perceptron par vote et permet d'apprendre des similarités qui généralisent le cosinus, ou les coefficients de Dice ou de Jaccard. Nous avons ensuite comparé SiLA avec RELIEF, un algorithme standard de re-pondération d'attributs, dont le but n'est pas sans lien avec l'apprentissage de métrique. En effet, il a récemment été suggéré par Sun et Wu que RELIEF pouvait être considéré comme un algorithme d'apprentissage de métrique avec pour fonction objectif une approximation de la fonction de perte 0-1. Nous montrons ici que cette approximation est relativement mauvaise et peut être avantageusement remplacée par une autre, qui conduit à un algorithme dont les performances sont meilleures. Nous nous sommes enfin intéressés à une extension directe du cosinus, extension définie comme la forme normalisée d'un produit scalaire dans un espace projeté. Ce travail a donné lieu à l'algorithme gCosLA. Nous avons testé tous nos algorithmes sur plusieurs bases de données. Un test statistique, le s-test, est utilisé pour déterminer si les différences entre résultats sont significatives ou non. GCosLA est l'algorithme qui a fourni les meilleurs résultats. De plus, SiLA et gCosLA se comparent avantageusement à plusieurs algorithmes standard, ce qui illustre leur bien fondé
Almost all machine learning problems depend heavily on the metric used. Many works have proved that it is a far better approach to learn the metric structure from the data rather than assuming a simple geometry based on the identity matrix. This has paved the way for a new research theme called metric learning. Most of the works in this domain have based their approaches on distance learning only. However some other works have shown that similarity should be preferred over distance metrics while dealing with textual datasets as well as with non-textual ones. Being able to efficiently learn appropriate similarity measures, as opposed to distances, is thus of high importance for various collections. If several works have partially addressed this problem for different applications, no previous work is known which has fully addressed it in the context of learning similarity metrics for kNN classification. This is exactly the focus of the current study. In the case of information filtering systems where the aim is to filter an incoming stream of documents into a set of predefined topics with little supervision, cosine based category specific thresholds can be learned. Learning such thresholds can be seen as a first step towards learning a complete similarity measure. This strategy was used to develop Online and Batch algorithms for information filtering during the INFILE (Information Filtering) track of the CLEF (Cross Language Evaluation Forum) campaign during the years 2008 and 2009. However, provided enough supervised information is available, as is the case in classification settings, it is usually beneficial to learn a complete metric as opposed to learning thresholds. To this end, we developed numerous algorithms for learning complete similarity metrics for kNN classification. An unconstrained similarity learning algorithm called SiLA is developed in which case the normalization is independent of the similarity matrix. SiLA encompasses, among others, the standard cosine measure, as well as the Dice and Jaccard coefficients. SiLA is an extension of the voted perceptron algorithm and allows to learn different types of similarity functions (based on diagonal, symmetric or asymmetric matrices). We then compare SiLA with RELIEF, a well known feature re-weighting algorithm. It has recently been suggested by Sun and Wu that RELIEF can be seen as a distance metric learning algorithm optimizing a cost function which is an approximation of the 0-1 loss. We show here that this approximation is loose, and propose a stricter version closer to the the 0-1 loss, leading to a new, and better, RELIEF-based algorithm for classification. We then focus on a direct extension of the cosine similarity measure, defined as a normalized scalar product in a projected space. The associated algorithm is called generalized Cosine simiLarity Algorithm (gCosLA). All of the algorithms are tested on many different datasets. A statistical test, the s-test, is employed to assess whether the results are significantly different. GCosLA performed statistically much better than SiLA on many of the datasets. Furthermore, SiLA and gCosLA were compared with many state of the art algorithms, illustrating their well-foundedness
APA, Harvard, Vancouver, ISO, and other styles
41

Mobarek, Iyad. "Conception d'un système national des équipements médicaux automatiques pour améliorer la performance et réduire les coûts d'investissements et d'exploitations des dispositifs médicaux." Compiègne, 2006. http://www.theses.fr/2006COMP1623.

Full text
Abstract:
Cette thèse décrit les différentes phases de développement, de mise en application et d'évaluation d'un système des équipements médicaux (CES) pour la Jordanie. Ceci inclut le développement et l'automatisation de la gestion et du traitement de toutes les informations techniques liées aux dispositifs médicaux dans 29 hôpitaux, 685 centres de santé, 332 cliniques dentaires, 348 maternités et 23 banques de sang. A chaque équipement médical a été assigné un code d'identité qui peut être repéré par un système de balayage de code barres. Dans la même optique, des codes d'identification ont été attribués à tous les autres éléments impliqués: tels les hôpitaux, le personnel, les pièces de rechange, les ateliers, etc. Le CES entièrement automatisé représente un système puissant; implémenté sur l'ensemble des plateformes du réseau couvrant différents sites de la direction de la technologie biomédicale (DBE) du ministère de la santé partout dans le pays, il constitue le premier CES complet à mettre en application au niveau national un système automatisé qui peut lire et produire des rapports en anglais ou en arabe. Comparé aux standards internationaux, le CES développé a augmenté la capacité d'utilisation des équipements médicaux concernant leur disponibilité (en temps de bon fonctionnement) jusqu'aux meilleurs niveaux internationaux disponibles à des coûts extrêmement bas. Le système complet s'est avéré être un outil utile pour contrôler, commander et extraire tous les éléments des dispositifs médicaux dans le CES considéré. Le système a été évalué et considéré comme fiable, efficace et unique comparés aux systèmes internationalement disponibles et il représente un modèle réussi pour d'autres pays
This thesis describes the different phases of developing, implementing and evaluating a unique Clinical Engineering System (CES) based on Jordan. This includes establishing and then automating ail technical issues and information related to medical equipment in 29 hospitals, 685 health centers, 332 dental clinics, 348 pediatric and mother care clinics and 23 blood banks. Every medical equipment was assigned an identity code that can be recognized through a bar code scanning system and similarly ail other involved parameters like hospitals, personnel, spare parts, workshops. . . Etc. Are also coded comprehensively. The fully automated CES presents a powerful system; implemented over network covering different locations of the Directorate of Biomedical Engineering (DBE) at Ministry Of Heath ail over the country, presenting the first Comprehensive CES to be implemented on the national level and the automated system can read and report in both Arabic and English languages. Compared to international figures the developed clinical engineering system has enhanced the performance of medical equipment including its availability (uptime) up to the best available international levels at extremely low cost. The complete system proved to be invaluable tool to manage, control and report all different parameters concerning medical equipment in the considered clinical engineering system. The System was evaluated and found to be reliable, effective and unique compared to internationally available systems and it presents a. Successful model for other countries
APA, Harvard, Vancouver, ISO, and other styles
42

Piolle, Guillaume. "Agents utilisateurs pour la protection des données personnelles : modélisation logique et outils informatiques." Phd thesis, Grenoble 1, 2009. https://theses.hal.science/tel-00401295.

Full text
Abstract:
Les usages dans le domaine des systèmes multi-agents ont évolué de manière à intégrer davantage les utilisateurs humains dans les applications. La manipulation d'informations privées par des agents autonomes appelle alors à une protection adaptée des données personnelles. Les présents travaux examinent d'abord le contexte légal de la protection de la vie privée, ainsi que les divers moyens informatiques destinés à la protection des données personnelles. Il en ressort un besoin de solutions fondées sur les méthodes d'IA, autorisant à la fois un raisonnement sur les réglementations et l'adaptation du comportement d'un agent à ces réglementations. Dans cette perspective, nous proposons le modèle d'agent PAw (Privacy-Aware) et la logique DLP (Deontic Logic for Privacy), conçue pour traiter des réglementations provenant d'autorités multiples. Le composant de raisonnement normatif de l'agent analyse son contexte hétérogène et fournit une politique cohérente pour le traitement des données personnelles. L'agent PAw contrôle alors automatiquement sa propre utilisation des données en regard de cette politique. Afin d'appliquer cette politique de manière distante, nous étudions les différentes architectures d'applications distribuées orientées vers la protection de la vie privée, notamment celles fondées sur les principes du Trusted Computing. Nous en proposons une complémentaire, illustrant la possibilité d'utiliser différemment cette technologie. L'implémentation de l'agent PAw permet la démonstration de ses principes sur trois scénarios, montrant ainsi l'adaptabilité de l'agent à son contexte normatif et l'influence des réglementations sur le comportement de l'application
Usage in the domain of multi-agent systems has evolved so as to integrate human users more closely in the applications. Manipulation of private information by autonomous agents has then called for an adapted protection of personal data. This work first examines the legal context of privacy protection and the various computing methods aiming at personal data protection. Surveys show a significant need for AI-based solutions, allowing both reasoning on the regulations themselves and automatically adapting an agent's behaviour to these regulations. The Privacy-Aware (PAw) agent model and the Deontic Logic for Privacy, designed to deal with regulations coming from multiple authorities, are proposed here in this perspective. The agent's normative reasoning component analyses its heterogeneous context and provides a consistent policy for dealing with personal information. PAw agent then automatically controls its own usage of the data with regard to the resulting policy. In order to enforce policies in a remote manner, we study the different distributed application architectures oriented towards privacy protection, several of them based on the principles of Trusted Computing. We propose a complementary one, illustrating a different possible usage of this technology. Implementation of the PAw agent allows demonstration of its principles over three scenarios, thus showing the adaptability of the agent to its normative context and the influence of the regulations over the behaviour of the application
APA, Harvard, Vancouver, ISO, and other styles
43

Piolle, Guillaume. "Agents utilisateurs pour la protection des données personnelles : modélisation logique et outils informatiques." Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00401295.

Full text
Abstract:
Les usages dans le domaine des systèmes multi-agents ont évolué de manière à intégrer davantage les utilisateurs humains dans les applications. La manipulation d'informations privées par des agents autonomes appelle alors à une protection adaptée des données personnelles. Les présents travaux examinent d'abord le contexte légal de la protection de la vie privée, ainsi que
les divers moyens informatiques destinés à la protection des données personnelles. Il en ressort un besoin de solutions fondées sur les méthodes d'IA, autorisant à la fois un raisonnement sur les réglementations et l'adaptation du comportement d'un agent à ces réglementations. Dans cette perspective, nous proposons le modèle d'agent PAw (Privacy-Aware) et la logique DLP (Deontic Logic for Privacy), conçue pour traiter des réglementations provenant d'autorités multiples. Le composant de raisonnement normatif de l'agent analyse son contexte hétérogène et fournit une politique cohérente pour le traitement des données personnelles. L'agent PAw contrôle alors automatiquement sa propre utilisation des données en regard de cette politique. Afin d'appliquer cette politique de manière distante, nous étudions les différentes architectures d'applications distribuées orientées vers la protection de la vie privée, notamment celles fondées sur les principes du Trusted Computing. Nous en proposons une complémentaire, illustrant la possibilité d'utiliser différemment cette technologie. L'implémentation de l'agent PAw permet la démonstration de ses principes sur trois scénarios, montrant ainsi l'adaptabilité de l'agent à son contexte normatif et l'influence des réglementations sur le comportement de l'application.
APA, Harvard, Vancouver, ISO, and other styles
44

Yakan, Hadi. "Security of V2X communications in 3GPP - 5G cellular networks." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG077.

Full text
Abstract:
Avec les avancées technologiques apportées par les réseaux 5G, une nouvelle ère de communications de Vehicle-to-Everything (V2X) est apparue, offrant des applications nouvelles et avancées en matière de sécurité, d'efficacité et d'autres expériences de conduite dans les systèmes de transport intelligents (ITS). Cependant, les nouvelles fonctionnalités s'accompagnent de nouveaux défis en matière de sécurité, en particulier dans le domaine des communications Vehicle-to-Network (V2N).Cette thèse se concentre sur l'application des systèmes de misbehavior detection dans les communications V2X au sein des réseaux 5G. Tout d'abord, nous présentons un nouveau système de misbehavior detection, intégré au réseau central 5G pour détecter et prévenir les attaques V2X. Ensuite, nous proposons un schéma de collaboration entre les nœuds de détection afin d'améliorer les résultats de la détection dans les réseaux 5G edge. Enfin, nous proposons d'utiliser le Federated Learning pour permettre un entraînement distribué et nous évaluons les performances sur une grande variété d'attaques V2X
The introduction of 5G networks has brought significant technical improvements; a new era of Vehicle-to-Everything (V2X) communications has emerged, offering new and advanced safety, efficiency, and other driving experience applications in the Intelligent Transport Systems (ITS). However, with new features come new security challenges, especially in the realm of Vehicle-to-Network (V2N) communications.This thesis focuses on the application of misbehavior detection in V2X communications within 5G networks. First, we introduce a novel misbehavior detection system integrated with 5G core (5GC) network to detect and prevent V2X attacks. Then, we propose a collaboration scheme between detection nodes to improve detection results in 5G edge networks. Last, we leverage Federated Learning to enable distributed training, and we assess the performance on a wide variety of V2X attacks
APA, Harvard, Vancouver, ISO, and other styles
45

Bennani, Youssef. "Caractérisation de la diversité d'une population à partir de mesures quantifiées d'un modèle non-linéaire. Application à la plongée hyperbare." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4128/document.

Full text
Abstract:
Cette thèse propose une nouvelle méthode pour l'estimation non-paramétrique de densité à partir de données censurées par des régions de formes quelconques, éléments de partitions du domaine paramétrique. Ce travail a été motivé par le besoin d'estimer la distribution des paramètres d'un modèle biophysique de décompression afin d'être capable de prédire un risque d'accident. Dans ce contexte, les observations (grades de plongées) correspondent au comptage quantifié du nombre de bulles circulant dans le sang pour un ensemble de plongeurs ayant exploré différents profils de plongées (profondeur, durée), le modèle biophysique permettant de prédire le volume de gaz dégagé pour un profil de plongée donné et un plongeur de paramètres biophysiques connus. Dans un premier temps, nous mettons en évidence les limitations de l'estimation classique de densité au sens du maximum de vraisemblance non-paramétrique. Nous proposons plusieurs méthodes permettant de calculer cet estimateur et montrons qu'il présente plusieurs anomalies : en particulier, il concentre la masse de probabilité dans quelques régions seulement, ce qui le rend inadapté à la description d'une population naturelle. Nous proposons ensuite une nouvelle approche reposant à la fois sur le principe du maximum d'entropie, afin d'assurer une régularité convenable de la solution, et mettant en jeu le critère du maximum de vraisemblance, ce qui garantit une forte attache aux données. Il s'agit de rechercher la loi d'entropie maximale dont l'écart maximal aux observations (fréquences de grades observées) est fixé de façon à maximiser la vraisemblance des données
This thesis proposes a new method for nonparametric density estimation from censored data, where the censing regions can have arbitrary shape and are elements of partitions of the parametric domain. This study has been motivated by the need for estimating the distribution of the parameters of a biophysical model of decompression, in order to be able to predict the risk of decompression sickness. In this context, the observations correspond to quantified counts of bubbles circulating in the blood of a set of divers having explored a variety of diving profiles (depth, duration); the biophysical model predicts of the gaz volume produced along a given diving profile for a diver with known biophysical parameters. In a first step, we point out the limitations of the classical nonparametric maximum-likelihood estimator. We propose several methods for its calculation and show that it suffers from several problems: in particular, it concentrates the probability mass in a few regions only, which makes it inappropriate to the description of a natural population. We then propose a new approach relying both on the maximum-entropy principle, in order to ensure a convenient regularity of the solution, and resorting to the maximum-likelihood criterion, to guarantee a good fit to the data. It consists in searching for the probability law with maximum entropy whose maximum deviation from empirical averages is set by maximizing the data likelihood. Several examples illustrate the superiority of our solution compared to the classic nonparametric maximum-likelihood estimator, in particular concerning generalisation performance
APA, Harvard, Vancouver, ISO, and other styles
46

Chelouati, Mohammed. "Contributions to safety assurance of autonomous trains." Electronic Thesis or Diss., Université Gustave Eiffel, 2024. http://www.theses.fr/2024UEFL2014.

Full text
Abstract:
Le déploiement des trains autonomes soulève de nombreuses questions et défis, notamment ceux liés au niveau de sécurité visé, qui doit être globalement au moins équivalent à celui du système existant, ainsi que les moyens à mettre en œuvre pour l'atteindre. Conventionnellement, la mise en sécurité d'un système ferroviaire global ou d'un sous-système défini comprend une phase d'analyse des risques et une phase de maîtrise des situations dangereuses. Ainsi, pour tout système technique ferroviaire, qu'il soit classique, automatique ou autonome, un niveau de sécurité acceptable doit être assuré. Dans le contexte des trains autonomes, les défis liés à leur sécurité incluent les aspects émergents de l'intelligence artificielle, le transfert de tâches et de responsabilités du conducteur vers des systèmes décisionnels automatiques, ainsi que les aspects liés à l'autonomisation, tels que la transition entre les modes et la gestion des modes dégradés. La méthodologie de démonstration de sécurité des trains autonomes, doit ainsi prendre en compte les risques engendrés par l'ensemble de ces aspects. Autrement dit, elle doit définir l'ensemble les activités de sécurité (liées à l'introduction de l'autonomie et des Systèmes d'Intelligence Artificielle), complémentaires à la démonstration de sécurité conventionnelle. Dans ce cadre, l'objectif de cette thèse est de contribuer à l'élaboration d'une démarche d'assurance de sécurité pour les trains autonomes. Concrètement, cette thèse propose trois contributions principales. Premièrement, nous proposons une méthodologie globale de haut niveau pour la structuration et la présentation de l'argumentation de sécurité pour les trains autonomes. La méthodologie est basée sur une approche orientée objectifs de sécurité (goal-based safety) en utilisant le formalisme graphique GSN (Goal Structuring Notation). Ensuite, nous proposons une modélisation de la conscience de situation (situational awareness) d'un système de conduite autonome d'un train, intégrant le processus de l'analyse dynamique des risques ferroviaires. Ce modèle permettra au système de conduite autonome de percevoir, de comprendre, d'anticiper et de s'adapter à des situations inconnues dans son environnement tout en prenant des décisions sûres. Le modèle est illustré à travers un cas d'étude concernant la détection et l'évitement d'obstacles sur la voie ferroviaire. Dernièrement, nous élaborons une approche de prise de décision basée sur l'évaluation dynamique des risques. L'approche utilise le Processus Décisionnel de Markov Partiellement Observable (POMDP) et vise à assurer une surveillance continue de l'environnement pour garantir la sécurité opérationnelle, en particulier la prévention des collisions. L'approche repose sur le maintien d'un niveau de risque acceptable grâce à une estimation et une actualisation continues de l'état opérationnel du train et des données de perception de l'environnement
The deployment of autonomous trains raises many questions and challenges, particularly concerning the required safety level, which must be globally at least equivalent to that of the existing systems, along with how to achieve it. Conventionally, ensuring the safety of a global railway system or a defined subsystem includes analyzing risks and effectively handling dangerous situations. Therefore, for any technical railway system, whether it is conventional, automatic, or autonomous, an acceptable level of safety must be ensured. In the context of autonomous trains, safety challenges include aspects related to the use of artificial intelligence models, the transfer of tasks and responsibilities from the driver to automatic decision-making systems, and issues related to autonomy, such as mode transitions and management of degraded modes. Thus, the safety demonstration methodology for autonomous trains must take into account the risks generated by all these aspects. In other words, it must define all the safety activities (related to the introduction of autonomy and artificial intelligence systems), complementary to conventional safety demonstration. In this context, this dissertation proposes three main contributions towards the development of a safety assurance methodology for autonomous trains. Firstly, we establish a high-level framework for structuring and presenting safety arguments for autonomous trains. This framework is based on a goal-based approach represented by the graphical modeling Goal Structuring Notation (GSN). Then, we propose a model for the situational awareness of the automated driving system of an autonomous train, that integrating the process of dynamic risk assessment. This model enables the automated driving system to perceive, understand, anticipate and adapt its behavior to unknown situations while making safe decisions. This model is illustrated through a case study related to the obstacle detection and avoidance. Finally, we develop a decision-making approach based on dynamic risk assessment. The approach is based on Partially Observable Markov Decision Processes (POMDP) and aims to ensure continuous environmental monitoring to guarantee operational safety, particularly collision prevention. The approach is based on maintaining an acceptable level of risk through continuous estimation and updating of the train's operational state and environmental perception data
APA, Harvard, Vancouver, ISO, and other styles
47

Porphyre, Vincent. "Comment concilier le développement des systèmes d'élevage porcin et l'amélioration de la qualité des produits animaux : modélisation multi-agents appliquée au secteur de l'élevage porcin à Madagascar pour la conception et l'évaluation de scénarii de lutte contre la cysticercose." Thesis, La Réunion, 2019. http://www.theses.fr/2019LARE0025.

Full text
Abstract:
La cysticercose, parasitose tropicale négligée due à Taenia solium et dont le cycle concerne l’Homme et le porc, est responsable de 50 000 décès chaque année, principalement dans les pays du Sud. Notre travail de thèse a tenté d’explorer la situation épidémiologique de cette maladie dans la population porcine de Madagascar et de comprendre les déterminants expliquant sa prévalence dans le contexte épidémiologique et économique du pays. Dans un premier temps, nos enquêtes de prévalence en abattoir ont permis d’estimer une prévalence apparente de 4.6% [4.2-5.0%] au niveau national et une prévalence corrigée de 21.03% [19.18-22.87%] en tenant en compte de la sensibilité de la méthode (inspection vétérinaire par observation macroscopique). Dans un second temps nous avons modélisé le lien environnement-animal-homme dans le contexte des Hautes-Terres de Madagascar où l’élevage porcin est semi-intensifié mais où la cysticercose porcine reste endémique. Notre modèle multi-agents, développé sous Cormas, nous a permis de modéliser les comportements simplifiés des acteurs humains et animaux ainsi que les processus sanitaires et environnementaux. Une analyse de sensibilité multivariée nous a aidé à mieux comprendre les réactions du modèle vis-à-vis des paramètres d’entrée employés. Il s’est révélé sensible principalement à des paramètres décrivant (i) l’exposition des animaux à des aliments contaminés par des œufs de T. solium, notamment par la distribution d’aliments non contrôlés par l’éleveur et l’accès à un environnement contaminé, et (ii) la capacité infectante des œufs de T. solium, leur excrétion et leur survie dans l’environnement. Cette démarche exploratoire nous a permis ainsi d’identifier les paramètres d’importance mettant en lumière les besoins de recherche à mener pour renforcer la vraisemblance des résultats du modèle et nous aider à tester l’impact des scénarios de lutte contre la cysticercose dans des bassins de production porcine représentatifs de la réalité du pays
Porcine cysticercosis, a neglected tropical parasitic disease due to Taenia solium, with a cycle involving humans and pigs, is responsible for 50,000 deaths each year, mainly in the developing countries. Our PhD work has tried to explore the epidemiological situation of this disease in the swine population of Madagascar and to understand the determinants explaining its prevalence in the epidemiological and economic context of the country. As a first step, abattoir surveys estimated an apparent prevalence of 4.6% [4.2-5.0%] at the national level and a corrected prevalence of 21.03% [19.18-22.87%] taking into account the sensitivity of the method (veterinary inspection by macroscopic observation). In a second step, we modeled the environment-animal-human link in the context of Malagasy highlands where pig farming is semi-intensified but porcine cysticercosis remains endemic. Our multi-agent model, developed under Cormas, allowed us to model the simplified behaviors of human and animal actors as well as health and environmental processes. A multivariate sensitivity analysis helped us better understand the model's responses to the input parameters used. It was sensitive primarily to parameters describing (i) the exposure of animals to food contaminated with T. solium eggs, including the distribution of non-farmer-controlled feed and access to contaminated environment, and (ii) the infectious capacity of T. solium eggs, their excretion and survival in the environment. This exploratory approach allowed us to identify the important parameters, highlighting the research needs to be carried out to reinforce the likelihood of the model results and help us to test the impact of the control scenarios against cysticercosis in pig production areas characteristic of the country's situation
APA, Harvard, Vancouver, ISO, and other styles
48

Taheri, Sojasi Yousef. "Modeling automated legal and ethical compliance for trustworthy AI." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS225.

Full text
Abstract:
Les avancées en intelligence artificielle ont conduit à des enjeux juridiques et éthiques significatifs liés à la vie privée, aux biais, à la responsabilité, etc. Ces dernières années, de nombreuses réglementations ont été mises en place pour limiter ou atténuer les risques associés à l'IA. Le respect de ces réglementations est nécessaire pour la fiabilité des systèmes d'IA et pour garantir une utilisation responsable. De plus, des systèmes d'IA fiables doivent également être éthiques, en assurant une conformité avec les normes éthiques. La conformité aux lois applicables et l'adhésion aux principes éthiques sont essentielles pour la plupart des applications de l'IA. Nous étudions ce problème du point de vue des agents d'IA. En d'autres termes, comment un agent peut-il garantir que ses actions respectent les normes juridiques et éthiques. Nous nous intéressons aux approches basées sur le raisonnement logique pour intégrer la conformité juridique et éthiques dans le processus de planification de l'agent. Le domaine spécifique dans lequel nous poursuivons notre objectif est le traitement des données personnelles, c'est-à-dire, les actions de l'agent impliquent l'utilisation et le traitement des données personnelles. Une réglementation applicable dans ce domaine est le Règlement Général sur la Protection des Données (RGPD). De plus, le traitement des données personnelles peut entraîner certains risques éthiques en matière de vie privée ou de biais.Nous abordons cette question à travers une série de contributions présentées dans cette thèse. Nous commençons par la question de la conformité au RGPD. Nous adoptons le Calcul des Événements avec la Programmation par Ensembles de Réponses (ASP) pour modéliser les actions des agents et l'utiliser pour planifier et vérifier la conformité au RGPD. Un langage de policy est utilisé pour représenter les obligations et exigences du RGPD. Ensuite, nous examinons la question de la conformité éthique. Un modèle d'utilité ordinale pluraliste est proposé, permettant d'évaluer les actions en fonction des valeurs morales. Ce modèle est basé sur plusieurs critères et utilise des systèmes de vote pour agréger les évaluations sur une échelle ordinale. Nous intégrons ensuite ce modèle d'utilité et le cadre de conformité juridique dans un planificateur de Réseau de Tâches Hiérarchiques (HTN). Dans cette contribution, les normes juridiques sont considérées comme des contraintes "hard" et les normes éthiques comme des contraintes "soft". Enfin, en dernière étape, nous explorons davantage les combinaisons possibles de la conformité juridique et éthique avec l'agent de planification et proposons un cadre unifié. Ce cadre capture l'interaction et les conflits entre les normes juridiques et éthiques et est testé dans un cas d'utilisation avec des systèmes d'IA gérant la livraison d'articles médicaux
The advancements in artificial intelligence have led to significant legal and ethical issues related to privacy, bias, accountability, etc. In recent years, many regulations have been put in place to limit or mitigate the risks associated with AI. Compliance with these regulations are necessary for the reliability of AI systems and to ensure that they are being used responsibly. In addition, reliable AI systems should also be ethical, ensuring alignment with ethical norms. Compliance with applicable laws and adherence to ethical principles are essential for most AI applications. We investigate this problem from the point of view of AI agents. In other words, how an agent can ensure the compliance of its actions with legal and ethical norms. We are interested in approaches based on logical reasoning to integrate legal and ethical compliance in the agent's planning process. The specific domain in which we pursue our objective is the processing of personal data. i.e., the agent's actions involve the use and processing of personal data. A regulation that applies in such a domain is the General Data Protection Regulations (GDPR). In addition, processing of personal data may entail certain ethical risks with respect to privacy or bias.We address this issue through a series of contributions presented in this thesis. We start with the issue of GDPR compliance. We adopt Event Calculus with Answer Set Programming(ASP) to model agents' actions and use it for planning and checking the compliance with GDPR. A policy language is used to represent the GDPR obligations and requirements. Then we investigate the issue of ethical compliance. A pluralistic ordinal utility model is proposed that allows one to evaluate actions based on moral values. This model is based on multiple criteria and uses voting systems to aggregate evaluations on an ordinal scale. We then integrate this utility model and the legal compliance framework in a Hierarchical Task Network(HTN) planner. In this contribution, legal norms are considered hard constraints and ethical norm as soft constraint. Finally, as a last step, we further explore the possible combinations of legal and ethical compliance with the planning agent and propose a unified framework. This framework captures the interaction and conflicts between legal and ethical norms and is tested in a use case with AI systems managing the delivery of health care items
APA, Harvard, Vancouver, ISO, and other styles
49

Mokhtari, Aimed. "Diagnostic des systèmes hybrides : développement d'une méthode associant la détection par classification et la simulation dynamique." Phd thesis, INSA de Toulouse, 2007. http://tel.archives-ouvertes.fr/tel-00200034.

Full text
Abstract:
Ce travail s'inscrit dans le domaine du diagnostic des systèmes hybrides et est basé sur l'utilisation d'un modèle. Il a pour objectif de diagnostiquer les fautes à partir de la connaissance structurelle, comportementale ou fonctionnelle du système en représentant ces connaissances (modèle du système) séparément de la connaissance sur la tâche de diagnostic. Les systèmes hybrides incluent à la fois des variables continues et discrètes. La dynamique continue est généralement fournie par des équations différentielles et algébriques alors que la partie discrète est modélisée par des automates ou des systèmes à transition. Le formalisme adopté dans ce travail pour modéliser ces systèmes s'appuie sur le modèle " Réseau de Petri Différentiel à Objet " (RdPDO) qui est intégré dans la plate forme de simulation PrODHyS (Process Object Dynamic Hybrid Simulator). Il possède l'avantage de prendre en compte le comportement hybride d'une part, en associant les variables continues aux jetons et d'autre part, en associant un système algébro-différentiel aux places permettant de faire évoluer les variables d'état continues. La méthodologie de diagnostic proposée s'effectue en deux étapes. La première étape consiste à détecter à l'aide d'une classification floue, des fautes qui présentent les mêmes symptômes - à partir d'une connaissance préalable des états de défaillance obtenue par apprentissage - afin de réduire les chemins ou les scénarios à explorer lors de la seconde phase. Cette dernière sert à diagnostiquer la faute parmi celles détectées à l'étape précédente en levant l'ambiguïté. Pour ce faire, deux raisonnements ont été suivis. Le premier, qualifié de raisonnement avant, consiste à former pour chaque faute incriminée, un critère d'écarts entre les mesures effectuées sur le système et celles émanant du modèle avec la faute simulée, sur une fenêtre temporelle et d'isoler ainsi la faute aboutissant au critère le plus faible. Le second raisonnement qualifié de raisonne ment arrière, effectue des calculs similaires mais sur l'évolution temporelle passée du système par une simulation arrière effectuée avec PrODHys, offrant la possibilité supplémentaire par rapport au premier raisonnement de remonter à l'instant de la défaillance. La méthodologie développée est illustrée sur un système hydraulique souvent utilisé comme " benchmark ". Comme nous ne disposons pas d'un système réel, celui-ci est simulé à l'aide d'un modèle de simulation de type RdPDO qui cette fois-ci contient les états de défaillances et des différences (bruits, erreurs de modélisation) par rapport au modèle utilisé pour le diagnostic.
APA, Harvard, Vancouver, ISO, and other styles
50

Le, Vinh Thinh. "Security and Trust in Mobile Cloud Computing." Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1148.

Full text
Abstract:
Nous vivons aujourd’hui dans l'ère cybernétique où de nouvelles technologies naissent chaque jour avec la promesse de rendre la vie humaine plus confortable, pratique et sûre. Parmi ces nouvelles technologies, l'informatique mobile se développe en influençant la vie de l’utilisateur. En effet, les plates-formes mobiles (smartphone, tablette) sont devenues les meilleurs compagnons de l’utilisateur pour mener à bien ses activités quotidiennes, comme les activités commerciales ou de divertissement. En jouant ces rôles importants, les plates-formes mobiles doivent opérer dans des environnements de confiance. Dans cette thèse, nous étudions la sécurité des plates-formes mobiles en passant d’un niveau de sécurité primitif qui s’appuie sur les plates-formes de confiance, à un niveau plus sophistiqué qui se base sur de l’intelligence bio-inspirée. Plus précisément, après avoir abordé les défis du cloud computing mobile (MCC), nous développons une étude de cas appelée Droplock pour le cloud mobile et nous étudions son efficacité énergétique et ses performances pour illustrer le modèle MCC. En outre, en s’appuyant sur les plates-formes de confiance (comme les TPM), nous avons introduit un nouveau schéma d'attestation à distance pour sécuriser les plates-formes mobiles dans le contexte du cloud mobile. Pour améliorer le niveau de sécurité et être adaptatif au contexte, nous avons utilisé de la logique floue combinant un système de colonies de fourmis pour évaluer la confiance et la réputation du cloud mobile basé sur la notion de cloudlets
As living in the cyber era, we admit that a dozen of new technologies have been born every day with the promises that making a human life be more comfortable, convenient and safe. In the forest of new technologies, mobile computing is raise as an essential part of human life. Normally, mobile devices have become the best companions in daily activities. They have served us from the simple activities like entertainment to the complicated one as business operations. As playing the important roles, mobile devices deserve to work in the environment which they can trust for serving us better. In this thesis, we investigate the way to secure mobile devices from the primitive security level (Trusted Platforms) to the sophisticated one (bio-inspired intelligence). More precisely, after addressing the challenges of mobile cloud computing (MCC), we have studied the real-case of mobile cloud computing, in terms of energy efficiency and performance, as well as proposed a demonstration of particular MCC model, called Droplock system. Moreover, taking advantages of trusted platform module functionality, we introduced a novel schema of remote attestation to secure mobile devices in the context of Mobile-Cloud based solution. To enhance the security level, we used fuzzy logic combining with ant colony system to assess the trust and reputation for securing another mobile cloud computing model based on the cloudlet notion
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography