Thèses sur le sujet « Détection des robots web »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Détection des robots web.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Détection des robots web ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Chiapponi, Elisa. « Detecting and Mitigating the New Generation of Scraping Bots ». Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS490.

Texte intégral
Résumé :
Chaque jour, une guerre invisible pour les données se déroule entre les sites de commerce électronique et les acteurs qui,en siphonnent les données, sont appelés "scrapers'' . Les sites de commerce électronique détiennent les données au cœur du conflit et souhaitent les fournir uniquement aux utilisateurs légitimes. Les scrapers veulent un accès illimité et continu aux données susmentionnées pour en tirer profit. Pour atteindre cet objectif, les scrapers envoient de grandes quantités de requêtes aux sites de commerce électronique, ce qui leur cause des problèmes financiers. Cela a conduit l'industrie de la sécurité à s'engager dans une course aux armements contre les scrapers afin de créer de meilleurs systèmes pour détecter et contrer leurs activités. À l'heure actuelle, la bataille se poursuit, mais les scrapers semblent avoir le dessus, notamment grâce à leur utilisation de Proxies IP Résidentiels (RESIPs). Dans cette thèse, nous visons à rééquilibrer la balance des forces en introduisant de nouvelles techniques de détection et d'atténuation qui surmontent les limitations des méthodes actuelles. Nous proposons une technique inspirée des "pots de miel'' qui piège les scrapers en leur faisant croire qu'ils ont obtenu les données visées tandis qu'ils reçoivent des informations modifiées. Nous présentons deux nouvelles techniques de détection basées sur des mesures de réseau qui identifient les requêtes émanant de scrapers cachés derrière les infrastructures RESIP. À travers un partenariat en cours avec Amadeus IT Group, nous validons nos résultats en utilisant des données opérationnelles réelles. Conscients que les scrapers ne cesseront pas de chercher de nouvelles façons d'éviter la détection et l'atténuation, nous offrons des contributions qui peuvent aider à élaborer les prochaines armes défensives pour lutter contre les scrapers. Nous proposons une caractérisation complète des RESIPs, la plus puissante arme actuellement à la disposition des scrapers. De plus, nous examinons la possibilité d'acquérir des renseignements sur les menaces liées aux scrapers en les géolocalisant lorsqu'ils envoient des demandes via un RESIP
Every day an invisible war for data takes place between e-commerce websites and web scrapers. E-commerce websites own the data at the heart of the conflict and would like to provide it only to genuine users. Web scrapers aim to have illimited and continuous access to the above-mentioned data to capitalize on it. To achieve this goal, scrapers send large amounts of requests to e-commerce websites, causing them financial problems. This led the security industry to engage in an arms race against scrapers to create better systems to detect and mitigate their requests. At present, the battle continues, but scrapers appear to have the upper hand, thanks to the usage of Residential IP Proxies (RESIPs). In this thesis, we aim to shift the balance by introducing novel detection and mitigation techniques that overcome the limitations of current state-of-the-art methods. We propose a deceptive mitigation technique that lures scrapers into believing they have obtained their target data while they receive modified information. We present two new detection techniques based on network measurements that identify scraping requests proxied through RESIPs. Thanks to an ongoing collaboration with Amadeus IT Group, we validate our results on real-world operational data. Being aware that scrapers will not stop looking for new ways to avoid detection and mitigation, this thesis provides additional contributions that can help in building the next defensive weapons for fighting scrapers. We propose a comprehensive characterization of RESIPs, the strongest weapon currently at the disposal of scrapers. Moreover, we investigate the possibility of acquiring threat intelligence on the scrapers by geolocating them when they send requests through a RESIP
Styles APA, Harvard, Vancouver, ISO, etc.
2

Wang, Xiao. « Détection de personnes multi-capteurs pour un robot mobile domestique ». Paris 6, 2012. http://www.theses.fr/2012PA066548.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Rude, Howard Nathan. « Intelligent Caching to Mitigate the Impact of Web Robots on Web Servers ». Wright State University / OhioLINK, 2016. http://rave.ohiolink.edu/etdc/view?acc_num=wright1482416834896541.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Gallastegi, Akaitz. « Web-based Real-Time Communication for Rescue Robots ». Thesis, Linköpings universitet, Programvara och system, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-108777.

Texte intégral
Résumé :
In this thesis an audio and video streaming system is implemented for its use in rescue robots. WebRTC technology is used in order to stream in real time. Implemented in an architecture based on a Web server, two pages running WebRTC and a TURN1-STUN2 server, the system has been tested in terms of CPU and bandwidth utilization. Measurements show that when WebRTC is run in an Intel Core i3, less than 10% of CPU is used, whereas on smaller tablets the performance is not enough for running the application with the desired quality of service.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Elarbi, Boudihir Mohamed. « Contribution au guidage des robots mobiles par vision ». Vandoeuvre-les-Nancy, INPL, 1992. http://docnum.univ-lorraine.fr/public/INPL_T_1992_ELARBI_BOUDIHIR_M.pdf.

Texte intégral
Résumé :
Cette thèse concerne l'étude et le développement d'une architecture logicielle d'un système de vision pour le guidage d'un robot mobile dans un milieu extérieur. Ce système est composé de différents modules assurant chacun une tache spécifique, et l'ensemble des taches est coordonné par un module central jouant le rôle de superviseur. Dans cette étude, l'accent est principalement mis sur le module d'analyse de scène qui est basé sur un algorithme de détection des éléments linéaires dans l'image numérique. Ce module est fonctionnel sous deux modes différents: la phase initiale qui consiste en un traitement de l'image entière pour initialiser la navigation, et la phase de suivi continu qui assure le traitement sur des fenêtres extraites des images prises périodiquement. Pour diminuer le risque d'erreur lié à ce type de technique, une carte détaillée de l'environnement à été établie dans le but de réaliser une prédiction de scène à partir de données visuelles. La scène est utilisée pour valider les éléments détectés au niveau du module de la base de connaissance. Ce dernier établit un raisonnement à partir des informations acquises et prédites pour construire un modèle de la scène. Le module de pilotage génère à partir de ce modèle une trajectoire constituée d'une suite de segments de droite qui sont ensuite interprétés séquentiellement par le dispositif de navigation
Styles APA, Harvard, Vancouver, ISO, etc.
6

Lavergne, Thomas. « Détection des textes non-naturels ». Paris, Télécom ParisTech, 2009. http://www.theses.fr/2009ENST0074.

Texte intégral
Résumé :
Cette thèse porte sur la détection des textes non-naturels, en particulier dans le cadre de la lutte contre le spam sur le Web. L'enjeu est d'améliorer la qualité des résultats des moteurs de recherche en distinguant de manière automatique les contenus légitimes des faux contenus. Dans une première partie, la thèse se concentre sur une étude des différentes formes de faux contenus présents sur le Web, la manière dont ils sont utilisés dans le cadre du spam et les techniques actuelles permettant de les détecter. Dans un second temps, le problème général de la nature des textes non-naturels est abordé. Trois définitions sont proposées et illustrées au travers d'une taxonomie de ces textes, la dernière étant une définition pragmatique utilisable dans le cadre d'une détection automatique de ces textes. La troisième partie propose des méthodes de détection adaptées aux différents types de textes non-naturels rencontrés dans le cadre du spam Web. Les approches envisagées, basées sur des modèles statistiques, exploitent à la fois la structure et le contenu des textes et sont validées aussi bien sur des données synthétiques que sur des données réelles
This thesis concerns unnatural language detection, especially in the context of fighting web spam. The main goal is to improve the quality of results produced by web search engines by automatically distinguishing between legitimate and fake content. In the first part, the thesis focuses on various kinds of fake content that can be found on the web, how it can be used to generate Web spam, and on the existing methods used to detect it. In the second part, a more general problem of the essence of unnatural texts is studied. Three definitions are proposed and illustrated through a taxonomy of such texts, the last one being a pragmatic definition usable in the context of automatic detection of unnatural texts. Te last part describes detection methods adapted to the different kinds of unnatural texts found in Web spam. These methods, based on statistical models, use the structure as well as the content of texts and are validated on both synthetic and real data
Styles APA, Harvard, Vancouver, ISO, etc.
7

Segura, Serge. « Détection de collisions et définition de stratégies d'évitement d'obstacles dans un environnement de programmation hors-ligne pour robots ». Montpellier 2, 1987. http://www.theses.fr/1987MON20025.

Texte intégral
Résumé :
On s'interesse a la recherche des collisions robot-obstacle, a partir de laquelle, deux solutions theoriques de determination de trajectoires sans collision sont proposees. Ces methodes a vocation generale sont independantes du robot et de son environnement. Presentation et critique d'exemples d'application
Styles APA, Harvard, Vancouver, ISO, etc.
8

Arezki, Amine. « Détection de trajectoires et analyse de comportement pour l'assistance aux piétons ». Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0029.

Texte intégral
Résumé :
Nous présentons dans cette thèse une méthode pour assurer l'assistance ambiante dans un environnement urbain à l'aide d'un agent mobile. L'objectif est d'anticiper la nécessité d’aide. Par conséquent, nous devons comprendre le comportement et le besoin des piétons. Nous déterminons comment se focaliser sur un sujet en mouvement et comment utiliser l'interaction entre l’agent mobile et les piétons, afin de confirmer un besoin et fournir une assistance. Pour cela, le concept de type de trajectoire est utilisé pour définir la première étape de l'analyse, appelant l'étape d'approche. En combinant cette étape avec les informations du terrain fournies par l'agent mobile, un certain type d'assistance sera provoqué. En ce qui concerne l'observation, deux points de vue différents sont utilisés pour détecter les besoins d'assistance, c'est à dire, le « Fix intelligent Device » et « Ambient intelligents Devices », les deux communiquant par wifi. Le « Ambient intelligents Devices » se compose d’une caméra fixe permettant la capture de mouvements de piétons et un algorithme pour classer les trajectoires à l'aide d’un réseau de neurones. Cependant, les résultats de classification sont envoyés à l'agent mobile. Dans cette thèse, le « Touche Ambiante Intelligent Device » est un robot mobile à trois degrés de liberté qui intègre une caméra 3D (KinectTM) pour détecter la pose du corps humain, ainsi qu’une tablette à écran tactile pour pouvoir interagir avec le sujet. Nous concluons, en démontrons qu'il est possible d'avoir une intervention humaine que pour les cas critiques
In this PhD thesis we present a method to assure ambient assistance in urban environment, using a mobile agent, in order to anticipate assistance if needed. Therefore, we have to understand the human behavior and The pedestrian’s needs. We determine how to focus on a moving subject and how to use interaction between A mobile agent and A pedestrian for confirmation of the need to provide assistance. Therefore, the trajectory type concept is used to define the first step of analyses, which is called the approach step. Combining this step with the field information provided by the mobile agent, a certain type of assistance will be insured. In terms of observation, two different views are employed to detect assistance requirements, i. E. , the Fix Intelligent Device and the Ambient Intelligent Devices, both communicating by wireless. The Fix Intelligent Device is composed by a fix camera standing on a very top view allowing the detection of possible motions and an algorithm to classify the trajectories, using neural network. This classification result is subsequently communicated to the mobile agent. In our thesis, a Touch Ambient Intelligent Device is represented by mobile robot with three degrees of freedom, including a 3D camera (KinectTM) to detect human body poses, and additionally a touch screen tablet to interact with the subject. The conclusion can be made that human intervention may be required only IN critical cases
Styles APA, Harvard, Vancouver, ISO, etc.
9

Serrour, Belkacem. « Détection et analyse de communautés dans les réseaux ». Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10332.

Texte intégral
Résumé :
L'étude de structures de communautés dans les réseaux devient de plus en plus une question importante. La connaissance des modules de base (communautés) des réseaux nous aide à bien comprendre leurs fonctionnements et comportements, et à appréhender les performances de ces systèmes. Une communauté dans un graphe (réseau) est définie comme un ensemble de nœuds qui sont fortement liés entre eux, mais faiblement liés avec le reste du graphe. Les membres de la même communauté partagent les mêmes centres d'intérêt. La plupart des travaux qui existent dans ce domaine se scindent en deux grandes thématiques: la détection de communautés et l'analyse de communautés. La détection de communautés consiste à trouver les communautés dans un réseau donné, sans connaître à priori ni la taille ni le nombre des communautés. La partie analyse de communautés, quant à elle, consiste à étudier les propriétés structurelles et sémantiques des communautés détectées et de celles du réseau étudié. Dans cette thèse, nous nous intéressons à l'étude de structures de communautés dans les réseaux. Nous contribuons dans les deux parties, analyse et détection de communautés. Dans la partie analyse de communautés, nos contributions sont l'étude des communautés dans les réseaux de communication et l'étude des communautés dans les services Web. D'une part, nous étudions l'émergence de communautés dans les réseaux de communication. Nous proposons une classification de structures de communautés émergées dans un réseau de communication donné. Nous modélisons les réseaux par les graphes et nous les caractérisons par un ensemble de paramètres. Nous concluons par une corrélation directe entre le réseau initial et les types de structures de communautés émergées. D'autre part, nous étudions les communautés dans les logs de services Web. Nous analysons les historiques d'exécution (les fichiers logs) afin de découvrir les protocoles métiers de services (séquences de messages échangés entre le service et le client pour aboutir à un but donné). Nous modélisons les logs par les graphes, et nous cherchons l'ensemble de conversations (communautés) issues de notre graphe de messages (le graphe de messages est un graphe induit du graphe de logs). Notre contribution dans la partie détection de communautés, est la proposition d'un algorithme de détection de communautés basé sur les motifs utilisant l'optimisation spectrale. Nous définissons une matrice de modularité motif (particulièrement, le triangle), et nous utilisons l'algorithme de décomposition et d'optimisation spectrale pour détecter les communautés basées sur des motifs. Nous montrons l'apport des communautés basées sur les motifs en appliquant notre algorithme sur des réseaux sociaux connus dans la littérature et en comparant les communautés basées sur les motifs trouvées avec les communautés classiques
The study of the sub-structure of complex networks is of major importance to relate topology and functionality. Understanding the modular units (communities) of graphs is of utmost importance to grasping knowledge about the functionality and performance of such systems. A community is defined as a group of nodes such that connections between the nodes are denser than connections with the rest of the network. Generally, the members of one community share the same interest. Many efforts have been devoted to the analysis of the modular structure of networks. The most of these works are grouped into two parts: community detection and community analysis. Community detection consists on finding communities in networks whithout knowing there size and number. While the community analysis deals the study of the structural and semantic properties of the emerged communities, and the understanding of the functionality and the performance of the network. In this thesis, we are interested on the study of the community structures in networks. We give contributions in both community analysis and community detection parts. In the community analysis part, we study the communities of communication networks and the communities in web services. On the one hand, we study the community emergence in communication networks. We propose a classification of the emerged community structures in a given network. We model the networks by graphs and we characterize them by some parameters (network size, network density, number of resources in the network, number of providers in the network, etc.). We give also a direct correlation between the network parameters and the emerged community structures. On the other hand, we study the communities in the web service logs. We aim to discover the business protocol of services (sequences of messages exchanged between the service and a client to achieve a given goal). We analyze the log files and we model them by graphs. In our final tree graph (message graph), the paths represent the conversations (communities). In the community detection part, the main goal of our contribution is to determine communities using as building blocks triangular motifs. We propose an approach for triangle community detection based on modularity optimization using the spectral algorithm decomposition and optimization. The resulting algorithm is able to identify efficiently the best partition in communities of triangles of any given network, optimizing their correspondent modularity function
Styles APA, Harvard, Vancouver, ISO, etc.
10

Fu, Wenhao. « Visual servoing for mobile robots navigation with collision avoidance and field-of-view constraints ». Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0019/document.

Texte intégral
Résumé :
Cette thèse porte sur le problème de la navigation basée sur la vision pour les robots mobiles dans les environnements intérieurs. Plus récemment, de nombreux travaux ont été réalisés pour résoudre la navigation à l'aide d'un chemin visuel, à savoir la navigation basée sur l'apparence. Cependant, en utilisant ce schéma, le mouvement du robot est limité au chemin visuel d'entrainement. Le risque de collision pendant le processus de navigation peut faire écarter le robot de la trajectoire visuelle courante, pour laquelle les repères visuels peuvent être perdus. Dans l'état de nos connaissances, les travaux envisagent rarement l'évitement des collisions et la perte de repère dans le cadre de la navigation basée sur l'apparence. Nous présentons un cadre mobile de navigation pour le robot afin de renforcer la capacité de la méthode basée sur l'apparence, notamment en cas d'évitement de collision et de contraintes de champ de vision. Notre cadre introduit plusieurs contributions techniques. Tout d'abord, les contraintes de mouvement sont considérés dans la détection de repère visuel pour améliorer la performance de détection. Ensuite, nous modélisons l'obstacle en utilisant B-Spline. La représentation de B-Spline n'a pas de régions accidentées et peut générer un mouvement fluide pour la tâche d'évitement de collision. En outre, nous proposons une stratégie de contrôle basée sur la vision, qui peut gérer la perte complète de la cible. Enfin, nous utilisons l'image sphérique pour traiter le cas des projections d'ambiguité et d'infini dus à la projection en perspective. Les véritables expériences démontrent la faisabilité et l'efficacité de notre cadre et de nos méthodes
This thesis is concerned with the problem of vision-based navigation for mobile robots in indoor environments. Many works have been carried out to solve the navigation using a visual path, namely appearance-based navigation. However, using this scheme, the robot motion is limited to the trained visual path. The potential collision during the navigation process can make robot deviate from the current visual path, in which the visual landmarks can be lost in the current field of view. To the best of our knowledge, seldom works consider collision avoidance and landmark loss in the framework of appearance-based navigation. We outline a mobile robot navigation framework in order to enhance the capability of appearance-based method, especially in case of collision avoidance and field-of-view constraints. Our framework introduces several technical contributions. First of all, the motion constraints are considered into the visual landmark detection to improve the detection performance. Next then, we model the obstacle boundary using B-Spline. The B-Spline representation has no accidented regions and can generate a smooth motion for the collision avoidance task. Additionally, we propose a vision-based control strategy, which can deal with the complete target loss. Finally, we use spherical image to handle the case of ambiguity and infinity projections due to perspective projection. The real experiments demonstrate the feasability and the effectiveness of our framework and methods
Styles APA, Harvard, Vancouver, ISO, etc.
11

Meziou, Tarak Najah. « Système réactif pour l'évitement des obstacles en robotique mobile : architecture d'un contrôle d'exécution assurant l'interaction du système et d'une planification globale ». Châtenay-Malabry, Ecole centrale de Paris, 1992. http://www.theses.fr/1992ECAP0249.

Texte intégral
Résumé :
Le domaine étudié dans cette thèse concerne la navigation autonome des robots mobiles dans un environnement d'intérieur supposé bidimensionnel et statique. Une méthode d'évitement des obstacles, permettant l'adaptation des mouvements du robot à la géométrie locale de l'environnement, a été développée. L’accent a été mis sur la nécessité d'un niveau dédié au contrôle d'exécution assurant l'interface entre un planificateur global et un système d'exécution d'une part et les stratégies locales d'évitement des obstacles d'autre part. Le système réactif est basé sur le concept des contraintes cinématiques et la définition des contraintes géométriques. L’originalité de la méthode réside dans la séparation de la tache de génération de consigne qui asservit le robot à des trajectoires de référence, de celle d'évitement des obstacles. Cette séparation permet au robot d'exécuter le mieux possible les différentes étapes du plan et de s'adapter à la géométrie locale de l'environnement. La détection des cas d'échecs de navigation locale est prise en compte explicitement dans les algorithmes du système réactif. Le recouvrement de ces échecs est effectué par un module rattaché au niveau de contrôle d'exécution. La méthode proposée est basée sur une recherche aveugle dans un arbre construit au cours de la mission. En ce qui concerne le niveau de contrôle d'exécution, l'étude réalisée est constituée principalement d'une spécification fonctionnelle qui pourrait servir de cadre de développements futurs. La dernière partie de la thèse présente les résultats de notre étude testée et validée par simulation.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Akrout, Rim. « Analyse de vulnérabilités et évaluation de systèmes de détection d'intrusions pour les applications Web ». Phd thesis, INSA de Toulouse, 2012. http://tel.archives-ouvertes.fr/tel-00782565.

Texte intégral
Résumé :
Avec le développement croissant d'Internet, les applications Web sont devenues de plus en plus vulnérables et exposées à des attaques malveillantes pouvant porter atteinte à des propriétés essentielles telles que la confidentialité, l'intégrité ou la disponibilité des systèmes d'information. Pour faire face à ces malveillances, il est nécessaire de développer des mécanismes de protection et de test (pare feu, système de détection d'intrusion, scanner Web, etc.) qui soient efficaces. La question qui se pose est comment évaluer l'efficacité de tels mécanismes et quels moyens peut-on mettre en oeuvre pour analyser leur capacité à détecter correctement des attaques contre les applications web. Dans cette thèse nous proposons une nouvelle méthode, basée sur des techniques de clustering de pages Web, qui permet d'identifier les vulnérabilités à partir de l'analyse selon une approche boîte noire de l'application cible. Chaque vulnérabilité identifiée est réellement exploitée ce qui permet de s'assurer que la vulnérabilité identifiée ne correspond pas à un faux positif. L'approche proposée permet également de mettre en évidence différents scénarios d'attaque potentiels incluant l'exploitation de plusieurs vulnérabilités successives en tenant compte explicitement des dépendances entre les vulnérabilités. Nous nous sommes intéressés plus particulièrement aux vulnérabilités de type injection de code, par exemple les injections SQL. Cette méthode s'est concrétisée par la mise en oeuvre d'un nouveau scanner de vulnérabilités et a été validée expérimentalement sur plusieurs exemples d'applications vulnérables. Nous avons aussi développé une plateforme expérimentale intégrant le nouveau scanner de vulnérabilités, qui est destinée à évaluer l'efficacité de systèmes de détection d'intrusions pour des applicationsWeb dans un contexte qui soit représentatif des menaces auxquelles ces applications seront confrontées en opération. Cette plateforme intègre plusieurs outils qui ont été conçus pour automatiser le plus possible les campagnes d'évaluation. Cette plateforme a été utilisée en particulier pour évaluer deux techniques de détection d'intrusions développées par nos partenaires dans le cadre d'un projet de coopération financé par l'ANR, le projet DALI.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Gastellier-Prevost, Sophie. « Vers une détection des attaques de phishing et pharming côté client ». Phd thesis, Institut National des Télécommunications, 2011. http://tel.archives-ouvertes.fr/tel-00699627.

Texte intégral
Résumé :
Le développement de l'Internet à haut débit et l'expansion du commerce électronique ont entraîné dans leur sillage de nouvelles attaques qui connaissent un vif succès. L'une d'entre elles est particulièrement sensible dans l'esprit collectif : celle qui s'en prend directement aux portefeuilles des Internautes. Sa version la plus répandue/connue est désignée sous le terme phishing. Majoritairement véhiculée par des campagnes de spam, cette attaque vise à voler des informations confidentielles (p.ex. identifiant, mot de passe, numéro de carte bancaire) aux utilisateurs en usurpant l'identité de sites marchands et/ou bancaires. Au fur et à mesure des années, ces attaques se sont perfectionnées jusqu'à proposer des sites webs contrefaits qui visuellement - hormis l'URL visitée - imitent à la perfection les sites originaux. Par manque de vigilance, bon nombre d'utilisateurs communiquent alors - en toute confiance - des données confidentielles. Dans une première partie de cette thèse, parmi les moyens de protection/détection existants face à ces attaques, nous nous intéressons à un mécanisme facile d'accès pour l'Internaute : les barres d'outils anti-phishing, à intégrer dans le navigateur web. La détection réalisée par ces barres d'outils s'appuie sur l'utilisation de listes noires et tests heuristiques. Parmi l'ensemble des tests heuristiques utilisés (qu'ils portent sur l'URL ou le contenu de la page web), nous cherchons à évaluer leur utilité et/ou efficacité à identifier/différencier les sites légitimes des sites de phishing. Ce travail permet notamment de distinguer les heuristiques décisifs, tout en discutant de leur pérennité. Une deuxième variante moins connue de cette attaque - le pharming - peut être considérée comme une version sophistiquée du phishing. L'objectif de l'attaque reste identique, le site web visité est tout aussi ressemblant à l'original mais - a contrario du phishing - l'URL visitée est cette fois-ci elle aussi totalement identique à l'originale. Réalisées grâce à une corruption DNS amont, ces attaques ont l'avantage de ne nécessiter aucune action de communication de la part de l'attaquant : celui-ci n'a en effet qu'à attendre la visite de l'Internaute sur son site habituel. L'absence de signes "visibles" rend donc l'attaque perpétrée particulièrement efficace et redoutable, même pour un Internaute vigilant. Certes les efforts déployés côté réseau sont considérables pour répondre à cette problématique. Néanmoins, le côté client y reste encore trop exposé et vulnérable. Dans une deuxième partie de cette thèse, par le développement de deux propositions visant à s'intégrer dans le navigateur client, nous introduisons une technique de détection de ces attaques qui couple une analyse de réponses DNS à une comparaison de pages webs. Ces deux propositions s'appuient sur l'utilisation d'éléments de référence obtenus via un serveur DNS alternatif, leur principale différence résidant dans la technique de récupération de la page web de référence. Grâce à deux phases d'expérimentation, nous démontrons la viabilité du concept proposé.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Liu, Jian. « Contribution à l'étude et à la réalisation d'un système de détection et de localisation en ligne des pannes franches d'un robot ou télémanipulateur ». Aix-Marseille 3, 1988. http://www.theses.fr/1988AIX30065.

Texte intégral
Résumé :
Proposition d'une methode de test en ligne des systemes asservis analogiques permettant de mettre en oeuvre detection et localisation en temps reels des pannes franches de systemes polyarticules (robot, telemanipulateur, machine-outil. . . ). Cette methode s'appuie sur une description topologique du systeme et utilise le principe de la sensibilite des chemins
Styles APA, Harvard, Vancouver, ISO, etc.
15

Majorczyk, Frédéric. « Détection d'intrusions comportementale par diversification de COTS : application au cas des serveurs web ». Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00355366.

Texte intégral
Résumé :
L'informatique et en particulier l'Internet jouent un rôle grandissant dans notre société. Un grand nombre d'applications critiques d'un point de vue de leur sécurité sont déployées dans divers domaines comme le domaine militaire, la santé, le commerce électronique, etc. La sécurité des systèmes informatiques devient alors une problématique essentielle tant pour les individus que pour les entreprises ou les états. Il est donc important de définir une politique de sécurité pour ces systèmes et de veiller à son respect. Néanmoins les mécanismes de sécurité préventifs mis en place ne sont pas incontournables. Il est nécessaire de mettre en œuvre des outils permettant de détecter toute violation de la politique de sécurité, c'est-à-dire toute intrusion. Ces outils sont appelés des systèmes de détection d'intrusions ou IDS. Souvent en collaboration avec les IDS, il est possible de mettre en place des outils et techniques de tolérance aux intrusions. Ces outils et techniques ont pour objectif que les intrusions affectant un composant du système n'entrainent pas de violations de la politique de sécurité du système global.
Notre travail s'inscrit dans le domaine de la détection d'intrusions, de manière essentielle, et permet une certaine tolérance aux intrusions. Contrairement aux méthodes de détection classiques en détection comportementale pour lesquelles il est nécessaire de définir et construire un modèle de référence du comportement de l'entité surveillée, nous avons suivi une méthode issue de la sureté de fonctionnement fondée sur la programmation N-versions pour laquelle le modèle de référence est implicite et est constitué par les autres logiciels constituant l'architecture. Nous proposons l'utilisation de COTS en remplacement des versions spécifiquement développées car développer N-versions est couteux et est réservé à des systèmes critiques du point de vue de la sécurité-innocuité. D'autres travaux et projets ont proposé des architectures fondées sur ces idées. Nos contributions se situent à différents niveaux. Nous avons pris en compte dans notre modèle général de détection d'intrusions les spécificités liées à l'utilisation de COTS en lieu et place de versions spécifiquement développées et proposé deux solutions pour parer aux problèmes induits par ces spécificités. Nous avons proposé deux approches de détection d'intrusions fondées sur cette architecture : l'une suivant une approche de type boite noire et l'autre suivant une approche de type boite grise. Notre méthode de type boite grise peut, en outre, aider l'administrateur de sécurité à effectuer un premier diagnostic des alertes. Nous avons réalisé une implémentation de ces deux approches dans le cadre des serveurs web et avons évalué pratiquement la pertinence et de la fiabilité de ces deux IDS.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Hossen, Karim. « Inférence automatique de modèles d'applications Web et protocoles pour la détection de vulnérabilités ». Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM077/document.

Texte intégral
Résumé :
Les approches de tests basées sur les modèles (MBT) ont su montrer leur efficacité pour le test logiciel, mais elles nécessitent de disposer au préalable d'un modèle formel du logiciel. Dans la plupart des cas, ce modèle n'est pas disponible pour des raisons de coût, de temps ou encore de droits. Dans le cadre du projet SPaCIoS qui vise à développer une plate-forme pour le test de la sécurité basé sur les modèles, l'objectif est de fournir un outil d'inférence automatique de modèle pour les applications Web ainsi que des méthodes de détection de vulnérabilités à partir de ce modèle. Nous avons conçu pour cela un algorithme d'inférence adapté aux applications Web et à leurs caractéristiques. Cette méthode prend en compte les données et leurs impacts sur le flot de contrôle. À l'aide d'algorithmes de fouille de données, le modèle est complété par des gardes ainsi que des fonctions de sortie. Nous avons aussi travaillé sur l'automatisation de la procédure d'inférence. Dans les approches d'inférence active, il est généralement nécessaire de connaître l'interface complète du système à inférer pour pouvoir communiquer avec l'application. Cette étape a été rendue automatique par l'utilisation d'un collecteur qui parcourt l'application pour en extraire les informations nécessaires et optimisées pour l'inférence. Ce collecteur est aussi utilisable par des méthodes d'inférence tierces. Dans la version complète de l'algorithme, nous avons fusionné l'algorithme d'inférence et celui d'extraction d'interfaces pour obtenir une méthode automatique. Nous présentons ensuite l'outil libre SIMPA qui implémente ces différents algorithmes ainsi que divers résultats obtenus sur les cas d'études du projet SPaCIoS ainsi que des protocoles
In the last decade, model-based testing (MBT) approaches have shown their efficiency in the software testing domain but a formal model of the system under test (SUT) is required and, most of the time, not available for several reasons like cost, time or rights. The goal of the SPaCIoS project is to develop a security testing tool using MBT approach. The goal of this work, funded by the SPaCIoS project, is to develop and implement a model inference method for Web applications and protocols. From the inferred model, vulnerability detection can be done following SPaCIoS model-checking method or by methods we have developed. We developed an inference algorithm adapted to Web applications and their properties. This method takes into account application data and their influence on the control flow. Using data mining algorithms, the inferred model is refined with optimized guards and output functions. We also worked on the automation of the inference. In active learning approaches, it is required to know the complete interface of the system in order to communicate with it. As this step can be time-consuming, this step has been made automatic using crawler and interface extraction method optimized for inference. This crawler is also available as standalone for third-party inference tools. In the complete inference algorithm, we have merged the inference algorithm and the interface extraction to build an automatic procedure. We present the free software SIMPA, containing the algorithms, and we show some of the results obtained on SPaCIoS case studies and protocols
Styles APA, Harvard, Vancouver, ISO, etc.
17

Majorczyk, Frédéric. « Détection d’intrusions comportementale par diversification de COTS : application au cas des serveurs web ». Rennes 1, 2008. https://tel.archives-ouvertes.fr/tel-00355366.

Texte intégral
Résumé :
La sécurité des systèmes informatiques est devenue une problématique essentielle. Il est important de définir une politique de sécurité pour ces systèmes et de veiller à son respect. Néanmoins les mécanismes de sécurité préventifs mis en place ne sont pas incontournables. Il est nécessaire de mettre en oeuvre des outils, appelés systèmes de détection d’intrusions ou IDS, permettant de détecter toute violation de la politique de sécurité, c’est-à-dire toute intrusion. Il est également possible de mettre en place des outils et techniques de tolérance aux intrusions. Notre travail s’inscrit dans le domaine de la détection d’intrusions et permet une certaine tolérance aux intrusions. Contrairement aux IDS comportementaux classiques pour lesquels il est nécessaire de construire un modèle de référence du comportement de l’entité surveillée, nous avons suivi une méthode issue de la sûreté de fonctionnement fondée sur la programmation N-versions pour laquelle le modèle de référence est implicite et est constitué par les autres logiciels constituant l’architecture. Nous proposons l’utilisation de COTS en remplacement des versions spécifiquement développées. Nos contributions se situent à différents niveaux. Nous avons pris en compte dans notre modèle général de détection les spécificités liées à l’utilisation de COTS et proposé des solutions pour parer aux problèmes induits par celles-ci. Nous avons proposé deux approches de détection fondées sur cette architecture : une approche de type boîte noire et une de type boîte grise. Nous avons implémenté ces deux approches dans le cadre des serveurs web et avons évalué pratiquement la pertinence et la fiabilité de ces deux IDS
Information systems’ security is a fundamental issue. It is necessary to define a security policy for these systems and check that it is not violated. Preventive security mechanisms are generally insufficient. Intrusion detection systems (IDSes) can be used to detect violations of the security policy, that is intrusions. Intrusion tolerance tools and techniques can also be used. Our work is in the intrusion detection field and allows some intrusion tolerance. In classical anomaly-based approaches, it is necessary to build a behavioral model of the observed entity. To the contrary, in our approach, the behavioral model is implicit and is composed by the other software components in the architecture. This approach comes from the dependability field and is based on N-versions programming. We propose using COTS instead of specifically developped versions. Using COTS introduces some issues that we have taken into account in our general intrusion detection model. We have proposed solutions to bypass these issues. We have proposed two intrusion detection approaches based on this architecture : the first one following a black-box approach and the second one following a graybox approach. We have applied these approaches to web servers and evaluated the false positive and true positive rates of our IDSes
Styles APA, Harvard, Vancouver, ISO, etc.
18

Makiou, Abdelhamid. « Sécurité des applications Web : Analyse, modélisation et détection des attaques par apprentissage automatique ». Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0084/document.

Texte intégral
Résumé :
Les applications Web sont l’épine dorsale des systèmes d’information modernes. L’exposition sur Internet de ces applications engendre continuellement de nouvelles formes de menaces qui peuvent mettre en péril la sécurité de l’ensemble du système d’information. Pour parer à ces menaces, il existe des solutions robustes et riches en fonctionnalités. Ces solutions se basent sur des modèles de détection des attaques bien éprouvés, avec pour chaque modèle, des avantages et des limites. Nos travaux consistent à intégrer des fonctionnalités de plusieurs modèles dans une seule solution afin d’augmenter la capacité de détection. Pour atteindre cet objectif, nous définissons dans une première contribution, une classification des menaces adaptée au contexte des applications Web. Cette classification sert aussi à résoudre certains problèmes d’ordonnancement des opérations d’analyse lors de la phase de détection des attaques. Dans une seconde contribution, nous proposons une architecture de filtrage des attaques basée sur deux modèles d’analyse. Le premier est un module d’analyse comportementale, et le second utilise l’approche d’inspection par signature. Le principal défi à soulever avec cette architecture est d’adapter le modèle d’analyse comportementale au contexte des applications Web. Nous apportons des réponses à ce défi par l’utilisation d’une approche de modélisation des comportements malicieux. Ainsi, il est possible de construire pour chaque classe d’attaque son propre modèle de comportement anormal. Pour construire ces modèles, nous utilisons des classifieurs basés sur l’apprentissage automatique supervisé. Ces classifieurs utilisent des jeux de données d’apprentissage pour apprendre les comportements déviants de chaque classe d’attaques. Ainsi, un deuxième verrou en termes de disponibilité des données d’apprentissage a été levé. En effet, dans une dernière contribution, nous avons défini et conçu une plateforme de génération automatique des données d’entrainement. Les données générées par cette plateforme sont normalisées et catégorisées pour chaque classe d’attaques. Le modèle de génération des données d’apprentissage que nous avons développé est capable d’apprendre "de ses erreurs" d’une manière continue afin de produire des ensembles de données d’apprentissage de meilleure qualité
Web applications are the backbone of modern information systems. The Internet exposure of these applications continually generates new forms of threats that can jeopardize the security of the entire information system. To counter these threats, there are robust and feature-rich solutions. These solutions are based on well-proven attack detection models, with advantages and limitations for each model. Our work consists in integrating functionalities of several models into a single solution in order to increase the detection capacity. To achieve this objective, we define in a first contribution, a classification of the threats adapted to the context of the Web applications. This classification also serves to solve some problems of scheduling analysis operations during the detection phase of the attacks. In a second contribution, we propose an architecture of Web application firewall based on two analysis models. The first is a behavioral analysis module, and the second uses the signature inspection approach. The main challenge to be addressed with this architecture is to adapt the behavioral analysis model to the context of Web applications. We are responding to this challenge by using a modeling approach of malicious behavior. Thus, it is possible to construct for each attack class its own model of abnormal behavior. To construct these models, we use classifiers based on supervised machine learning. These classifiers use learning datasets to learn the deviant behaviors of each class of attacks. Thus, a second lock in terms of the availability of the learning data has been lifted. Indeed, in a final contribution, we defined and designed a platform for automatic generation of training datasets. The data generated by this platform is standardized and categorized for each class of attacks. The learning data generation model we have developed is able to learn "from its own errors" continuously in order to produce higher quality machine learning datasets
Styles APA, Harvard, Vancouver, ISO, etc.
19

Makiou, Abdelhamid. « Sécurité des applications Web : Analyse, modélisation et détection des attaques par apprentissage automatique ». Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0084.

Texte intégral
Résumé :
Les applications Web sont l’épine dorsale des systèmes d’information modernes. L’exposition sur Internet de ces applications engendre continuellement de nouvelles formes de menaces qui peuvent mettre en péril la sécurité de l’ensemble du système d’information. Pour parer à ces menaces, il existe des solutions robustes et riches en fonctionnalités. Ces solutions se basent sur des modèles de détection des attaques bien éprouvés, avec pour chaque modèle, des avantages et des limites. Nos travaux consistent à intégrer des fonctionnalités de plusieurs modèles dans une seule solution afin d’augmenter la capacité de détection. Pour atteindre cet objectif, nous définissons dans une première contribution, une classification des menaces adaptée au contexte des applications Web. Cette classification sert aussi à résoudre certains problèmes d’ordonnancement des opérations d’analyse lors de la phase de détection des attaques. Dans une seconde contribution, nous proposons une architecture de filtrage des attaques basée sur deux modèles d’analyse. Le premier est un module d’analyse comportementale, et le second utilise l’approche d’inspection par signature. Le principal défi à soulever avec cette architecture est d’adapter le modèle d’analyse comportementale au contexte des applications Web. Nous apportons des réponses à ce défi par l’utilisation d’une approche de modélisation des comportements malicieux. Ainsi, il est possible de construire pour chaque classe d’attaque son propre modèle de comportement anormal. Pour construire ces modèles, nous utilisons des classifieurs basés sur l’apprentissage automatique supervisé. Ces classifieurs utilisent des jeux de données d’apprentissage pour apprendre les comportements déviants de chaque classe d’attaques. Ainsi, un deuxième verrou en termes de disponibilité des données d’apprentissage a été levé. En effet, dans une dernière contribution, nous avons défini et conçu une plateforme de génération automatique des données d’entrainement. Les données générées par cette plateforme sont normalisées et catégorisées pour chaque classe d’attaques. Le modèle de génération des données d’apprentissage que nous avons développé est capable d’apprendre "de ses erreurs" d’une manière continue afin de produire des ensembles de données d’apprentissage de meilleure qualité
Web applications are the backbone of modern information systems. The Internet exposure of these applications continually generates new forms of threats that can jeopardize the security of the entire information system. To counter these threats, there are robust and feature-rich solutions. These solutions are based on well-proven attack detection models, with advantages and limitations for each model. Our work consists in integrating functionalities of several models into a single solution in order to increase the detection capacity. To achieve this objective, we define in a first contribution, a classification of the threats adapted to the context of the Web applications. This classification also serves to solve some problems of scheduling analysis operations during the detection phase of the attacks. In a second contribution, we propose an architecture of Web application firewall based on two analysis models. The first is a behavioral analysis module, and the second uses the signature inspection approach. The main challenge to be addressed with this architecture is to adapt the behavioral analysis model to the context of Web applications. We are responding to this challenge by using a modeling approach of malicious behavior. Thus, it is possible to construct for each attack class its own model of abnormal behavior. To construct these models, we use classifiers based on supervised machine learning. These classifiers use learning datasets to learn the deviant behaviors of each class of attacks. Thus, a second lock in terms of the availability of the learning data has been lifted. Indeed, in a final contribution, we defined and designed a platform for automatic generation of training datasets. The data generated by this platform is standardized and categorized for each class of attacks. The learning data generation model we have developed is able to learn "from its own errors" continuously in order to produce higher quality machine learning datasets
Styles APA, Harvard, Vancouver, ISO, etc.
20

Balde, Mamadou Habib. « Contribution à l'étude de l'assemblage et des robots parallèles : application à l'assemblage d'éléments complexes ». Paris 11, 1989. http://www.theses.fr/1989PA112417.

Texte intégral
Résumé :
Cette thèse traite des problèmes d’assemblage et de robots parallèles. Le premier chapitre propose une définition des tâches d’assemblage et analyse ensuite la classification des tâches d’assemblage proposée par KONDELEON et puis nous élaborons une nouvelle. La classification de KONDELEON permet en effet de présenter les techniques et outils qui ont été développés pour résoudre essentiellement les solutions qui s’apparentent au problème canonique d’insertion d’une pige dans un alésage. Notre classification basée sur l’adaptabilité utile associe les classes de tâches aux techniques et outils pour leur mise en œuvre. Dans cette optique, nous montrons la bonne adéquation entre les robots parallèles et les tâches d’assemblage notamment celles à adaptabilité de courte distance. Les second et troisième chapitres sont basés sur la classe de tâche à adaptabilité de courte distance. Après avoir présenté les robots parallèles, notamment ceux réalisés au LIMRO, nous présentons deux applications d’assemblage d’éléments complexes sur une carrosserie d’automobile. Nous élaborons par la suite un modèle géométrique fin pour les robots parallèles à liaison C5. Le troisième chapitre traite de la détermination des efforts, condition nécessaire dans le cas d’assemblage d’éléments fragiles. Cette détermination des efforts par la mesure des courants moteurs a été effectuée sur un robot parallèle et sur un robot classique mais la méthode s’avère inadaptée pour le robot parallèle.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Zhang, Zhongkai. « Vision-based calibration, position control and force sensing for soft robots ». Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I001/document.

Texte intégral
Résumé :
La modélisation de robots souples est extrêmement difficile, à cause notamment du nombre théoriquement infini des degrés de liberté. Cette difficulté est accentuée lorsque les robots ont des configurations complexes. Ce problème de modélisation entraîne de nouveaux défis pour la calibration et la conception des commandes des robots, mais également de nouvelles opportunités avec de nouvelles stratégies de détection de force possibles. Cette thèse a pour objectif de proposer des solutions nouvelles et générales utilisant la modélisation et la vision. La thèse présente dans un premier temps un modèle cinématique à temps discret pour les robots souples reposant sur la méthode des éléments finis (FEM) en temps réel. Ensuite, une méthode de calibration basée sur la vision du système de capteur-robot et des actionneurs est étudiée. Deux contrôleurs de position en boucle fermée sont conçus. En outre, pour traiter le problème de la perte d'image, une stratégie de commande commutable est proposée en combinant à la fois le contrôleur à boucle ouverte et le contrôleur à boucle fermée. Deux méthodes (avec et sans marqueur(s)) de détection de force externe pour les robots déformables sont proposées. L'approche est basée sur la fusion de mesures basées sur la vision et le modèle par FEM. En utilisant les deux méthodes, il est possible d'estimer non seulement les intensités, mais également l'emplacement des forces externes. Enfin, nous proposons une application concrète : un robot cathéter dont la flexion à l'extrémité est piloté par des câbles. Le robot est contrôlé par une stratégie de contrôle découplée qui permet de contrôler l’insertion et la flexion indépendamment, tout en se basant sur un modèle FEM
The modeling of soft robots which have, theoretically, infinite degrees of freedom, are extremely difficult especially when the robots have complex configurations. This difficulty of modeling leads to new challenges for the calibration and the control design of the robots, but also new opportunities with possible new force sensing strategies. This dissertation aims to provide new and general solutions using modeling and vision. The thesis at first presents a discrete-time kinematic model for soft robots based on the real-time Finite Element (FE) method. Then, a vision-based simultaneous calibration of sensor-robot system and actuators is investigated. Two closed-loop position controllers are designed. Besides, to deal with the problem of image feature loss, a switched control strategy is proposed by combining both the open-loop controller and the closed-loop controller. Using soft robot itself as a force sensor is available due to the deformable feature of soft structures. Two methods (marker-based and marker-free) of external force sensing for soft robots are proposed based on the fusion of vision-based measurements and FE model. Using both methods, not only the intensities but also the locations of the external forces can be estimated.As a specific application, a cable-driven continuum catheter robot through contacts is modeled based on FE method. Then, the robot is controlled by a decoupled control strategy which allows to control insertion and bending independently. Both the control inputs and the contact forces along the entire catheter can be computed by solving a quadratic programming (QP) problem with a linear complementarity constraint (QPCC)
Styles APA, Harvard, Vancouver, ISO, etc.
22

Almanza, Ojeda Dora Luz. « Détection et suivi d'objets mobiles perçus depuis un capteur visuel embarqué ». Toulouse 3, 2011. http://thesesups.ups-tlse.fr/2339/.

Texte intégral
Résumé :
Cette thèse traite de la détection et du suivi d'objets mobiles dans un environnement dynamique, en utilisant une caméra embarquée sur un robot mobile. Ce sujet représente encore un défi important car on exploite uniquement la vision mono-caméra pour le résoudre. Nous devons détecter les objets mobiles dans la scène par une analyse de leurs déplacements apparents dans les images, en excluant le mouvement propre de la caméra. Dans une première étape, nous proposons une analyse spatio-temporelle de la séquence d'images, sur la base du flot optique épars. La méthode de clustering a contrario permet le groupement des points dynamiques, sans information a priori sur le nombre de groupes à former et sans réglage de paramètres. La réussite de cette méthode réside dans une accumulation suffisante des données pour bien caractériser la position et la vitesse des points. Nous appelons temps de pistage, le temps nécessaire pour acquérir les images analysées pour bien caractériser les points. Nous avons développé une carte probabiliste afin de trouver les zones dans l'image qui ont les probabilités la plus grandes de contenir un objet mobile. Cette carte permet la sélection active de nouveaux points près des régions détectées précédemment en permettant d'élargir la taille de ces régions. Dans la deuxième étape nous mettons en oeuvre une approche itérative pour exécuter détection, clustering et suivi sur des séquences d'images acquises depuis une caméra fixe en intérieur et en extérieur. Un objet est représenté par un contour actif qui est mis à jour de sorte que le modèle initial reste à l'intérieur du contour. Finalement nous présentons des résultats expérimentaux sur des images acquises depuis une caméra embarquée sur un robot mobile se déplaçant dans un environnement extérieur avec des objets mobiles rigides et non rigides. Nous montrons que la méthode est utilisable pour détecter des obstacles pendant la navigation dans un environnement inconnu a priori, d'abord pour des faibles vitesses, puis pour des vitesses plus réalistes après compensation du mouvement propre du robot dans les images
This dissertation concerns the detection and the tracking of mobile objets in a dynamic environment, using a camera embedded on a mobile robot. It is an important challenge because only a single camera is used to solve the problem. We must detect mobile objects in the scene, analyzing their apparent motions on images, excluding the motion caused by the ego-motion of the camera. First it is proposed a spatio-remporal analysis of the image sequence based on the sparse optical flow. The a contrario clustering method provides the grouping of dynamic points, without using a priori information and without parameter tuning. This method success is based on the accretion of sufficient information on positions and velocities of these points. We call tracking time, the time required in order to acquire images analyzed to provide the points characterization. A probabilistic map is built in order to find image areas with the higher probabilities to find a mobile objet; this map allows an active selection of new points close the previously detected mobile regions, making larger these regions. In a second step, it is proposed an iterative approach to perform the detection-clustering-tracking process on image sequences acquired from a fixed camera for indoor or outdoor applications. An object is described by an active contour, updated so that the initial object model remains inside the contour. Finally it is presented experimental results obtained on images acquired from a camera embedded on a mobile robot navigating in outdoor environments with rigid or non rigid mobile objects ; it is shown that the method works to detect obstacles during the navigation in a priori unknown environments, first with a weak speed, then with more a realistic speed, compensating the robot ego-motion in images
Styles APA, Harvard, Vancouver, ISO, etc.
23

Khireddine, Mohammed-Salah. « Contribution à l'étude et à la réalisation d'un système centralisé de détection et de localisation en ligne des pannes des asservissements d'un robot industriel ». Aix-Marseille 3, 1990. http://www.theses.fr/1990AIX30043.

Texte intégral
Résumé :
Dans ce memoire, l'auteur propose la generalisation de la methode de sensibilisation des chemins, utilisee pour le test des systemes digitaux, au test des systemes analogiques, ce qui lui permet de developper une methodologie de test capable de detecter et de localiser en ligne les pannes franches et les pannes deviantes d'un systeme analogique. Ces resultats sont appliques au developpement d'algorithmes de test des asservissements des axes d'un robot industriel. Une architecture centralisee originale a ete developpee autour d'un microcontroleur pour la realisation d'un systeme de detection et de localisation de panne adapte aux architectures de commande centralisee des robots actuels. Ces systeme a ete teste sur plusieurs robots (ericc, hitachi, staubli). Cette maquette a conduit a la realisation d'un detecteur industriel, le systeme depan, realise par la societe cybernetix
Styles APA, Harvard, Vancouver, ISO, etc.
24

Gastellier-Prevost, Sophie. « Vers une détection des attaques de phishing et pharming côté client ». Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2011. http://www.theses.fr/2011TELE0027.

Texte intégral
Résumé :
Le développement de l’Internet à haut débit et l’expansion du commerce électronique ont entraîné dans leur sillage de nouvelles attaques qui connaissent un vif succès. L’une d’entre elles est particulièrement sensible dans l’esprit collectif : celle qui s’en prend directement aux portefeuilles des Internautes. Sa version la plus répandue/connue est désignée sous le terme phishing. Majoritairement véhiculée par des campagnes de spam, cette attaque vise à voler des informations confidentielles (p.ex. identifiant, mot de passe, numéro de carte bancaire) aux utilisateurs en usurpant l’identité de sites marchands et/ou bancaires. Au fur et à mesure des années, ces attaques se sont perfectionnées jusqu’à proposer des sites webs contrefaits qui visuellement - hormis l’URL visitée - imitent à la perfection les sites originaux. Par manque de vigilance, bon nombre d’utilisateurs communiquent alors - en toute confiance - des données confidentielles. Dans une première partie de cette thèse, parmi les moyens de protection/détection existants face à ces attaques, nous nous intéressons à un mécanisme facile d’accès pour l’Internaute : les barres d’outils anti-phishing, à intégrer dans le navigateur web. La détection réalisée par ces barres d’outils s’appuie sur l’utilisation de listes noires et tests heuristiques. Parmi l’ensemble des tests heuristiques utilisés (qu’ils portent sur l’URL ou le contenu de la page web), nous cherchons à évaluer leur utilité et/ou efficacité à identifier/différencier les sites légitimes des sites de phishing. Ce travail permet notamment de distinguer les heuristiques décisifs, tout en discutant de leur pérennité. Une deuxième variante moins connue de cette attaque - le pharming - peut être considérée comme une version sophistiquée du phishing. L’objectif de l’attaque reste identique, le site web visité est tout aussi ressemblant à l’original mais - a contrario du phishing - l’URL visitée est cette fois-ci elle aussi totalement identique à l’originale. Réalisées grâce à une corruption DNS amont, ces attaques ont l’avantage de ne nécessiter aucune action de communication de la part de l’attaquant : celui-ci n’a en effet qu’à attendre la visite de l’Internaute sur son site habituel. L’absence de signes "visibles" rend donc l’attaque perpétrée particulièrement efficace et redoutable, même pour un Internaute vigilant. Certes les efforts déployés côté réseau sont considérables pour répondre à cette problématique. Néanmoins, le côté client y reste encore trop exposé et vulnérable. Dans une deuxième partie de cette thèse, par le développement de deux propositions visant à s’intégrer dans le navigateur client, nous introduisons une technique de détection de ces attaques qui couple une analyse de réponses DNS à une comparaison de pages webs. Ces deux propositions s’appuient sur l’utilisation d’éléments de référence obtenus via un serveur DNS alternatif, leur principale différence résidant dans la technique de récupération de la page web de référence. Grâce à deux phases d’expérimentation, nous démontrons la viabilité du concept proposé
The development of online transactions and "always-connected" broadband Internet access is a great improvement for Internet users, who can now benefit from easy access to many services, regardless of the time or their location. The main drawback of this new market place is to attract attackers looking for easy and rapid profits. One major threat is known as a phishing attack. By using website forgery to spoof the identity of a company that proposes financial services, phishing attacks trick Internet users into revealing confidential information (e.g. login, password, credit card number). Because most of the end-users check the legitimacy of a login website by looking at the visual aspect of the webpage displayed by the web browser - with no consideration for the visited URL or the presence and positioning of security components -, attackers capitalize on this weakness and design near-perfect copies of legitimate websites, displayed through a fraudulent URL. To attract as many victims as possible, most of the time phishing attacks are carried out through spam campaigns. One popular method for detecting phishing attacks is to integrate an anti-phishing protection into the web browser of the user (i.e. anti-phishing toolbar), which makes use of two kinds of classification methods : blacklists and heuristic tests. The first part of this thesis consists of a study of the effectiveness and the value of heuristics tests in differentiating legitimate from fraudulent websites. We conclude by identifying the decisive heuristics as well as discussing about their life span. In more sophisticated versions of phishing attacks - i.e. pharming attacks -, the threat is imperceptible to the user : the visited URL is the legitimate one and the visual aspect of the fake website is very similar to the original one. As a result, pharming attacks are particularly effective and difficult to detect. They are carried out by exploiting DNS vulnerabilities at the client-side, in the ISP (Internet Service Provider) network or at the server-side. While many efforts aim to address this problem in the ISP network and at the server-side, the client-side remains excessively exposed. In the second part of this thesis, we introduce two approaches - intended to be integrated into the client’s web browser - to detect pharming attacks at the client-side. These approaches combine both an IP address check and a webpage content analysis, performed using the information provided by multiple DNS servers. Their main difference lies in the method of retrieving the webpage which is used for the comparison. By performing two sets of experimentations, we validate our concept
Styles APA, Harvard, Vancouver, ISO, etc.
25

FRANCIS, SHINCE. « REMOTE ADMINISTRATION OF AN AUTONOMOUS GUIDED VEHICLE THROUGH WEB BASED WIRELESS INTERFACES ». University of Cincinnati / OhioLINK, 2003. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1060185932.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
26

Idrissi, Saïd. « Contribution à l'étude et à la réalisation d'un système de détection et de localisation en ligne des pannes d'un axe intelligent intégrable dans une architecture robotique totalement décentralisée ». Aix-Marseille 3, 1989. http://www.theses.fr/1989AIX30072.

Texte intégral
Résumé :
La presente etude est une contribution a l'amelioration de la disponibilite et de la securite des systemes de production automatises en particulier des systemes robotiques. La detection automatique des pannes de tels systemes est necessaire afin d'assurer leur mise en securite et/ou leur reconfiguration en presence de pannes. Apres avoir presente le modele fonctionnel d'un systeme robotique, l'auteur utilise le concept de decentralisation pour mettre en evidence les proprietes d'un axe integre intelligent (a. I. I. ) et proposer les approches d'integration du mecanisme de test en ligne dans ce dernier. L'etude des differents types de pannes d'un a. I. I. Et des techniques generalement utilisees pour ameliorer la surete de fonctionnement des systemes automatises, fait apparaitre la necessite d'une surveillance accrue des elements de la partie operative. L'auteur propose pour le test de ces elements une methode originale qui s'appuie sur une description topologique du systeme et utilise le principe de la sensibilisation des itineraires. L'enregistrement et l'organisation des donnees caracteristiques du vecu de chaque a. I. I. Du robot constituent un element d'aide a la maintenance. L'auteur montre enfin, que l'ensemble de ces resultats a conduit a la realisation et a l'experimentation d'un detecteur de pannes d'un axe intelligent integrable dans une architecture robotique totalement decentralisee
Styles APA, Harvard, Vancouver, ISO, etc.
27

Legaspi, Ramos Xurxo. « Scraping Dynamic Websites for Economical Data : A Framework Approach ». Thesis, Linnéuniversitetet, Institutionen för datavetenskap (DV), 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-57070.

Texte intégral
Résumé :
Internet is a source of live data that is constantly updating with data of almost anyfield we can imagine. Having tools that can automatically detect these updates andcan select that information that we are interested in are becoming of utmost importancenowadays. That is the reason why through this thesis we will focus on someeconomic websites, studying their structures and identifying a common type of websitein this field: Dynamic Websites. Even when there are many tools that allow toextract information from the internet, not many tackle these kind of websites. Forthis reason we will study and implement some tools that allow the developers to addressthese pages from a different perspective.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Granata, Consuelo. « CONTRIBUTION A LA CONCEPTION D'INTERFACES ET DE COMPORTEMENTS INTERACTIFS POUR DES ROBOTS PERSONNELS ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00684772.

Texte intégral
Résumé :
Ce travail de thèse s'inscrit dans le contexte d'un certain nombre de projets qui visent la conception, le développement et l'évaluation de systèmes robotiques mobiles pour l'autonomie des personnes à domicile. Deux aspects complémentaires mais néanmoins distincts sont considérés dans ce travail de thèse: 1. La définition d'une interface graphique qui permet aux utilisateurs d'accéder aisément aux fonctionnalités du robot ; 2. La mobilité du système, portant cette interface, dans des environnements intérieurs encombrés, relativement à la personne et dans un certain contexte. Le type d'interface proposée pour l'interaction est un aspect très important notamment en raison de la population cible : des séniors, non experts, souffrants souvent de troubles cognitifs. Les règles générales pour la conception d'une interface sont indépendantes de la technologie et doivent s'inspirées des principes relevant de la psychologie cognitive et des sciences sociales. Afin de rendre l'interface du robot parfaitement adaptée à chaque utilisateur, une méthode de sélection d'icônes a été proposée et expérimentée avec les patients de l'hôpital gériatrique Broca. Les problèmes relatifs à la mobilité autonome du support de l'interface sont particulièrement complexes. Ils reposent sur deux questions centrales qui sont d'une part la localisation de la personne dans l'espace d'évolution du robot et d'autre part la définition de comportements d'interaction. Pour la détection et la localisation de la personne, un détecteur des jambes par laser 2D a été implémenté. La vitesse de la personne et sa trajectoire sont calculées en appliquant un filtre de Kalman étendu sur les données issues du laser. Pour répondre au besoin de donner au robot un comportement flexible par rapport à l'utilisateur, au contexte et aux événements qui se produisent de façon imprévisible, nous avons implémenté un moteur de décision exploitant le logiciel SpirOps. Les entrées de ce moteur décisionnel sont des informations extraites des différents capteurs. Ces informations sont exploitées avec des méthodes de logique floue utilisant une base des règles que nous avons définie et paramétrée pour produire en sortie du moteur des valeurs d'intérêt associés à chaque action que le robot peut exécuter. Le robot peut alors décider dynamiquement quelle est l'action la plus logique et adéquate à réaliser dans les différentes situations.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Aït-Bachir, Ali. « ArchiMed : un canevas pour la détection et la résolution des incompatibilités des conversations entre services web ». Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00351255.

Texte intégral
Résumé :
La technologie des services web est aujourd'hui largement utilisée comme support de l'interopérabilité entre les applications. Dans ce cadre, les interactions entre deux applications encapsulées par des services web sont réalisées par le biais d'un ensemble d'échanges de messages appelé conversation. Une conversation peut échouer parce que l'interface fournie d'un participant a été modifiée et n'est plus compatible avec celle requise par l'autre participant. L'étude rapportée dans cette thèse porte sur la réconciliation de telles conversations. La solution proposée est le canevas ArchiMed.
Dans un premier temps, une modélisation des interfaces comportementales par des automates est adoptée. Dans cette modélisation, seul le comportement externe (comportement observable) est considéré. En d'autres termes, il n'y a que les opérations d'envoi et de réception de messages qui sont décrites dans les interfaces. Une fois les interfaces comportementales décrites en automates, une étape de détection des incompatibilités entre les différentes définitions de l'interface d'un service est réalisée. La détection des incompatibilités est automatique et portent sur des changements élémentaires dans les interfaces qui sont : l'ajout, la suppression et la modification d'opérations. Une visualisation des incompatibilités entre les interfaces est rendue disponible.
Le canevas maintient les descriptions des versions successives de l'interface du service ainsi que l'ensemble minimal de médiateurs pour que les clients puissent interagir avec le service au travers de l'une de ses versions. A l'initiation d'une conversation par un client, si nécessaire, le canevas sélectionne parmi les médiateurs disponibles celui qui résoud les incompatibilités entre le client et le service. La sélection du médiateur est basée sur une mesure de similarité entre les interfaces afin de découvrir la description de l'interface fournie qui est conforme avec l'interface requise du client. La validation expérimentale du canevas, a été effectuée par le traitement d'une collection de tests qui contient les descriptions des interfaces comportementales des services. Une étude quantitative et comparative à des travaux similiaires est réalisée et montre l'apport significatif de notre proposition.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Aït-Bachir, Ali. « ArchiMed : un canevas pour la détection et la résolution des incompatibilités des conversations entre services web ». Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10206.

Texte intégral
Résumé :
La technologie des services web est aujourd'hui largement utilisée comme support de l'interopérabilité entre les applications. Dans ce cadre, les interactions entre deux applications encapsulées par des services web sont réalisées par le biais d'un ensemble d'échanges de messages appelé conversation. Une conversation peut échouer parce que l'interface fournie d'un participant a été modifiée et n'est plus compatible avec celle requise par l'autre participant. L'étude rapportée dans cette thèse porte sur la réconciliation de telles conversations. La solution proposée est le canevas ArchiMed. Dans un premier temps, une modélisation des interfaces comportementales par des automates est adoptée. Bans cette modélisation, seul le comportement externe (comportement observable) est considéré. Une fois les interfaces comportementales décrites en automates, une étape de détection des incompatibilités entre les différentes définitions de l'interface d'un service est réalisée. La détection des incompatibilités est automatique et portent sur des changements élémentaires dans les interfaces qui sont: l'ajout, la suppression et la modification d'opérations. Le canevas maintient les descriptions des versions successives de l'interface du service ainsi que l'ensemble minimal de médiateurs pour les clients puissent interagir avec le service au travers de l'une de ses versions. La sélection du médiateur est basée sur une mesure de similarité entre les interfaces afin de découvrir la description de l'interface fournie qui est conforme avec l'interface requise du client. La validation expérimentale du canevas, a été effectuée par le traitement d'une collection de tests
Web service interactions rely on message ex changes, modelling Web service aims at describing messages as weil from the structural point of view : as from the behavioural point of view. With this setting, a Web service's interface is defined as the set of messages it can receive and send, and the inter-dependencies between these messages. When a Web service evolves, its interface is more likely to be modified too. This leads to the situation where the provided interface of a service does not correspond to the one its partners expect. Ln this thesis, we introduce our techniques for the detection and the resolution of incompatibilities. Our contribution is the framework, namely ArchiMed. We analyse versions of a service interface in order to detect changes that cause clients using any of the earlier versions not to interact property with a i later version. We focus on behavioural incompatibilities and adopt the notion of simulation as a basis for determining if a new version of a service is 1 behaviourally compatible with a previous one. Our technique does not simply check if the new version of the service simulates the previous one, but: it goes on to identify other incompatibilities. The framework, has been tested on a collection of interfaces of standard business-to-business choreographies. The same service has to expose as many provided interfaces as collaborations it is involved in. This solution consists in supplying a mediator which is capable of matchmaking each of the required interfaces with the provided interface. The selection of the suitable mediator is based on the similarity measure between the provided interface an the required interface by the client
Styles APA, Harvard, Vancouver, ISO, etc.
31

Cazabet, Rémy. « Détection de communautés dynamiques dans des réseaux temporels ». Phd thesis, Université Paul Sabatier - Toulouse III, 2013. http://tel.archives-ouvertes.fr/tel-00874017.

Texte intégral
Résumé :
La détection de communautés dans les réseaux est aujourd'hui un domaine ayant donné lieu à une abondante littérature. Depuis les travaux de Girvan et Newman en 2002, des centaines de travaux ont été menés sur le sujet, notamment la proposition d'un nombre important d'algorithmes de plus en plus élaborés. Cependant, la majorité de ces travaux portent sur des communautés statiques dans des réseaux statiques. Or, beaucoup de réseaux de terrains sont en fait dynamiques, ils évoluent au cours du temps. L'apport principal de cette thèse est donc la conception d'un algorithme de détection de communautés dynamiques sur des réseaux temporels. Le manuscrit est découpé en quatre sections : La première est un état de l'art, où sont passés en revu les méthodes existantes pour la détection de communauté, statiques, dynamiques, avec et sans recouvrement. La seconde est la présentation de la solution que nous proposons : iLCD, un framework pour la détection de communautés dynamiques dans les réseaux temporels, ainsi que deux implémentations de ce framework. La troisième partie présente les travaux effectués pour valider iLCD sur le plan statique, c'est à dire valider que les communautés trouvées sont pertinentes comparées à d'autres algorithmes existant sur des réseaux statiques. Pour ce faire, nous proposons des idées originales, afin de pouvoir comparer des méthodes sur des graphes réels. Enfin, la dernière partie est consacrée à la validation de l'aspect dynamique d'iLCD. En effet, la dynamique introduit des données supplémentaires : l'apparition et la disparition de communautés, leur évolution en continue, ainsi que des opérations complexes, telles que la fusion ou la division de communautés au cours du temps. Ce sont ces aspects qui sont validés ici, en étudiant en détail les résultats obtenus sur des réseaux réels.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Hernandez, Nicolas. « Description et détection automatique de structures de texte ». Paris 11, 2004. http://www.theses.fr/2004PA112329.

Texte intégral
Résumé :
Les systèmes de recherche d'information ne sont pas adaptés pour une navigation intra-documentaire (résumé dynamique). Or celle-ci est souvent nécessaire pour évaluer la pertinence d'un document. Notre travail se situe dans une perspective de web sémantique. Notre objectif est d'enrichir les documents pour fournir aux systèmes, voire directement à l'utilisateur, des informations de description et d'organisation du contenu des documents. Les informations de nature descriptive concernent d'une part l'identification des expressions thématiques du discours, et d'autre part l'identification du type d'information sémantique ou rhétorique contenu dans une phrase donnée (par exemple la présentation du but de l'auteur, l'énonciation d'une définition, l'exposition d'un résultat, etc. ). L'identification des thèmes implémente deux approches distinctes l'une fondée sur la résolution d'anaphores, la seconde sur la construction de chaînes lexicales. En ce qui concerne l'identification des types d'information des phrases, nous proposons une méthode d'acquisition automatique de marques méta-discursives. L'objectif de détection de l'organisation du discours est envisagé selon deux approches. La première consiste à une analyse globale descendante du texte, en combinant une segmentation par cohésion lexicale, et un repérage de marques linguistiques de type introducteur de cadres (e. G. "En ce qui concerne X, En Corée, D'abord etc. "). La seconde approche vise une détection plus fine de l'organisation du discours en identifiant les relations de dépendance informationnelle entre les phrases (subordination et coordination)
Information Retrieval Systems are not well adapted for text browsing and visualization (dynamic summarization). But this one is always necessary for the user to evaluate the Information Retrieval (IR) systems are not well adapted for text browsing and visualization (dynamic summarization). But this is always necessary for users to evaluate the relevance of a document. Our work follows a Web Semantic perspective. We aim at annotating documents with abstract information about content description and discourse organization in order to create more abilities for IR systems. Descriptive information concerns both topic identification and semantic and rhetorical classification of text extracts (With information such as "Our aim is. . . ", "This paper deals with. . . "). We implement a system to identify topical linguistic expressions based on a robust anaphora system and lexical chains building. We also propose a method in order to automatically acquire meta-discursive material. We perform the detection of the text structure thanks to two complementary approaches. The first one offers a top-down analysis based on the segmentation provided by lexical cohesion and by linguistic markers such as frame introducers. The second one is concerned by local text organization by the detection of informational relations (coordination and subordination) between subsequent sentences
Styles APA, Harvard, Vancouver, ISO, etc.
33

Brassard-Gourdeau, Éloi. « Toxicité et sentiment : comment l'étude des sentiments peut aider la détection de toxicité ». Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37564.

Texte intégral
Résumé :
La détection automatique de contenu toxique en ligne est un sujet très important aujourd’hui. Les modérateurs ne peuvent filtrer manuellement tous les messages et les utilisateurs trouvent constamment de nouvelles façons de contourner les filtres automatiques. Dans ce mémoire, j’explore l’impact que peut avoir la détection de sentiment pour améliorer trois points importants de la détection automatique de toxicité : détecter le contenu toxique de façon plus exacte ; rendre les filtres plus difficiles à déjouer et prédire les conversations les plus à risque. Les deux premiers points sont étudiés dans un premier article, où l’intuition principale est qu’il est plus difficile pour un utilisateur malveillant de dissimuler le sentiment d’un message que certains mots-clés à risque. Pour tester cette hypothèse, un outil de détection de sentiment est construit, puis il est utilisé pour mesurer la corrélation entre sentiment et toxicité. Par la suite, les résultats de cet outil sont utilisés comme caractéristiques pour entraîner un modèle de détection de toxicité, et le modèle est testé à la fois dans un contexte classique et un contexte où on simule des altérations aux messages faites par un utilisateur tentant de déjouer un filtre de toxicité. La conclusion de ces tests est que les informations de sentiment aident à la détection de toxicité, particulièrement dans un contexte où les messages sont modifiés. Le troisième point est le sujet d’un second article, qui a comme objectif de valider si les sentiments des premiers messages d’une conversation permettent de prédire si elle va dérailler. Le même outil de détection de sentiments est utilisé, en combinaison avec d’autres caractéristiques trouvées dans de précédents travaux dans le domaine. La conclusion est que les sentiments permettent d’améliorer cette tâche également.
Automatic toxicity detection of online content is a major research field nowadays. Moderators cannot filter manually all the messages that are posted everyday and users constantly find new ways to circumvent classic filters. In this master’s thesis, I explore the benefits of sentiment detection for three majors challenges of automatic toxicity detection: standard toxicity detection, making filters harder to circumvent, and predicting conversations at high risk of becoming toxic. The two first challenges are studied in the first article. Our main intuition is that it is harder for a malicious user to hide the toxic sentiment of their message than to change a few toxic keywords. To test this hypothesis, a sentiment detection tool is built and used to measure the correlation between sentiment and toxicity. Next, the sentiment is used as features to train a toxicity detection model, and the model is tested in both a classic and a subversive context. The conclusion of those tests is that sentiment information helps toxicity detection, especially when using subversion. The third challenge is the subject of our second paper. The objective of that paper is to validate if the sentiments of the first messages of a conversation can help predict if it will derail into toxicity. The same sentiment detection tool is used, in addition to other features developed in previous related works. Our results show that sentiment does help improve that task as well.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Goulet, Sylvain. « Techniques d'identification d'entités nommées et de classification non-supervisée pour des requêtes de recherche web à l'aide d'informations contenues dans les pages web visitées ». Mémoire, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5387.

Texte intégral
Résumé :
Le web est maintenant devenu une importante source d’information et de divertissement pour un grand nombre de personnes et les techniques pour accéder au contenu désiré ne cessent d’évoluer. Par exemple, en plus de la liste de pages web habituelle, certains moteurs de recherche présentent maintenant directement, lorsque possible, l’information recherchée par l’usager. Dans ce contexte, l’étude des requêtes soumises à ce type de moteur de recherche devient un outil pouvant aider à perfectionner ce genre de système et ainsi améliorer l’expérience d’utilisation de ses usagers. Dans cette optique, le présent document présentera certaines techniques qui ont été développées pour faire l’étude des requêtes de recherche web soumises à un moteur de recherche. En particulier, le travail présenté ici s’intéresse à deux problèmes distincts. Le premier porte sur la classification non-supervisée d’un ensemble de requêtes de recherche web dans le but de parvenir à regrouper ensemble les requêtes traitant d’un même sujet. Le deuxième problème porte quant à lui sur la détection non-supervisée des entités nommées contenues dans un ensemble de requêtes qui ont été soumises à un moteur de recherche. Les deux techniques proposées utilisent l’information supplémentaire apportée par la connaissance des pages web qui ont été visitées par les utilisateurs ayant émis les requêtes étudiées.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Cottret, Maxime. « Exploration visuelle d'environnement intérieur par détection et modélisation d'objets saillants ». Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2007. http://tel.archives-ouvertes.fr/tel-00289380.

Texte intégral
Résumé :
Un robot compagnon doit comprendre le lieu de vie de l'homme pour satisfaire une requête telle que "Va chercher un verre dans la cuisine" avec un haut niveau d'autonomie. Pour cela, le robot doit acquérir un ensemble de représentations adaptées aux différentes tâches à effectuer. Dans cette thèse, nous proposons d'apprendre en ligne un modèle d'apparence de structures locales qui pourront être nommées par l'utilisateur. Cela permettra ensuite de caractériser un lieu topologique (ex: la cuisine) par un ensemble de structures locales ou d'objets s'y trouvant (réfrigérateur, cafetière, evier, ...). Pour découvrir ces structures locales, nous proposons une approche cognitive, exploitant des processus visuels pré-attentif et attentif, mis en oeuvre à partir d'un système sensoriel multi-focal. Le processus pré-attentif a pour rôle la détection de zones d'intérêt, supposées contenir des informations visuelles discriminantes: basé sur le modèle de 'saillance' de Itti et Koch, il détecte ces zones dans une carte de saillance, construite à partir d'images acquises avec une caméra large champ; une zone détectée est ensuite suivie sur quelques images afin d'estimer grossièrement la taille et la position 3D de la structure locale de l'environnement qui lui correspond. Le processus attentif se focalise sur la zone d'intérêt: le but est de caractériser chaque structure locale, par un modèle d'apparence sous la forme de mémoires associatives vues-patches-aspects. De chaque image sont extraits des points d'intérêt, caractérisés par un descripteur d'apparence local. Après cette phase d'exploration, l'homme peut annoter le modèle en segmentant les structures locales en objets, en nommant ces objets et en les regroupant dans des zones (cuisine&). Ce modèle d'apparence sera ensuite exploité pour la reconnaissance et la localisation grossière des objets et des lieux perçus par le robot
Styles APA, Harvard, Vancouver, ISO, etc.
36

Le, Tallec Marc. « Compréhension de parole et détection des émotions pour robot compagnon ». Thesis, Tours, 2012. http://www.theses.fr/2012TOUR4044.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
37

Girond, Florian. « Mise en place d’un système d’information géographique pour la détection précoce et la prédiction des épidémies de paludisme à Madagascar ». Thesis, La Réunion, 2017. http://www.theses.fr/2017LARE0012/document.

Texte intégral
Résumé :
Cette thèse a permis la mise en place d’un système d’alerte précoce des épidémies de paludisme basé sur le système de surveillance sentinelle proposant différents seuils épidémiques et un modèle de prédiction. Les données collectées quotidiennement par SMS sont automatiquement stockées sur un serveur dédié. Concomitamment, le système acquiert systématiquement et de manière automatique des données satellitaires météorologiques sur chaque site sentinelle en lien avec les changements de prévalence du paludisme, tels que la température, les précipitations et l'indice de végétation (eng. NDVI). Une base de données des interventions contre le paludisme a également été créée. Ce système a déjà démontré sa capacité à détecter une épidémie de paludisme dans le sud-est du pays en 2014. Deuxièmement, nous avons réalisé une étude pour évaluer la relation entre la durée de l'efficacité de la campagne de masse des moustiquaires imprégnées d'insecticide à effet longue durée (MILD) et les épidémies de paludisme identifiées à Madagascar de 2009 à 2015 par le système de surveillance sentinelle. Cette étude a montré que la différence entre l'efficacité théorique et l’efficacité réelle peut entraîner des lacunes dans la couverture des services pendant les années suivantes, contribuant au rebond du paludisme et souligne la nécessité de mise en place de mécanisme de distribution continue de moustiquaires. Ce travail vise à maximiser l'utilité d'un système de surveillance sentinelle dans des milieux à ressources limitées, guider les changements dans l'orientation des programmes de lutte et fournir des exemples pratiques pour son utilisation dans d'autres systèmes ou contextes
We describe a Malaria Early Warning System (MEWS) using various epidemic thresholds and a forecasting component with the support of recent technologies to improve the performance of a sentinel MEWS. Malaria-related data from sentinel sites collected by Short Message Service are automatically stored in a database hosted on a server at Institut Pasteur de Madagascar. Concomitantly our system routinely and automatically acquires site specific satellite weather data related to changes in malaria prevalence such as temperature, rainfall and Normalized Difference Vegetation Index (NDVI). A Malaria Control Intervention data base has also been. This system has already demonstrated its ability to detect a malaria outbreak in southeastern part of Madagascar in 2014. In a second time, we conducted a study to assess the relationship between the effectiveness of mass campaign of long-lasting insecticidal nets (LLIN) over time and malaria outbreaks identified in Madagascar from 2009 to 2015 through the Sentinel surveillance system. This study showed that the difference between efficacy and effectiveness may result in gaps in service coverage during the subsequent years contributing to malaria rebound well before the replacement of the LLINs and highlights the need of continuous distribution mechanism of LLINs.This work aims to maximize the usefulness of a sentinel surveillance system to predict and detect epidemics in limited-resource environments, to guide any changes in the orientation of malaria control programs and to provide practical examples and suggestions for use in other systems or settings
Styles APA, Harvard, Vancouver, ISO, etc.
38

Azough, Ahmed. « Modèle sémantique de la vidéo pour la description, la détection et la recherche des événements visuels ». Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10055.

Texte intégral
Résumé :
Cette thèse consiste à explorer l'usage d'outils de support de la sémantique des données dans le domaine du multimédia. La première contribution concerne la génération de descriptions de haut-niveau. Nous proposons un langage de description de haut-niveau qui permet la définition d'événements et d'objets à partir de caractéristiques de bas-niveau. La deuxième contribution concerne l'exploration de certains types de raisonnement dans le contexte de la multimédia sémantique. Nous proposons un langage sémantique (fondé sur les graphes conceptuels flous) pour la description des vidéos et définissons des mécanismes de raisonnement sous-jacents. La troisième contribution porte sur l'indexation et la recherche sémantique dans les bases de données multimédia. Nous proposons un langage de requêtes issu des bases de données déductives pour l'expression de requêtes spatiotemporelles et sémantiques
This thesis is about to explore the use of tools to support semantics of data in the field of multimedia. The first contribution concerns the generation of high-level descriptions. We propose a description language that allows high-level definition of events and objects from low-level features. The second contribution is the exploration of certain types of uncertainty reasoning in the context of multimedia semantics. We propose a semantic language (based on fuzzy conceptual graphs) for descriptions of videos and define mechanisms underlying reasoning. The third contribution relates to the semantic indexing and retrieval in multimedia databases. We propose a query language from deductive databases for the expression of spatiotemporal and semantic queries
Styles APA, Harvard, Vancouver, ISO, etc.
39

Edouard, Amosse. « Détection et analyse d’événement dans les messages courts ». Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4079/document.

Texte intégral
Résumé :
Les réseaux sociaux ont transformé le Web d'un mode lecture, où les utilisateurs pouvaient seulement consommer les informations, à un mode interactif leur permettant de les créer, partager et commenter. Un défi majeur du traitement d'information dans les médias sociaux est lié à la taille réduite des contenus, leur nature informelle et le manque d'informations contextuelles. D'un autre côté, le web contient des bases de connaissances structurées à partir de concepts d'ontologies, utilisables pour enrichir ces contenus. Cette thèse explore le potentiel d'utiliser les bases de connaissances du Web de données, afin de détecter, classifier et suivre des événements dans les médias sociaux, particulièrement Twitter. On a abordé 3 questions de recherche : i) Comment extraire et classifier les messages qui rapportent des événements ? ii) Comment identifier des événements précis ? iii) Étant donné un événement, comment construire un fil d'actualité représentant les différents sous-événements ? Les travaux de la thèse ont contribué à élaborer des méthodes pour la généralisation des entités nommées par des concepts d'ontologies pour mitiger le sur-apprentissage dans les modèles supervisés ; une adaptation de la théorie des graphes pour modéliser les relations entre les entités et les autres termes et ainsi caractériser des événements pertinents ; l'utilisation des ontologies de domaines et les bases de connaissances dédiées, pour modéliser les relations entre les caractéristiques et les acteurs des événements. Nous démontrons que l'enrichissement sémantique des entités par des informations du Web de données améliore la performance des modèles d'apprentissages supervisés et non supervisés
In the latest years, the Web has shifted from a read-only medium where most users could only consume information to an interactive medium allowing every user to create, share and comment information. The downside of social media as an information source is that often the texts are short, informal and lack contextual information. On the other hand, the Web also contains structured Knowledge Bases (KBs) that could be used to enrich the user-generated content. This dissertation investigates the potential of exploiting information from the Linked Open Data KBs to detect, classify and track events on social media, in particular Twitter. More specifically, we address 3 research questions: i) How to extract and classify messages related to events? ii) How to cluster events into fine-grained categories? and 3) Given an event, to what extent user-generated contents on social medias can contribute in the creation of a timeline of sub-events? We provide methods that rely on Linked Open Data KBs to enrich the context of social media content; we show that supervised models can achieve good generalisation capabilities through semantic linking, thus mitigating overfitting; we rely on graph theory to model the relationships between NEs and the other terms in tweets in order to cluster fine-grained events. Finally, we use in-domain ontologies and local gazetteers to identify relationships between actors involved in the same event, to create a timeline of sub-events. We show that enriching the NEs in the text with information provided by LOD KBs improves the performance of both supervised and unsupervised machine learning models
Styles APA, Harvard, Vancouver, ISO, etc.
40

Luong, Phuc Hiep. « Gestion de l'évolution d'un Web sémantique d'entreprise ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://tel.archives-ouvertes.fr/tel-00198718.

Texte intégral
Résumé :
Le Web Sémantique d'Entreprise (WSE) est une approche particulière de la Gestion des Connaissances d'une entreprise pour la prochaine génération du Web Sémantique. Dans la réalité, les organisations vivent dans un environnement hétérogène, dynamique et en cours d'évolution qui mène souvent à des changements externes et internes requérant l'évolution de leur système de gestion des connaissances. Peu de recherches actuelles font face aux changements du système de gestion des connaissances. L'objectif de cette thèse est de contribuer à lever cette limitation. Dans ce manuscrit, nous présentons une nouvelle approche de la gestion de l'évolution du WSE. Nous nous focalisons en particulier sur l'évolution de l'ontologie et de l'annotation sémantique qui sont deux composants importants du WSE. Nous nous intéressons à deux scénarios d'évolution de l'ontologie : (i) avec trace et (ii) sans trace de changements ontologiques effectués. Ces deux scénarios sont fréquents dans les situations réelles et ils peuvent entraîner des inconsistances au niveau des annotations sémantiques reposant sur cette ontologie modifiée. Pour chacun des contextes d'évolution, nous développons des approches équivalentes : une approche procédurale et une approche basée sur des règles en vue de gérer l'évolution des annotations sémantiques et de détecter et de corriger les annotations sémantiques inconsistantes. Ces propositions ont été implémentées et validées dans le système CoSWEM qui facilite la gestion de l'évolution du WSE. Ce système a été expérimenté dans le cadre des projets PALETTE et E-WOK_HUB sur un ensemble de données réelles et évolutives provenant de ces projets.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Pellegrino, Giancarlo. « Détection d'anomalies logiques dans les logiciels d'entreprise multi-partis à travers des tests de sécurité ». Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0064.

Texte intégral
Résumé :
Les logiciels multi-partis sont des applications distribuées sur le web qui mettent en oeuvre des fonctions collaboratives. Ces applications sont les principales cibles des attaquants qui exploitent des vulnérabilités logicielles dans le cadre d'activités malveillantes. Récemment, un type moins connu de vulnérabilité, les anomalies logiques, a attiré l'attention des chercheurs. Sur la base d'informations tirées de la documentation des applications, il est possible d'appliquer deux techniques de test: la vérification du modèle, autrement appelé ``model checking'', et les tests de sécurité de type ``boîte noire''. Le champs d'application du model checking ne prend pas en suffisamment en compte les implémentations actuelles, tandis que les tests de type boîte noire ne sont pas assez sophistiqués pour découvrir les vulnérabilités logique. Dans cette thèse, nous présentons deux techniques d'analyse modernes visant à résoudre les inconvénients de l'état de l'art. Pour commencer, nous présentons la vérification de deux protocoles de sécurité utilisant la technique du model checking. Ensuite, nous nous concentrons sur l'extension du model checking pour soutenir les tests automatisés d'implémentations. La seconde technique consiste en une analyse boîte noire qui combine l'inférence du modèle, l'extraction du processus et du flot de donnée, ainsi qu'une génération de tests basés sur les modèles d'attaque d'une application. En conclusion, nous discutons de l'application de techniques développées au cours de cette thèse sur des applications issues d'un contexte industrielle
Multi-party business applications are distributed computer programs implementing collaborative business functions. These applications are one of the main target of attackers who exploit vulnerabilities in order to perform malicious activities. The most prevalent classes of vulnerabilities are the consequence of insufficient validation of the user-provided input. However, the less-known class of logic vulnerabilities recently attracted the attention of researcher. According to the availability of software documentation, two testing techniques can be used: design verification via model checking, and black-box security testing. However, the former offers no support to test real implementations and the latter lacks the sophistication to detect logic flaws. In this thesis, we present two novel security testing techniques to detect logic flaws in multi-party business applicatons that tackle the shortcomings of the existing techniques. First, we present the verification via model checking of two security protocols. We then address the challenge of extending the results of the model checker to automatically test protocol implementations. Second, we present a novel black-box security testing technique that combines model inference, extraction of workflow and data flow patterns, and an attack pattern-based test case generation algorithm. Finally, we discuss the application of the technique developed in this thesis in an industrial setting. We used these techniques to discover previously-unknown design errors in SAML SSO and OpenID protocols, and ten logic vulnerabilities in eCommerce applications allowing an attacker to pay less or shop for free
Styles APA, Harvard, Vancouver, ISO, etc.
42

Cappelle, Cindy. « Localisation de véhicules et détection d'obstacles : apport d'un modèle virtuel 3D urbain ». Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10119/document.

Texte intégral
Résumé :
Cette thèse s'intéresse à l'apport d'un modèle virtuel 3D urbain pour l'égo-localisation de véhicules intelligents ainsi que la détection et la localisation d'obstacles. La localisation du véhicule s'appuie sur plusieurs sources d'information: un GPS, des capteurs proprioceptifs (odométres et gyromètre), une caméra et un modèle virtuel 3D de l'environnement. Les capteurs proprioceptifs permettent d'obtenir une estimation quasi continue de la pose relative du véhicule. Cette estimation de la pose est recalée par des mesures GPS lorsque celles-ci sont disponibles. Afin de palier la dérive de la localisation à l'estime lors de longues indisponibilités des informations GPS, on construit une observation cartographique 3D. Celle-ci est basée sur le recalage entre le modèle virtuel 3D urbain et les images acquises par la caméra. Des travaux expérimentaux illustrent l'approche développée. Par ailleurs, l'apport d'un modèle virtuel 3D urbain est également étudié pour la détection et la localisation des obstacles. Une fois localisé dans le modèle 3D, les obstacles de l'infrastructure tels que les bâtiments sont connus et localisés. Pour détecter les obstacles n'appartenant pas à l'infrastructure (véhicules, piétons ... ), on compare l'image réelle et l'image virtuelle en considérant que ce type d'obstacles est présent dans l'image réelle mais absent de l'image virtuelle. A partir de l'information de profondeur disponible grâce au modèle 3D, les obstacles détectés sont ensuite géolocalisés. Les résultats expérimentaux obtenus sont comparés et validés grâce à un télémètre laser
This thesis deals with ego-Iocalization of intelligent vehicles and obstacles detection with virtual 3D city mode!. Vehicle localization uses several sources of infonnation : a GPS receiver, proprioceptive sensors (odometers and gyrometer), a video camera and a virtual 3D city mode!. The proprioceptive sensors allow to continuously estimate the dead-reckoning position and orientation of the vehicle. This dead-reckoning estimation of the pose is corrected by GPS measurements. Moreover, a 3D geographical observation is constructed to compensate the drift of the dead-reckoning localisation when GPS measurements are unavailable for a long time. The 3D geographical observation is based on the matching between the virtual 3D city model and the images acquired by the camera. Experimental results iIlustrate the developed approach. Moreover, the contribution of a virtual 3D city model is also studied for the detection and the localization of obstacles. Once the vehicle is localized in the 3D model, the obstacles of the infrastructure like buildings are known and localized. ln order to detect the other obstacles as vehicles, pedestrians, ... the real image acquired by the camera and the virtual image extracted from the virtual 3D model are compared, by considering that this kind of obstacles are in the real image but are absent from the virtual image. With the detph information available from the 3D model, the detccted obstacle are then localized. Experimental results are compared with Lidar measurements
Styles APA, Harvard, Vancouver, ISO, etc.
43

Kaske, Axel. « Contribution à la détection des bords de route imprécis : implantation sur le robot ROMANE ». Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL039N.

Texte intégral
Résumé :
Les deux premiers chapitres de la thèse présentent un état de l'art de la vision artificielle pour la robotique mobile et décrivent le projet de robot ROMANE. La structure matérielle et les logiciels utilisés y sont présentés. La calibration du système de vision est décrite en détail dans le chapitre III. Le cœur de la thèse (chapitre IV et V) est consacré à la présentation de 2 méthodes différentes de détection de bords de route. Toutes les deux sont fondées sur le même modèle de type hyperbolique, mais elle différent par le concept utilisé pour adapter les paramètres du modèle suivant des images de scènes réelles étudiées. La première fait appel à une fonction de vraisemblance pour évaluer l'écart entre le modèle et le système réel. Une recherche aléatoire est mise en œuvre pour trouver le modèle le mieux adapté. La seconde met en œuvre une statistique du 2e ordre (co-occurence) associée à une recherche d'extrema pour adapter les paramètres du modèle aux points extraits de l'image, elle utilise un critère fonde sur le X2. Une série de résultats établis à partir d'images vidéo de scènes réelles permet de valider les approches proposées
Styles APA, Harvard, Vancouver, ISO, etc.
44

NARAYANAN, SUGAN. « APPLICATION OF WEB SERVICES FOR REMOTE ACCESS OF BEARCAT III ROBOT USING THE .NET FRAMEWORK ». University of Cincinnati / OhioLINK, 2003. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1060199420.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
45

Cherifi, Chantal. « Classification et Composition de Services Web : Une Perspective Réseaux Complexes ». Phd thesis, Université Pascal Paoli, 2011. http://tel.archives-ouvertes.fr/tel-00652852.

Texte intégral
Résumé :
Les services Web sont des briques de bases logicielles s‟affranchissant de toute contrainte de compatibilité logicielle ou matérielle. Ils sont mis en oeuvre dans une architecture orientée service. A l‟heure actuelle, les travaux de recherche se concentrent principalement sur la découverte et la composition. Cependant, la complexité de la structure de l‟espace des services Web et son évolution doivent nécessairement être prises en compte. Ceci ne peut se concevoir sans faire appel à la science des systèmes complexes, et notamment à la théorie des réseaux complexes. Dans cette thèse, nous définissons un ensemble de réseaux pour la composition sur la base de services décrits dans des langages syntaxique (WSDL) et sémantique (SAWSDL). L‟exploration expérimentale de ces réseaux permet de mettre en évidence les propriétés caractéristiques des grands graphes de terrain (la propriété petit monde et la distribution sans échelle). On montre par ailleurs que ces réseaux possèdent une structure communautaire. Ce résultat permet d‟apporter une réponse alternative à la problématique de la classification de services selon les domaines d‟intérêts. En effet, les communautés regroupent non pas des services aux fonctionnalités similaires, mais des services qui ont en commun de nombreuses relations d‟interaction. Cette organisation peut être utilisée entre autres, afin de guider les algorithmes de recherche de compositions. De plus, en ce qui concerne la classification des services aux fonctionnalités similaires en vue de la découverte ou de la substitution, nous proposons un ensemble de modèles de réseaux pour les représentations syntaxique et sémantique des services, traduisant divers degrés de similitude. L‟analyse topologique de ces réseaux fait apparaître une structuration en composantes et une organisation interne des composantes autour de motifs élémentaires. Cette propriété permet une caractérisation à deux niveaux de la notion de communauté de services similaires, mettant ainsi en avant la souplesse de ce nouveau modèle d‟organisation. Ces travaux ouvrent de nouvelles perspectives dans les problématiques de l‟architecture orientée service.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Gadek, Guillaume. « Détection d'opinions, d'acteurs-clés et de communautés thématiques dans les médias sociaux ». Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR18/document.

Texte intégral
Résumé :
Les réseaux sociaux numériques ont pris une place prépondérante dans l'espace informationnel, et sont souvent utilisés pour la publicité, le suivi de réputation, la propagande et même la manipulation, que ce soit par des individus, des entreprises ou des états. Alors que la quantité d'information rend difficile son exploitation par des humains, le besoin reste entier d'analyser un réseau social numérique : il faut dégager des tendances à partir des messages postés dont notamment les opinions échangées, qualifier les comportements des utilisateurs, et identifier les structures sociales émergentes.Pour résoudre ce problème, nous proposons un système d'analyse en trois niveaux. Tout d'abord, l'analyse du message vise à en déterminer l'opinion. Ensuite, la caractérisation et l'évaluation des comptes utilisateurs est réalisée grâce à une étape de profilage comportemental et à l'étude de leur importance et de leur position dans des graphes sociaux, dans lesquels nous combinons les mesures topologiques d'importance des noeuds dans un graphe avec les statistiques d'engagement, par exemple en nombre d'abonnés. Enfin, le système procède à la détection et à l'évaluation de communautés d'utilisateurs, pour lesquelles nous introduisons des scores de cohésion thématique qui complètent les mesures topologiques classiques de qualité structurelle des communautés détectées. Nous appliquons ce système d'analyse sur deux corpus provenant de deux médias sociaux différents : le premier est constitué de messages publiés sur Twitter, représentant toutes les activités réalisées par 5 000 comptes liés entre eux sur une longue période. Le second provient d'un réseau social basé sur TOR, nommé Galaxy2. Nous évaluons la pertinence de notre système sur ces deux jeux de données, montrant la complémentarité des outils de caractérisation des comptes utilisateurs (influence, comportement, rôle) et des communautés de comptes (force d'interaction, cohésion thématique), qui enrichissent l'exploitation du graphe social par les éléments issus des contenus textuels échangés
Online Social Networks have taken a huge place in the informational space and are often used for advertising, e-reputation, propaganda, or even manipulation, either by individuals, companies or states. The amount of information makes difficult the human exploitation, while the need for social network analysis remains unsatisfied: trends must be extracted from the posted messages, the user behaviours must be characterised, and the social structure must be identified. To tackle this problem, we propose a system providing analysis tools on three levels. First, the message analysis aims to determine the opinions they bear. Then, the characterisation and evaluation of user accounts is performed thanks to the union of a behavioural profiling method, the study of node importance and position in social graphs and engagement and influence measures. Finally the step of user community detection and evaluation is accomplished. For this last challenge, we introduce thematic cohesion scores, completing the topological, graph-based measures for group quality. This system is then applied on two corpora, extracted from two different online social media. The first is constituted of messages published on Twitter, gathering every activity performed by a set of 5,000 accounts on a long period. The second stems from a ToR-based social network, named Galaxy2, and includes every public action performed on the platform during its uptime. We evaluate the relevance of our system on these two datasets, showing the complementarity of user account characterisation tools (influence, behaviour and role), and user account communities (interaction strength, thematic cohesion), enriching the social graph exploitation with textual content elements
Styles APA, Harvard, Vancouver, ISO, etc.
47

Daass, Bilal. « Approches informationnelles pour une navigation autonome collaborative de robots d'exploration de zones à risques ». Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I054.

Texte intégral
Résumé :
Ces dernières années, de nombreux travaux ont été menés afin de fournir une estimation précise de l’état d’un système dynamique. Dans cette thèse, nous ciblons les systèmes composés de sous-systèmes collaboratifs possédant une multitude de capteurs. Nous proposons un filtre combinant les avantages du filtre de Kalman et du filtre informationnel, nécessitant une charge de calculs bien moins élevée. Afin de prendre en compte la méconnaissance des covariances des mesures, une fusion multi-capteurs basée sur l'intersection des covariances est analysée en termes de charge calculatoire. Trois architectures de fusion multi-capteurs sont dès lors considérées. On réalise, sur les différents composants de ces architectures, une analyse fine de la répartition de la charge calculatoire du filtre et de l’algorithme d’intersection des covariances. Dans l’objectif de rendre un système tolérant aux défauts, des méthodes statistiques informationnelles sont développées. Elles sont applicables à toute méthode basée sur le rapport de vraisemblance généralisé, entraînant un seuillage adaptatif de ce rapport. Leurs mises en œuvre à travers deux types de cartes de contrôle permettent une détection rapide des défaillances des capteurs. Nos approches théoriques sont validées à travers un système de robots mobiles collaboratifs. Nous intégrons une phase de diagnostic et de détection de défauts des capteurs. Celle-ci est basée sur l’intégration de ces méthodes statistiques informationnelles dans le processus de fusion et d’estimation composé d’un filtre bayésien et de l’intersection des covariances. L’objectif est d’assurer une navigation autonome sûre, précise et tolérante aux défaillances des capteurs. Enfin, nous présentons une preuve de concept d'une méthode de contrôle et d'évaluation non destructive des matériaux dans l’environnement immédiat des robots. En particulier, il s'agit d'introduire un capteur hyperfréquence pour l'interaction entre l'onde électromagnétique propagée et le matériau sous investigation. Cette méthode, connue sous le vocable radar, a connu un essor grandissant dans les laboratoires de recherche et dans les applications courantes liées notamment à la mesure de vitesse. Néanmoins, sa transposition sur des robots mobiles collaboratifs demeure un challenge pour adresser l'évaluation sans contact de matériaux, notamment en environnement sévère. Elle consiste à déterminer les caractéristiques du matériau sous test à l'aide de capteurs micro-ondes embarqués
In the recent years, there was a growing interest to provide an accurate estimate of the state of a dynamic system for a wide range of applications. In this work, we target systems built up with several collaborative subsystems integrating various heterogeneous sensors. We introduce a filter concept that combines the advantages of both Kalman and informational filters to achieve low computational load. To consider any system whose measurement covariances are incomplete or unknown, a multi-sensor fusion based on the covariance intersection is analyzed in terms of calculation burden. Three multi-sensor fusion architectures are then considered. A fine analysis of the calculation load distribution of the filter and the covariance intersection algorithm is performed on the different components of these architectures. To make the system fault tolerant, informational statistical methods are developed. They are applicable to any method based on the generalized likelihood ratio. They lead to an adaptive threshold of this ratio. The technique has been implemented considering two types of control charts for the fast detection of sensor failures. Our theoretical approaches are validated through a system of collaborative mobile robots. We integrate a diagnosis and fault detection phase, which is based on the integration of these informational statistical methods into the fusion and estimation process, the latter being composed of a Bayesian filter and the covariance intersection. The main objective is to ensure that this system provides safe, accurate and fault-tolerant autonomous navigation. Finally, we present a proof-of-concept method for nondestructive and evaluation of materials in close proximity of the robot environment. In particular, we introduce a microwave sensor to characterize the electromagnetic wave to material under test interaction. This technique, known under the name radar, had a growing interest in academic laboratories and for usual applications related to speed measurements. Nevertheless, its adaptation to collaborative mobile robots remains a challenging task to address contactless characterization of materials, especially in harsh environments. This latter consists to determine the material characteristics from embedded microwave sensors
Styles APA, Harvard, Vancouver, ISO, etc.
48

Bousbia, Nabila. « Analyse des traces de navigation des apprenants dans un environnement de formation dans une perspective de détection automatique des styles d'apprentissage ». Paris 6, 2011. http://www.theses.fr/2011PA066011.

Texte intégral
Résumé :
De nombreux Environnements Informatiques d’Apprentissage Humain (EIAH) se sont appuyés principalement sur la détection de caractéristiques individuelles des apprenants pour le suivi et l’adaptation des contenus. L’identification de ces caractéristiques est un problème difficile dans le domaine de l’enseignement à distance. Les recherches se sont orientées vers l’analyse du comportement de l’apprenant. Cette analyse est basée sur l’interprétation d’informations recueillies pendant la session d’apprentissage, appelées traces. Ces traces fournissent des connaissances sur l’activité grâce à des variables calculées que nous appelons indicateurs. L’objectif de cette recherche est de proposer des indicateurs, aussi indépendants que possible de la conception de l’environnement de formation, pour fournir aux enseignants une perception du comportement de leurs apprenants et d’identifier leurs styles d’apprentissage (ensemble de conduites et de stratégies dans la manière de gérer et d'organiser l'information et à la manière de les mettre en œuvre). Pour valider cette approche, nous avons proposé un système à base de traces, et nous avons détaillé la méthode de calcul de l’un des indicateurs de base pour décrire les comportements de navigation des apprenants, celui de «type de navigation». La méthode de calcul proposée a été validée par trois expérimentations, dont la dernière a confirmé la possibilité d’identifier automatiquement les styles d'apprentissage à partir des comportements de navigation. Nous sommes ainsi convaincus de la validité de notre démarche qui nous permettra de poursuivre le travail visant le suivi et l’adaptation des EIAH à base de styles d'apprentissage.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Debure, Jonathan. « Détection de comportements et identification de rôles dans les réseaux sociaux ». Electronic Thesis or Diss., Paris, CNAM, 2021. http://www.theses.fr/2021CNAM1290.

Texte intégral
Résumé :
Les réseaux sociaux sont devenus des outils de communication primordiaux et sont utilisés quotidiennement par des centaines de millions d’utilisateurs. Tous ces utilisateurs n’ont pas le même comportement sur ces réseaux. Si certains ont une faible activité, publient rarement des messages et suivent peu d’utilisateurs, d’autres, à l’opposé, ont une activité importante, avec de nombreux abonnés et très publient régulièrement. Le rôle important de ces utilisateurs influents en font des cibles intéressantes pour de nombreuses applications, par exemple pour la surveillance ou la publicité. Après une étude des méta-donées de ces utilisateurs, afin de d´détecter des comptes anormaux, nous présentons une approche permettant de d´détecter des utilisateurs devenant populaires. Notre approche s’appuie sur une modélisation de l’évolution de la popularité sous la forme de motifs fréquents. Ces motifs décrivent les comportements de gain en popularité. Nous proposons un modèle de matching des motifs permettant d’être utilisé avec un flux de données et, nous montrons sa capacité à passer à l’échelle en le comparant à des modèles classiques. Enfin, nous présentons une approche de clustering basé sur le PageRank. Ces travaux permettent d’identifier des groupes d’utilisateurs partageant le même rolex, en utilisant les graphes ’interactions qu’ils génèrent
Social networks (SN) are omnipresent in our lives today. Not all users have the same behavior on these networks. If some have a low activity, rarely posting messages and following few users, some others at the other extreme have a significant activity, with many followers and regularly posts. The important role of these popular SN users makes them the target of many applications for example for content monitoring or advertising. After a study of the metadata of these users, in order to detect abnormal accounts, we present an approach allowing to detect users who are becoming popular. Our approach is based on modeling the evolution of popularity in the form of frequent patterns. These patterns describe the behaviors of gaining popularity. We propose a pattern matching model which can be used with a data stream and we show its scalability and its performance by comparing it to classic models. Finally, we present a clustering approach based on PageRank. This work allow to identify groups of users sharing the same role, using the interaction graphs
Styles APA, Harvard, Vancouver, ISO, etc.
50

Makarov, Maria. « Contribution à la modélisation et la commande robuste de robots manipulateurs à articulations flexibles. Applications à la robotique interactive ». Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-00844738.

Texte intégral
Résumé :
La problématique traitée dans cette thèse concerne la commande de robots manipulateurs à articulations flexibles. Les méthodes développées visent à satisfaire les spécifications de performance et de robustesse en suivi de trajectoire, ainsi qu'à assurer un niveau de sécurité compatible avec un scénario de fonctionnement interactif dans lequel l'homme et le robot partagent un même espace de travail. Seules les mesures moteur sont utilisées dans un contexte d'instrumentation réduite. Le premier objectif de performance de la commande de mouvement est atteint grâce à l'identification expérimentale d'un modèle flexible représentatif du système, et l'usage de ce modèle pour la synthèse de lois de commande avancées intégrées au sein d'une structure cascade. Deux approches complémentaires fondées d'une part sur la commande prédictive de type GPC (Generalized Predictive Control), et d'autre part sur la commande Hinfini, sont considérées pour la synthèse de lois de commande à deux degrés de liberté, prédictives et robustes. Les performances de ces deux approches sont analysées et évaluées expérimentalement. Le deuxième objectif de sécurité est abordé à travers un algorithme de détection de collisions du robot avec son environnement, sans capteur d'effort et en présence d'incertitudes de modélisation. Afin de séparer efficacement les effets dynamiques des collisions de ceux des erreurs de modélisation, une stratégie adaptative de filtrage et de décision tenant compte de l'état du système est proposée. La validation expérimentale montre une très bonne sensibilité de détection, compatible avec les normes et les recommandations de sécurité relatives à la robotique collaborative.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie