Dissertations / Theses on the topic 'Détection de faux en profondeur'

To see the other types of publications on this topic, follow the link: Détection de faux en profondeur.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 28 dissertations / theses for your research on the topic 'Détection de faux en profondeur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Tak, Hemlata. "End-to-End Modeling for Speech Spoofing and Deepfake Detection." Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS104.pdf.

Full text
Abstract:
Les systèmes biométriques vocaux sont utilisés dans diverses applications pour une authentification sécurisée. Toutefois, ces systèmes sont vulnérables aux attaques par usurpation d'identité. Il est donc nécessaire de disposer de techniques de détection plus robustes. Cette thèse propose de nouvelles techniques de détection fiables et efficaces contre les attaques invisibles. La première contribution est un ensemble non linéaire de classificateurs de sous-bandes utilisant chacun un modèle de mélange gaussien. Des résultats compétitifs montrent que les modèles qui apprennent des indices discriminants spécifiques à la sous-bande peuvent être nettement plus performants que les modèles entraînés sur des signaux à bande complète. Étant donné que les DNN sont plus puissants et peuvent effectuer à la fois l'extraction de caractéristiques et la classification, la deuxième contribution est un modèle RawNet2. Il s'agit d'un modèle de bout en bout qui apprend les caractéristiques directement à partir de la forme d'onde brute. La troisième contribution comprend la première utilisation de réseaux neuronaux graphiques (GNN) avec un mécanisme d'attention pour modéliser la relation complexe entre les indices d'usurpation présents dans les domaines spectral et temporel. Nous proposons un réseau d'attention spectro-temporel E2E appelé RawGAT-ST. Il est ensuite étendu à un réseau d'attention spectro-temporel intégré, appelé AASIST, qui exploite la relation entre les graphes spectraux et temporels hétérogènes. Enfin, cette thèse propose une nouvelle technique d'augmentation des données appelée RawBoost et utilise un modèle vocal auto-supervisé et pré-entraîné pour améliorer la généralisation
Voice biometric systems are being used in various applications for secure user authentication using automatic speaker verification technology. However, these systems are vulnerable to spoofing attacks, which have become even more challenging with recent advances in artificial intelligence algorithms. There is hence a need for more robust, and efficient detection techniques. This thesis proposes novel detection algorithms which are designed to perform reliably in the face of the highest-quality attacks. The first contribution is a non-linear ensemble of sub-band classifiers each of which uses a Gaussian mixture model. Competitive results show that models which learn sub-band specific discriminative information can substantially outperform models trained on full-band signals. Given that deep neural networks are more powerful and can perform both feature extraction and classification, the second contribution is a RawNet2 model. It is an end-to-end (E2E) model which learns features directly from raw waveform. The third contribution includes the first use of graph neural networks (GNNs) with an attention mechanism to model the complex relationship between spoofing cues present in spectral and temporal domains. We propose an E2E spectro-temporal graph attention network called RawGAT-ST. RawGAT-ST model is further extended to an integrated spectro-temporal graph attention network, named AASIST which exploits the relationship between heterogeneous spectral and temporal graphs. Finally, this thesis proposes a novel data augmentation technique called RawBoost and uses a self-supervised, pre-trained speech model as a front-end to improve generalisation in the wild conditions
APA, Harvard, Vancouver, ISO, and other styles
2

Cord, Matthieu. "Analyse d'images aériennes haute résolution : détection et modélisation du bâti en zone urbaine." Cergy-Pontoise, 1998. http://biblioweb.u-cergy.fr/theses/98CERG0054.pdf.

Full text
Abstract:
Notre travail porte sur l'analyse d'images aériennes de résolution décimétrique (images IGN) en vue de détecter et de modéliser les bâtiments. Les scènes urbaines traitées étant très complexes, nous avons retenu une approche hiérarchique, reposant sur une analyse globale de la scène, suivie d'une modélisation locale dédiée au bâti. Nous avons basé notre analyse globale sur l'information de profondeur, très pertinente pour ce genre de scènes. C'est pourquoi nous avons tout d'abord élaboré un schéma de mise en correspondance répondant aux exigences de densité et de fiabilité des cartes altimétriques. La méthode basée sur une corrélation des gradients utilise des masques adaptatifs, une pondération géodésique, et s'intègre dans un processus multirésolution contrôlé par une validation croisée. Nous montrons ensuite comment une telle information de profondeur permet de détecter et de classer les différents objets de la scène selon trois thèmes génériques : bâti, végétation (du sursol), et sol. Après une segmentation altimétrique par agrégation locale, nous avons effectué une classification séparant le sursol du sol, à l'aide de règles propagées dans un graphe d'adjacence de régions 3D. Au sein de la classe sursol, nous avons séparé le bâti de la végétation en analysant localement les orientations des normales aux surfaces 3D. A l'issue de cette étape globale, nous avons modélisé les régions bâti selon deux approches complémentaires : vectorisation des limites des bâtiments et reconstruction 3D des toits. La vectorisation utilise conjointement informations radiométrique et altimétrique pour détecter et fusionner les segments d'une des vues. Le groupement final est contraint par la frontière 3D et vectorisé en minimisant les déformations géométriques. Pour modéliser les toits, nous avons suivi une approche statistique. A cette fin, nous avons introduit un modèle paramétrique multi-plans des données et nous avons développé un algorithme stochastique permettant de séparer et d'identifier simultanément les différents pans du toit.
APA, Harvard, Vancouver, ISO, and other styles
3

M'Saad, Soumaya. "Détection de changement de comportement de vie chez la personne âgée par images de profondeur." Thesis, Rennes 1, 2022. http://www.theses.fr/2022REN1S039.

Full text
Abstract:
Le nombre des personnes âgées ne cesse d’augmenter dans le monde d’où l’enjeu de les aider à continuer de vivre chez eux et de vieillir en bonne santé. Cette thèse s’inscrit dans cette problématique de santé publique et propose la détection du changement de comportement de la personne en se basant sur l’enregistrement des activités au domicile par des capteurs de profondeur à bas coût qui garantissent l’anonymat et qui fonctionnent de façon autonome de jour comme de nuit. Après une étude initiale associant la classification des images par des approches de machine learning, une méthode basée sur les réseaux de neurones profonds ResNet-18 a été proposée pour la détection de la chute et la détection des postures. Cette approche a donné des résultats satisfaisants avec une précision globale de 93,44% et une sensibilité globale de 93.24%. La détection des postures permet de suivre les changements de comportement qui sont synonymes de la perte de la routine. Deux stratégies ont été déployées pour le suivi du maintien de la routine. La première examine la succession des activités dans la journée en établissant une distance d’édition ou une déformation dynamique de la journée, l’autre consiste à classer la journée en routine et non-routine en associant des approches supervisées (k-moyennes et k-modes), non supervisées (Random Forest) ou les connaissances a priori sur la journée routine de la personne. Ces stratégies ont été évaluées à la fois sur des données réelles enregistrées en EHPAD chez deux personnes fragiles et à la fois sur des données simulées créés pour combler le manque de données réelles. Elles ont montré la possibilité de détecter différents scénarios de changement de comportement (brusque, progressif, récurrent) et prouvent que les capteurs de profondeur peuvent être utilisés en EHPAD ou dans l’habitat d’une personne âgée
The number of elderly people in the world is constantly increasing, hence the challenge of helping them to continue to live at home and ageing in good health. This PhD takes part in this public health issue and proposes the detection of the person behavior change based on the recording of activities in the home by low-cost depth sensors that guarantee anonymity and that operate autonomously day and night. After an initial study combining image classification by machine learning approaches, a method based on Resnet-18 deep neural networks was proposed for fall and posture position detection. This approach gave good results with a global accuracy of 93.44% and a global sensitivity of 93.24%. The detection of postures makes possible to follow the state of the person and in particular the behavior changes which are assumed to be the routine loss. Two strategies were deployed to monitor the routine. The first one examines the succession of activities in the day by computing an edit distance or a dynamic deformation of the day, the other one consists in classifying the day into routine and non-routine by combining supervised (k-means and k-modes), unsupervised (Random Forest) or a priori knowledge about the person's routine. These strategies were evaluated both on real data recorded in EHPAD in two frail people and on simulated data created to fill the lack of real data. They have shown the possibility to detect different behavioral change scenarios (abrupt, progressive, recurrent) and prove that depth sensors can be used in EHPAD or in the home of an elderly person
APA, Harvard, Vancouver, ISO, and other styles
4

Allione, Julien. "Construction et validation d'un protocole visant à améliorer la détection du mensonge : une démarche de psychologie expérimentale appliquée." Toulouse 2, 2008. http://www.theses.fr/2008TOU20102.

Full text
Abstract:
Une partie de la littérature scientifique relative au témoignage s’est penchée ces dernières décennies sur l'évaluation de la véracité des déclarations des personnes. Ces déclarations sont d'une importance capitale dans la résolution des affaires criminelles. Or détecter une fausse déclaration est une tâche particulièrement difficile et de nombreuses recherches mettent en évidence l'inexactitude des détections des fausses déclarations. Les études expérimentales ont tenté de dégager des indices pertinents reflétant le comportement d'un menteur. Le bilan des travaux est assez mitigé sur le non verbal. Les recherches sur le verbal présentent des résultats plus encourageants. Deux outils principalement ,reposant sur une analyse de contenu des déclarations retranscrites, le CBCA (Criteria-Based Content Analysis, Steller et Köhnken, 1989),et le Reality Monitoring (Johnson et Raye, 1981), ont été étudiés dans la littérature. Cependant, ces outils présentent quelques faiblesses. La première étape de notre démarche a consisté à dégager les critères verbaux les plus pertinents. En parallèle, nous avons cherché à potentialiser l'efficacité des indicateurs par l'utilisation de protocoles d'audition spécifiques. Ensuite, nous avons soumis les critères dégagés aux professionnels concernés, afin de savoir si, sur la base de retranscriptions, ces critères permettaient d'améliorer les performances de détection des témoignages sincères et mensongers. Enfin, nous nous sommes demandés si notre outil était applicable tel quel sans la retranscription des déclarations. Les résultats font apparaître que l'outil améliore les performances de détection des témoignages sincères et mensongers, mais qu'une évaluation sur retranscription est nécessaire
In the last decades, research assessing the veracity of suspects statements, witnesses and alleged victims has become of great importance in eyewitness testimony scientifique literature. Indeed, statements are given a crucial role in eyewitness evidence. However, detecting a wrong statement is a difficult task, Several researches highlighted the inaccuracy for detecting false statement. Experimental studies tried to propose relevant cues to detect liar behaviour. Studies looking into verbal cues are a lot more promising than thoes interested in non-verbal cues. Two approaches analyzing principally written transcriptions of oral statements are currently subject to a lot of attention. One is the Criteria-Based Content Analysis (Steller and Köhnken, 1989) and the other is the Reality Monitoring (Johnson and Raye, 1989). Unfortunately, thoses approaches present few weakness. The first step of our research program consisted in extracting the most relevant verbal cues. In the same time, we tried to increase the criteria efficiency, using particular interviewing procedures. Then, we have submited the extracted cues to law offenders, in order to know if on the basis of transcription, those cues could allow better scoring in detecting sincere or untruthful testimonies. Finally, we tested if our approach would still be effective without having to retranscribe statements. The results show an improvment in detecting sincere to untruthfull testimonies
APA, Harvard, Vancouver, ISO, and other styles
5

Nazir, Souha. "Evaluation d’un système de détection surfacique ‘Kinect V2’ dans différentes applications médicales." Thesis, Brest, 2018. http://www.theses.fr/2018BRES0101.

Full text
Abstract:
Une des innovations technologiques majeures de ces dernières années a été le lancement des caméras de profondeur qui peuvent être utilisées dans un large spectre d’applications, notamment pour la robotique, la vision par ordinateur, l’automatisation, etc. Ces dispositifs ont ouvert de nouvelles opportunités pour la recherche scientifique appliquée au domaine médical. Dans le cadre de cette thèse, nous évaluerons l’apport potentiel de l’utilisation du capteur de profondeur grand public « Kinect V2 » dans l’optique de répondre à des problématiques cliniques actuelles en radiothérapie ainsi qu’en réanimation. Le traitement par radiothérapie étant administré sur plusieurs séances, l'un des objectifs clés de ce traitement est le positionnement quotidien du patient dont la précision est impactée par les mouvements respiratoires. D’autre part, les mouvements de la machine ainsi que les éventuels mouvements du patient peuvent entraîner des collisions machine/machine ou machine/patient. Nous proposons un système de détection surfacique pour la gestion des mouvements inter- et intrafractions en radiothérapie externe. Celui-ci est basé sur un algorithme rigide de recalage surfacique pour estimer la position de traitement et un système de détection de collisions en temps réel pour satisfaire les conditions de sécurité durant le traitement. Les résultats obtenus sont encourageants et montrent un bon accord avec les systèmes cliniques. Coté réanimation médicale, la recherche de nouveaux dispositifs non invasifs et sans contact tend à optimiser la prise en charge des patients. La surveillance non invasive de la respiration des patients sous ventilation spontanée est capitale pour les patients instables mais aucun système de suivi à distance n’existe à ce jour. Dans ce contexte, nous proposons un système de mesure sans contact capable de calculer les paramètres ventilatoires en observant les changements morphologiques de la zone thoracique des patients. La méthode développée donne une précision de mesures cliniquement acceptable
In recent years, one of the major technological innovations has been the introduction of depth cameras that can be used in a wide range of applications, including robotics, computer vision, automation, etc. These devices have opened up new opportunities for scientific research applied to the medical field. In this thesis, we will evaluate the potential use of the "Kinect V2" depth camera in order to respond to current clinical issues in radiotherapy and resuscitation in intensive care unit.Given that radiotherapy treatment is administered over several sessions, one of the key task is to daily reposition the patient in the same way as during the planning session.The precision of such repositioning is impacted by the respiratory motion. On the other hand, the movements of the machine as well as the possible movements of the patient can lead to machine / machine or machine /patient collisions. We propose a surface detection system for the management of inter and intra-fraction motion in external radiotherapy. This system is based on a rigid surface registration algorithm to estimate the treatment position and a real-time collision detection system to ensure patient safety during the treatment.Obtained results are encouraging and show a good agreement with available clinical systems.Concerning medical resuscitation, there is a need for new non-invasive and non-contact devices in order to optimize patient care. Non-invasive monitoring of spontaneous breathing for unstable patients is crucial in the intensive care unit. In this context, we propose a non-contact measurement system capable of calculating the parameters of patient's ventilation by observing thoracic morphological movements. The developed method gives a clinically acceptable precision. Such system is the first to solve previously described issue
APA, Harvard, Vancouver, ISO, and other styles
6

Al, chanti Dawood. "Analyse Automatique des Macro et Micro Expressions Faciales : Détection et Reconnaissance par Machine Learning." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT058.

Full text
Abstract:
L’analyse automatique des expressions faciales représente à l’heure actuelle une problématique importante associée à de multiples applications telles que la reconnaissance de visages ou encore les interactions homme machine. Dans cette thèse, nous nous attaquons au problème de la reconnaissance d’expressions faciales à partir d’une image ou d’une séquence d’images. Nous abordons le problème sous trois angles.Tout d’abord, nous étudions les macro-expressions faciales et nous proposons de comparer l’efficacité de trois descripteurs différents. Cela conduit au développement d’un algorithme de reconnaissance d’expressions basé sur des descripteurs bas niveau encodés dans un modèle de type sac de mots, puis d’un algorithme basé sur des descripteurs de moyen niveau associés à une représentation éparse et enfin d’un algorithme d’apprentissage profond tenant compte de descripteurs haut niveau. Notre objectif lors de la comparaison de ces trois algorithmes est de trouver la représentation des informations de visages la plus discriminante pour reconnaitre des expressions faciales en étant donc capable de s’affranchir des sources de variabilités que sont les facteurs de variabilité intrinsèques tels que l’apparence du visage ou la manière de réaliser une expression donnée et les facteurs de variabilité extrinsèques tels que les variations d’illumination, de pose, d’échelle, de résolution, de bruit ou d’occultations. Nous examinons aussi l’apport de descripteurs spatio-temporels capables de prendre en compte des informations dynamiques utiles pour séparer les classes ambigües.La grosse limitation des méthodes de classification supervisée est qu’elles sont très coûteuses en termes de labélisation de données. Afin de s’affranchir en partie de cette limitation, nous avons étudié dans un second temps, comment utiliser des méthodes de transfert d’apprentissage de manière à essayer d’étendre les modèles appris sur un ensemble donné de classes d’émotions à des expressions inconnues du processus d’apprentissage. Ainsi nous nous sommes intéressés à l’adaptation de domaine et à l’apprentissage avec peu ou pas de données labélisées. La méthode proposée nous permet de traiter des données non labélisées provenant de distributions différentes de celles du domaine source de l’apprentissage ou encore des données qui ne concernent pas les mêmes labels mais qui partagent le même contexte. Le transfert de connaissance s’appuie sur un apprentissage euclidien et des réseaux de neurones convolutifs de manière à définir une fonction de mise en correspondance entre les informations visuelles provenant des expressions faciales et un espace sémantique issu d’un modèle de langage naturel.Dans un troisième temps, nous nous sommes intéressés à la reconnaissance des micro-expressions faciales. Nous proposons un algorithme destiné à localiser ces micro-expressions dans une séquence d’images depuis l’image initiale (onset image) jusqu’à l’image finale (offset image) et à déterminer les régions des images qui sont affectées par les micro-déformations associées aux micro-expressions. Le problème est abordé sous un angle de détection d’anomalies ce qui se justifie par le fait que les déformations engendrées par les micro-expressions sont a priori un phénomène plus rare que celles produites par toutes les autres causes de déformation du visage telles que les macro-expressions, les clignements des yeux, les mouvements de la tête… Ainsi nous proposons un réseau de neurones auto-encodeur récurrent destiné à capturer les changements spatiaux et temporels associés à toutes les déformations du visage autres que celles dues aux micro-expressions. Ensuite, nous apprenons un modèle statistique basé sur un mélange de gaussiennes afin d’estimer la densité de probabilité de ces déformations autres que celles dues aux micro-expressions.Tous nos algorithmes sont testés et évalués sur des bases d’expressions faciales actées et/ou spontanées
Facial expression analysis is an important problem in many biometric tasks, such as face recognition, face animation, affective computing and human computer interface. In this thesis, we aim at analyzing facial expressions of a face using images and video sequences. We divided the problem into three leading parts.First, we study Macro Facial Expressions for Emotion Recognition and we propose three different levels of feature representations. Low-level feature through a Bag of Visual Word model, mid-level feature through Sparse Representation and hierarchical features through a Deep Learning based method. The objective of doing this is to find the most effective and efficient representation that contains distinctive information of expressions and that overcomes various challenges coming from: 1) intrinsic factors such as appearance and expressiveness variability and 2) extrinsic factors such as illumination, pose, scale and imaging parameters, e.g., resolution, focus, imaging, noise. Then, we incorporate the time dimension to extract spatio-temporal features with the objective to describe subtle feature deformations to discriminate ambiguous classes.Second, we direct our research toward transfer learning, where we aim at Adapting Facial Expression Category Models to New Domains and Tasks. Thus we study domain adaptation and zero shot learning for developing a method that solves the two tasks jointly. Our method is suitable for unlabelled target datasets coming from different data distributions than the source domain and for unlabelled target datasets with different label distributions but sharing the same context as the source domain. Therefore, to permit knowledge transfer between domains and tasks, we use Euclidean learning and Convolutional Neural Networks to design a mapping function that map the visual information coming from facial expressions into a semantic space coming from a Natural Language model that encodes the visual attribute description or use the label information. The consistency between the two subspaces is maximized by aligning them using the visual feature distribution.Third, we study Micro Facial Expression Detection. We propose an algorithm to spot micro-expression segments including the onset and offset frames and to spatially pinpoint in each image space the regions involved in the micro-facial muscle movements. The problem is formulated into Anomaly Detection due to the fact that micro-expressions occur infrequently and thus leading to few data generation compared to natural facial behaviours. In this manner, first, we propose a deep Recurrent Convolutional Auto-Encoder to capture spatial and motion feature changes of natural facial behaviours. Then, a statistical based model for estimating the probability density function of normal facial behaviours while associating a discriminating score to spot micro-expressions is learned based on a Gaussian Mixture Model. Finally, an adaptive thresholding technique for identifying micro expressions from natural facial behaviour is proposed.Our algorithms are tested over deliberate and spontaneous facial expression benchmarks
APA, Harvard, Vancouver, ISO, and other styles
7

Brazey, Denis. "Reconnaissance de formes et suivi de mouvements en 4D temps-réel : Restauration de cartes de profondeur." Thesis, Rouen, INSA, 2014. http://www.theses.fr/2014ISAM0019.

Full text
Abstract:
Dans le cadre de cette thèse, nous nous intéressons à plusieurs problématiques liées au traitement de données 3D. La première concerne la détection et le suivi de personnes dans des séquences d'images de profondeur. Nous proposons une amélioration d'une méthode existante basée sur une étape de segmentation, puis de suivi des personnes. La deuxième problématique abordée est la détection et la modélisation de têtes dans un nuage de points 3D. Pour cela, nous adoptons une approche probabiliste basée sur un nouveau modèle de mélange sphérique. La dernière application traitée est liée à la restauration d'images de profondeur présentant des données manquantes. Nous proposons pour cela d'utiliser une méthode d'approximation de surface par Dm-splines d'interpolation avec changements d'échelle pour approximer et restaurer les données. Les résultats présentés illustrent l'efficacité des algorithmes développés
In this dissertation, we are interested in several issues related to 3D data processing. The first one concerns people detection and tracking in depth map sequences. We propose an improvement of an existing method based on a segmentation stage followed by a tracking module. The second issue is head detection and modelling in 3D point clouds. In order to do this, we adopt a probabilistic approach based on a new spherical mixture model. The last considered application deals with the restoration of deteriorated depth maps. To solve this problem, we propose to use a surface approximation method based on interpolation Dm-splines with scale transforms to approximate and restore the image. Presented results illustrate the efficiency of the developed algorithms
APA, Harvard, Vancouver, ISO, and other styles
8

Artaud, Chloé. "Détection des fraudes : de l’image à la sémantique du contenu : application à la vérification des informations extraites d’un corpus de tickets de caisse." Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS002/document.

Full text
Abstract:
Les entreprises, les administrations, et parfois les particuliers, doivent faire face à de nombreuses fraudes sur les documents qu’ils reçoivent de l’extérieur ou qu’ils traitent en interne. Les factures, les notes de frais, les justificatifs... tout document servant de preuve peut être falsifié dans le but de gagner plus d’argent ou de ne pas en perdre. En France, on estime les pertes dues aux fraudes à plusieurs milliards d’euros par an. Étant donné que le flux de documents échangés, numériques ou papiers, est très important, il serait extrêmement coûteux en temps et en argent de les faire tous vérifier par des experts de la détection des fraudes. C’est pourquoi nous proposons dans notre thèse un système de détection automatique des faux documents. Si la plupart des travaux en détection automatique des faux documents se concentrent sur des indices graphiques, nous cherchons quant à nous à vérifier les informations textuelles du document afin de détecter des incohérences ou des invraisemblances. Pour cela, nous avons tout d’abord constitué un corpus de tickets de caisse que nous avons numérisés et dont nous avons extrait le texte. Après avoir corrigé les sorties de l’OCR et fait falsifier une partie des documents, nous en avons extrait les informations et nous les avons modélisées dans une ontologie, afin de garder les liens sémantiques entre elles. Les informations ainsi extraites, et augmentées de leurs possibles désambiguïsations, peuvent être vérifiées les unes par rapport aux autres au sein du document et à travers la base de connaissances constituée. Les liens sémantiques de l’ontologie permettent également de chercher l’information dans d’autres sources de connaissances, et notamment sur Internet
Companies, administrations, and sometimes individuals, have to face many frauds on documents they receive from outside or process internally. Invoices, expense reports, receipts...any document used as proof can be falsified in order to earn more money or not to lose it. In France, losses due to fraud are estimated at several billion euros per year. Since the flow of documents exchanged, whether digital or paper, is very important, it would be extremely costly and time-consuming to have them all checked by fraud detection experts. That’s why we propose in our thesis a system for automatic detection of false documents. While most of the work in automatic document detection focuses on graphic clues, we seek to verify the textual information in the document in order to detect inconsistencies or implausibilities.To do this, we first compiled a corpus of documents that we digitized. After correcting the characters recognition outputs and falsifying part of the documents, we extracted the information and modelled them in an ontology, in order to keep the semantic links between them. The information thus extracted, and increased by its possible disambiguation, can be verified against each other within the document and through the knowledge base established. The semantic links of ontology also make it possible to search for information in other sources of knowledge, particularly on the Internet
APA, Harvard, Vancouver, ISO, and other styles
9

Dubois, Amandine. "Mesure de la fragilité et détection de chutes pour le maintien à domicile des personnes âgées." Phd thesis, Université de Lorraine, 2014. http://tel.archives-ouvertes.fr/tel-01070972.

Full text
Abstract:
Le vieillissement de la population est un enjeu majeur pour les prochaines années en raison, notamment, de l'augmentation du nombre de personnes dépendantes. La question du maintien à domicile de ces personnes se pose alors, du fait de l'impossibilité pour les instituts spécialisés de les accueillir toutes et, surtout, de la volonté des personnes âgées de rester chez elles le plus longtemps possible. Or, le développement de systèmes technologiques peut aider à résoudre certains problèmes comme celui de la sécurisation en détectant les chutes, et de l'évaluation du degré d'autonomie pour prévenir les accidents. Plus particulièrement, nous nous intéressons au développement des systèmes ambiants, peu coûteux, pour l'équipement du domicile. Les caméras de profondeur permettent d'analyser en temps réel les déplacements de la personne. Nous montrons dans cette thèse qu'il est possible de reconnaître l'activité de la personne et de mesurer des paramètres de sa marche à partir de l'analyse de caractéristiques simples extraites des images de profondeur. La reconnaissance d'activité est réalisée à partir des modèles de Markov cachés, et permet en particulier de détecter les chutes et des activités à risque. Lorsque la personne marche, l'analyse de la trajectoire du centre de masse nous permet de mesurer les paramètres spatio-temporels pertinents pour l'évaluation de la fragilité de la personne. Ce travail a été réalisé sur la base d'expérimentations menées en laboratoire, d'une part, pour la construction des modèles par apprentissage automatique et, d'autre part, pour évaluer la validité des résultats. Les expérimentations ont montré que certains modèles de Markov cachés, développés pour ce travail, sont assez robustes pour classifier les différentes activités. Nous donnons, également dans cette thèse, la précision, obtenue avec notre système, des paramètres de la marche en comparaison avec un tapis actimètrique. Nous pensons qu'un tel système pourrait facilement être installé au domicile de personnes âgées, car il repose sur un traitement local des images. Il fournit, au quotidien, des informations sur l'analyse de l'activité et sur l'évolution des paramètres de la marche qui sont utiles pour sécuriser et évaluer le degré de fragilité de la personne.
APA, Harvard, Vancouver, ISO, and other styles
10

Auvinet, Edouard. "Analyse d’information tridimensionnelle issue de systèmes multi-caméras pour la détection de la chute et l’analyse de la marche." Thèse, Rennes 2, 2012. http://hdl.handle.net/1866/9770.

Full text
Abstract:
Cette thèse s’intéresse à définir de nouvelles méthodes cliniques d’investigation permettant de juger de l’impact de l’avance en âge sur la motricité. En particulier, cette thèse se focalise sur deux principales perturbations possibles lors de l’avance en âge : la chute et l’altération de la marche.Ces deux perturbations motrices restent encore mal connues et leur analyse en clinique pose de véritables défis technologiques et scientifiques. Dans cette thèse, nous proposons des méthodes originales de détection qui peuvent être utilisées dans la vie courante ou en clinique, avec un minimum de contraintes techniques. Dans une première partie, nous abordons le problème de la détection de la chute à domicile, qui a été largement traité dans les années précédentes. En particulier, nous proposons une approche permettant d’exploiter le volume du sujet, reconstruit à partir de plusieurs caméras calibrées. Ces méthodes sont généralement très sensibles aux occultations qui interviennent inévitablement dans le domicile et nous proposons donc une approche originale beaucoup plus robuste à ces occultations. L’efficacité et le fonctionnement en temps réel ont été validés sur plus d’une vingtaine de vidéos de chutes et de leurres, avec des résultats approchant les 100% de sensibilité et de spécificité en utilisant 4 caméras ou plus. Dans une deuxième partie, nous allons un peu plus loin dans l’exploitation des volumes reconstruits d’une personne, lors d’une tâche motrice particulière : la marche sur tapis roulant, dans un cadre de diagnostic clinique. Dans cette partie, nous analysons plus particulièrement la qualité de la marche. Pour cela nous développons le concept d’utilisation de caméras de profondeur pour la quantification de l’asymétrie spatiale au cours du mouvement des membres inférieurs pendant la marche. Après avoir détecté chaque pas dans le temps, cette méthode réalise une comparaison de surfaces de chaque jambe avec sa correspondante symétrique du pas opposé. La validation effectuée sur une cohorte de 20 sujets montre la viabilité de la démarche.
This thesis is concerned with defining new clinical investigation method to assess the impact of ageing on motricity. In particular, this thesis focuses on two main possible disturbance during ageing : the fall and walk impairment. This two motricity disturbances still remain unclear and their clinical analysis presents real scientist and technological challenges. In this thesis, we propose novel measuring methods usable in everyday life or in the walking clinic, with a minimum of technical constraints. In the first part, we address the problem of fall detection at home, which was widely discussed in previous years. In particular, we propose an approach to exploit the subject’s volume, reconstructed from multiple calibrated cameras. These methods are generally very sensitive to occlusions that inevitably occur in the home and we therefore propose an original approach much more robust to these occultations. The efficiency and real-time operation has been validated on more than two dozen videos of falls and lures, with results approaching 100 % sensitivity and specificity with at least four or more cameras. In the second part, we go a little further in the exploitation of reconstructed volumes of a person at a particular motor task : the treadmill, in a clinical diagnostic. In this section we analyze more specifically the quality of walking. For this we develop the concept of using depth camera for the quantification of the spatial and temporal asymmetry of lower limb movement during walking. After detecting each step in time, this method makes a comparison of surfaces of each leg with its corresponding symmetric leg in the opposite step. The validation performed on a cohort of 20 subjects showed the viability of the approach.
Réalisé en cotutelle avec le laboratoire M2S de Rennes 2
APA, Harvard, Vancouver, ISO, and other styles
11

Le, François Josette. "Une lecture théologique de la conversion chez Thomas Merton à travers la triple clé biblique de Mc 8, 34; Jn 3, 7 et Ga 2, 20a la théologie de la conversion chez Thomas Merton." Thèse, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/5224.

Full text
Abstract:
Thomas Merton est un moine américain, un trappiste, décédé accidentellement à Bangkok en 1968, à l'âge de 53 ans. Moine converti et moine écrivain, Merton a laissé derrière lui une oeuvre littéraire abondante et riche, à l'horizon théologique très vaste, tout à la fois enraciné dans le monachisme chrétien et ouvert au monde contemporain, avec ses misères, ses aspirations et ses grandes traditions spirituelles."Convertissez-vous!" Ce cri surgi des profondeurs de sa personne, Merton l'a entendu dès l'atteinte de ses 18 ans. L'écho de ce cri l'a poursuivi tout au long de sa vie de moine (1941-1968) et de son engagement pastoral comme moine-écrivain. Cet écho l'a incité à se réapproprier le message chrétien de la conversion et à en renouveler le langage afin d'être entendu par ses frères et soeurs en humanité, en rejoignant leur sensibilité et leur préoccupation centrée sur la quête identitaire. Ce fut l'objet principal de notre aventure doctorale de démontrer: (1) que Merton a développé une théologie de la conversion chrétienne ; (2) que cette théologie marque l'ensemble de son oeuvre littéraire; (3) que cette théologie s'articule autour d'une triple clé biblique : Mc 8, 34; Jn 3, 7 et Ga 2, 20a et de ses cinq grands axes: le renoncement à soi, la prise de la croix, la suite du Christ, la nouvelle naissance et la nouvelle identité"en Christ"; (4) et que cette théologie, sensible à la double réalité des"vrai et faux moi" et ouverte aux richesses des traditions orientales, propose à nos contemporains un nouvel espace de réflexion, tout en s'offrant comme un tremplin pour atteindre la complétude humaine, pour entrer dans une conscience universelle et pour accéder à une maturité transculturelle, bref pour devenir"un humain pleinement et ultimement unifié", selon cette expression du psychanalyste soufi iranien, Reza Arasteh, très chère à Merton. Aux termes de notre longue et minutieuse fréquentation de l'oeuvre de Merton, il nous a été donné d'une part, de toucher à la contemporanéité de son approche de la conversion chrétienne, et d'autre part d'être placée devant le caractère universel de cette obligation, pour tous les humains, de se laisser transformer en profondeur.
APA, Harvard, Vancouver, ISO, and other styles
12

Hofmanis, Janis. "Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application à l'épilepsie." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0209/document.

Full text
Abstract:
La thérapie de l'épilepsie par résection partielle exige l'identification des structures cérébrales qui sont impliquées dans la genèse des crises d'épilepsie focales. Plusieurs modalités telles que l'IRM, le PET SCAN, la sémiologie de la crise et l'électrophysiologie sont exploitées par les experts pour contribuer à la localisation de la zone épileptogène. L'EEG du scalp est la modalité qui procure la résolution temporelle à l'échelle des processus électrophysiologiques étudiés. Cependant du fait du positionnement des capteurs sur le scalp, sa résolution spatiale et, plus précisément, de profondeur est très médiocre. Dans certain cas (épilepsies pharmaco-résistantes), et pour palier à cette déficience spatiale, il est possible d'avoir recours à la SEEG. La SEEG permet des mesures électrophysiologiques intracérébrales : la résolution spatiale et donc anatomique est excellente dans l'axe de la microélectrode. La définition de la zone épileptogène, comme celle proposée par Talairach et Bancaud, est une définition électro-clinique basée sur les résultats d'enregistrements de SEEG intracérébraux. Elle tient compte non seulement de la localisation anatomique de la décharge épileptique partielle, mais également de l'évolution dynamique de cette décharge, c'est à dire les réseaux neurologiques actifs durant la période intercritique-critique et des symptômes cliniques. Récemment, il a été proposé une technique de diagnostic complémentaire de localisation de la zone épileptogénique employant la stimulation électrique cérébrale de profondeur (Deep Brain Stimulation). Cette source exogène peut activer les réseaux épileptiques et produire une réaction électrophysiologique telle qu'une crise d'épilepsie. Elle permet également de mettre en exergue les zones fonctionnelles cognitives. Cette source exogène est parfaitement définie spatialement et temporellement. Ainsi, la stimulation, couplée aux mesures SEEG, contribue à la modélisation de la propagation électrique cérébrale et, par voie de conséquence, à la compréhension du processus épileptique. De plus, ce travail sur le modèle de propagation directe apporte une aide à la résolution du problème inverse et donc à la localisation de sources. Les différentes tâches accomplies au cours de cette thèse sont les suivantes : création d'une base de données réelles à partir de 3000 stimulations et mesures SEEG pour 42 patients explorés ; extraction par séparation des signaux de propagation de la stimulation électrique (DBS) des mesures multidimensionnelles SEEG : 5 méthodes ont été développées ou adaptées et ont été validées au cours d'une première phase en simulation puis sur des signaux réels SEEG dans une seconde phase ; localisation des électrodes de SEEG dans le repère anatomique de l'IRM et du CT Scanner en y ajoutant une étape de segmentation de la matière grise et blanche, du liquide céphalorachidien et de l'os ; discussion sur de nombreux modèles de propagation réalistes ou non réalistes proposés dans la littérature, à la fois sur le plan du raffinement du modèle mais également sur les implantations numériques possibles : modèles de milieu, sphériques et réalistes infinis basés sur MRI et CT du patient ; comparaison entre les résultats générés par les modèles de sources et de milieux et les données obtenues après séparation de la stimulation électrique in vivo chez l'homme ; validation des modèles de tête FEM en intégrant les conductivités des milieux (CSF), gris et blancs céphalo-rachidiens et perspectives envisagées
The study of epilepsy requires the identification of cerebral structures which are involved in generation of seizures and connexion processes. Several methods of clinical investigation contributed to these studies : imaging (PET, MRI), electrophysiology (EEG, SEEG, MEG). The EEG provides a temporal resolution enough to analyze these processes. However, the localization of deep sources and their dynamical properties are difficult to understand. SEEG is a modality of intracerebral electrophysiological and anatomical high temporal resolution reserved for some difficult cases of pre-surgical diagnosis : drug-resistant epilepsy. The definition of the epileptogenic zone, as proposed by Talairach and Bancaud is an electro-clinical definition based on the results of intracerebral SEEG recordings. It takes into account not only the anatomical localization of partial epileptic discharge, but also the dynamic evolution of this discharge (active neural networks at the time of seizure) and clinical symptoms. Recently, a novel diagnostic technique allows an accurate localization of the epileptogenic zone using Depth Brain Stimulation (DBS). This exogenous source can activate the epileptic networks and generate an electrophysiological reaction. Therefore, coupling DBS with SEEG measurements is very advantageous : firstly, to contribute to the modeling and understanding of the (epileptic) brain and to help the diagnosis, secondly, to access the estimation of head model as an electrical conductor (conductive properties of tissues). In addition, supplementary information about head model improves the solution to the inverse problem (source localization methods) used in many applications in EEG and SEEG. The inverse solution requires repeated computation of the forward problem, i.e. the simulation of EEG and SEEG fields for a given dipolar source in the brain using a volume-conduction model of the head. As for DBS, the location of source is well defined. Therefore, in this thesis, we search for the best head model for the forward problem from real synchronous measurements of EEG and SEEG with DBS in several patients. So, the work of the thesis breaks up into different parts for which we need to accomplish the following tasks : Creation of database 3000 DBS measurements for 42 patients ; Extraction of DBS signal from SEEG and EEG measurements using multidimensional analysis : 5 methods have been developed or adapted and validate first in a simulation study and, secondly, in a real SEEG application ; Localization of SEEG electrodes in MR and CT images, including segmentation of brain matter ; SEEG forward modeling using infinite medium, spherical and realistic models based on MRI and CT of the patient ; Comparison between different head models and validation with real in vivo DBS measurements ; Validation of realistic 5-compartment FEM head models by incorporating the conductivities of cerebrospinal fluid (CSF), gray and white matters
APA, Harvard, Vancouver, ISO, and other styles
13

Poulain, d'Andecy Vincent. "Système à connaissance incrémentale pour la compréhension de document et la détection de fraude." Thesis, La Rochelle, 2021. http://www.theses.fr/2021LAROS025.

Full text
Abstract:
Le Document Understanding est la discipline de l’Intelligence Artificielle qui dote les machines du pouvoir de Lecture. Cette capacité sous-entend de comprendre dans une vision globale l’objet du document, sa classe, et dans une vision locale, des informations précises, des entités. Un double défi est de réussir ces opérations dans plus de 90% des cas tout en éduquant la machine avec le moins d’effort humain possible. Cette thèse défend la possibilité de relever ces défis avec des méthodes à apprentissage incrémental. Nos propositions permettent d’éduquer efficacement et itérativement une machine avec quelques exemples de document. Pour la classification, nous démontrons (1) la possibilité de découvrir itérativement des descripteurs textuels, (2) l’intérêt de tenir compte de l’ordre du discours et (3) l’intérêt d’intégrer dans le modèle de donnée incrémental une mémoire épisodique de quelques Souvenirs d’échantillon. Pour l’extraction d’entité, nous démontrons un modèle structurel itératif à partir d’un graphe en étoile dont la robustesse est améliorée avec quelques connaissances a priori d’ordre général. Conscient de l’importance économique et sociétale de la fraude dans les flux documentaires, cette thèse fait également le point sur cette problématique. Notre contribution est modeste en étudiant les catégories de fraude pour ouvrir des perspectives de recherche. Cette thèse a été conduite dans un cadre atypique en conjonction avec une activité industrielle à Yooz et des projets collaboratifs, en particulier, les projets FEDER SECURDOC soutenu par la région Nouvelle Aquitaine et Labcom IDEAS soutenu par l’ANR
The Document Understanding is the Artificial Intelligence ability for machines to Read documents. In a global vision, it aims the understanding of the document function, the document class, and in a more local vision, it aims the understanding of some specific details like entities. The scientific challenge is to recognize more than 90% of the data. While the industrial challenge requires this performance with the least human effort to train the machine. This thesis defends that Incremental Learning methods can cope with both challenges. The proposals enable an efficient iterative training with very few document samples. For the classification task, we demonstrate (1) the continue learning of textual descriptors, (2) the benefit of the discourse sequence, (3) the benefit of integrating a Souvenir of few samples in the knowledge model. For the data extraction task, we demonstrate an iterative structural model, based on a star-graph representation, which is enhanced by the embedding of few a priori knowledges. Aware about economic and societal impacts because the document fraud, this thesis deals with this issue too. Our modest contribution is only to study the different fraud categories to open further research. This research work has been done in a non-classic framework, in conjunction of industrial activities for Yooz and collaborative research projects like the FEDER Securdoc project supported by la région Nouvelle Aquitaine, and the Labcom IDEAS supported by the ANR
APA, Harvard, Vancouver, ISO, and other styles
14

Ok, David. "Mise en Correspondance Robuste et Détection d'Éléments Visuels Appliquées à l'Analyse de Façades." Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00844049.

Full text
Abstract:
Depuis quelques années, avec l'émergence de larges bases d'images comme Google Street View, la capacité à traiter massivement et automatiquement des données, sou- vent très contaminées par les faux positifs et massivement ambiguës, devient un enjeu stratégique notamment pour la gestion de patrimoine et le diagnostic de l'état de façades de bâtiment. Sur le plan scientifique, ce souci est propre à faire avancer l'état de l'art dans des problèmes fondamentaux de vision par ordinateur. Notamment, nous traitons dans cette thèse les problèmes suivants: la mise en correspondance robuste, algorithmiquement efficace de caractéristiques visuelles et l'analyse d'images de façades par grammaire. L'enjeu est de développer des méthodes qui doivent également être adaptées à des problèmes de grande échelle. Tout d'abord, nous proposons une formalisation mathématique de la cohérence géométrique qui joue un rôle essentiel pour une mise en correspondance robuste de caractéristiques visuelles. À partir de cette formalisation, nous en dérivons un algo- rithme de mise en correspondance qui est algorithmiquement efficace, précise et robuste aux données fortement contaminées et massivement ambiguës. Expérimentalement, l'algorithme proposé se révèle bien adapté à des problèmes de mise en correspondance d'objets déformés, et à des problèmes de mise en correspondance précise à grande échelle pour la calibration de caméras. En s'appuyant sur notre algorithme de mise en correspondance, nous en dérivons ensuite une méthode de recherche d'éléments répétés, comme les fenêtres. Celle-ci s'avère expérimentalement très efficace et robuste face à des conditions difficiles comme la grande variabilité photométrique des éléments répétés et les occlusions. De plus, elle fait également peu d'hallucinations. Enfin, nous proposons des contributions méthodologiques qui exploitent efficacement les résultats de détections d'éléments répétés pour l'analyse de façades par grammaire, qui devient substantiellement plus précise et robuste.
APA, Harvard, Vancouver, ISO, and other styles
15

Auvinet, Edouard. "Analyse d'information tridimensionnelle issue de systèmes multi-caméras pour la détection de la chute et l'analyse de la marche." Phd thesis, Université Rennes 2, 2012. http://tel.archives-ouvertes.fr/tel-00946188.

Full text
Abstract:
Cette thèse s'intéresse à définir de nouvelles méthodes cliniques d'investigation permettant de juger de l'impact de l'avance en âge sur la motricité. En particulier, cette thèse se focalise sur deux principales perturbations possibles lors de l'avance en âge : la chute et l'altération de la marche.Ces deux perturbations motrices restent encore mal connues et leur analyse en clinique pose de véritables défis technologiques et scientifiques. Dans cette thèse, nous proposons des méthodes originales de détection qui peuvent être utilisées dans la vie courante ou en clinique, avec un minimum de contraintes techniques.Dans une première partie, nous abordons le problème de la détection de la chute à domicile, qui a été largement traité dans les années précédentes. En particulier, nous proposons une approche permettant d'exploiter le volume du sujet, reconstruit à partir de plusieurs caméras calibrées. Ces méthodes sont généralement très sensibles aux occultationsqui interviennent inévitablement dans le domicile et nous proposons donc une approche originale beaucoup plus robuste à ces occultations. L'efficacité et le fonctionnement en temps réel ont été validés sur plus d'une vingtaine de vidéos de chutes et de leurres, avec des résultats approchant les 100% de sensibilité et de spécificité en utilisant 4 caméras ou plus.Dans une deuxième partie, nous allons un peu plus loin dans l'exploitation des volumes reconstruits d'une personne, lors d'une tâche motrice particulière : la marche sur tapis roulant, dans un cadre de diagnostic clinique. Dans cette partie, nous analysons plus particulièrement la qualité de la marche. Pour cela nous développons le concept d'utilisation de caméras de profondeur pour la quantification de l'asymétrie spatiale au cours du mouvement des membres inférieurs pendant la marche. Après avoir détecté chaque pas dans le temps, cette méthode réalise une comparaison de surfaces de chaque jambe avec sa correspondante symétrique du pas opposé. La validation effectuée sur une cohorte de 20 sujets montre la viabilité de la démarche
APA, Harvard, Vancouver, ISO, and other styles
16

Wang, Qiong. "Salient object detection and segmentation in videos." Thesis, Rennes, INSA, 2019. http://www.theses.fr/2019ISAR0003/document.

Full text
Abstract:
Cette thèse est centrée sur le problème de la détection d'objets saillants et de leur segmentation dans une vidéo en vue de détecter les objets les plus attractifs ou d'affecter des identités cohérentes d'objets à chaque pixel d'une séquence vidéo. Concernant la détection d'objets saillants dans vidéo, outre une revue des techniques existantes, une nouvelle approche et l'extension d'un modèle sont proposées; de plus une approche est proposée pour la segmentation d'instances d'objets vidéo. Pour la détection d'objets saillants dans une vidéo, nous proposons : (1) une approche traditionnelle pour détecter l'objet saillant dans sa totalité à l'aide de la notion de "bordures virtuelles". Un filtre guidé est appliqué sur la sortie temporelle pour intégrer les informations de bord spatial en vue d'une meilleure détection des bords de l'objet saillants. Une carte globale de saillance spatio-temporelle est obtenue en combinant la carte de saillance spatiale et la carte de saillance temporelle en fonction de l'entropie. (2) Une revue des développements récents des méthodes basées sur l'apprentissage profond est réalisée. Elle inclut les classifications des méthodes de l'état de l'art et de leurs architectures, ainsi qu'une étude expérimentale comparative de leurs performances. (3) Une extension d'un modèle de l'approche traditionnelle proposée en intégrant un procédé de détection d'objet saillant d'image basé sur l'apprentissage profond a permis d'améliorer encore les performances. Pour la segmentation des instances d'objets dans une vidéo, nous proposons une approche d'apprentissage profond dans laquelle le calcul de la confiance de déformation détermine d'abord la confiance de la carte masquée, puis une sélection sémantique est optimisée pour améliorer la carte déformée, où l'objet est réidentifié à l'aide de l'étiquettes sémantique de l'objet cible. Les approches proposées ont été évaluées sur des jeux de données complexes et de grande taille disponibles publiquement et les résultats expérimentaux montrent que les approches proposées sont plus performantes que les méthodes de l'état de l'art
This thesis focuses on the problem of video salient object detection and video object instance segmentation which aim to detect the most attracting objects or assign consistent object IDs to each pixel in a video sequence. One approach, one overview and one extended model are proposed for video salient object detection, and one approach is proposed for video object instance segmentation. For video salient object detection, we propose: (1) one traditional approach to detect the whole salient object via the adjunction of virtual borders. A guided filter is applied on the temporal output to integrate the spatial edge information for a better detection of the salient object edges. A global spatio-temporal saliency map is obtained by combining the spatial saliency map and the temporal saliency map together according to the entropy. (2) An overview of recent developments for deep-learning based methods is provided. It includes the classifications of the state-of-the-art methods and their frameworks, and the experimental comparison of the performances of the state-of-the-art methods. (3) One extended model further improves the performance of the proposed traditional approach by integrating a deep-learning based image salient object detection method For video object instance segmentation, we propose a deep-learning approach in which the warping confidence computation firstly judges the confidence of the mask warped map, then a semantic selection is introduced to optimize the warped map, where the object is re-identified using the semantics labels of the target object. The proposed approaches have been assessed on the published large-scale and challenging datasets. The experimental results show that the proposed approaches outperform the state-of-the-art methods
APA, Harvard, Vancouver, ISO, and other styles
17

Hoarau, Gwenaël. "Étude de la limite de détection et des fausses alarmes émises par les moniteurs de mesure de la contamination radioactive atmosphérique dans les chantiers de démantèlement." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASP055.

Full text
Abstract:
Les moniteurs de mesure de la contamination radioactive atmosphérique sont utilisés dans les installations nucléaires afin d’assurer la radioprotection des travailleurs vis-à-vis de l’exposition aux aérosols radioactifs. Les performances de ces moniteurs sont évaluées dans des conditions normatives IEC, lesquelles couvrent une large gamme d’atmosphères de travail. Dans des situations typiques de celles mesurées en chantier de démantèlement nucléaire, lesquelles sont d’ailleurs hors cadre IEC, un comportement inattendu des moniteurs de mesure de la contamination radioactive atmosphérique est souvent observé. Celui-ci correspond à l’émission d’une alarme de type faux positif. L’objectif de ce travail de thèse est d’améliorer les connaissances sur le comportement des moniteurs de mesure de la contamination radioactive atmosphérique dans des situations hors conditions normative IEC. Pour ce faire, un dispositif expérimental spécifique a été conçu, à l’intérieur duquel la reproduction d’atmosphères typiques de celles mesurées en chantier de démantèlement est possible. Ainsi, ce dispositif a rendu possible l’étude en laboratoire du comportement d’un moniteur de mesure de la contamination radioactive atmosphérique de type ABPM203M. Cette étude expérimentale a permis d’une part, de mettre en avant les conditions qui conduisent à un comportement inattendu du moniteur et d’autre part, de démontrer les raisons pour lesquelles une alarme de type faux positif est souvent émise dans ces conditions hors IEC. A la synthèse des résultats de l’étude, un procédé nouveau de mesure a été proposé, lequel permet d’une part, de considérer à la fois les caractéristiques des aérosols non-radioactifs et celles des aérosols radioactifs et d’autre part, d’améliorer la mesure effectuée par le moniteur permettant de toujours assurer la radioprotection des travailleurs
The Continuous Air monitors are used in the nuclear facilities for ensuring the radiation protection of workers who are likely to be confronted to radioactive aerosols. The CAM behavior are evaluated under IEC normative conditions. In atmospheric conditions as measured in decommissioning nuclear sites, outside of IEC, wrongs CAM behavior are observed. Which correspond to the false positives triggering. The aim of this thesis work is to enhance the knowledge about the CAM behavior when it is faced to outside IEC normative conditions. A specific experimental chamber has been designed, inside which the reproduction of the dismantling nuclear site atmosphere is achievable. Thus, this experimental chamber made it possible, in the laboratory, the study of the behavior of a CAM type ABPM203M. With the results we have, on the one hand, highlighted the conditions which lead to unexpected behavior of the CAM and, on the other hand, demonstrated the reasons why a false positive alarm is often emitted under these conditions, outside IEC. At the synthesis of the results of the study, a new measurement process was proposed, which makes it possible, on the one hand, to consider both the characteristics of non-radioactive aerosols and those of radioactive aerosols and on the other hand, to improve the measurement achieved out by the CAM to always ensure the radiation protection of workers
APA, Harvard, Vancouver, ISO, and other styles
18

Manceau, Jérôme. "Clonage réaliste de visage." Thesis, CentraleSupélec, 2016. http://www.theses.fr/2016SUPL0004/document.

Full text
Abstract:
Les clones de visage 3D peuvent être utilisés dans de nombreux domaines tels que l'interaction homme-machine et comme prétraitement dans des applications telles que l'analyse de l'émotion. Toutefois, ces clones doivent avoir la forme du visage bien modélisée tout en conservant les spécificités des individus et ils doivent être sémantiques. Un clone est sémantique quand on connaît la position des différentes parties du visage (yeux, nez ...). Dans notre technique, nous utilisons un capteur RVB-Z pour obtenir les spécificités des individus et un modèle déformable de visage 3D pour marquer la forme du visage. Pour la reconstruction de la forme, nous inversons le processus utilisé classiquement. En effet, nous réalisons d'abord le fitting puis la fusion de données. Pour chaque trame de profondeur, nous gardons les parties appropriées de données appelées patchs de forme. Selon le positionnement de ces patchs, nous fusionnons les données du capteur ou les données du modèle déformable de visage 3D. Pour la reconstruction de la texture, nous utilisons des patchs de forme et de texture pour préserver les caractéristiques de la personne. Ils sont détectés à partir des cartes de profondeur du capteur. Les tests que nous avons effectués montrent la robustesse et la précision de notre méthode
3D face clones can be used in many areas such as Human-Computer Interaction and as pretreatment in applications such as emotion analysis. However, such clones should have well-modeled facial shape while keeping the specificities of individuals and they should be semantic. A clone is semantic when we know the position of the different parts of the face (eyes, nose...). In our technique, we use a RGB-D sensor to get the specificities of individuals and 3D Morphable Face Model to mark facial shape. For the reconstruction of the shape, we reverse the process classically used. Indeed, we first perform fitting and then data fusion. For each depth frame, we keep the suitable parts of data called patches. Depending on the location, we merge either sensor data or 3D Morphable Face Model data. For the reconstruction of the texture, we use shape and texture patches to preserve the person's characteristics. They are detected using the depth frames of a RGB-D sensor. The tests we perform show the robustness and the accuracy of our method
APA, Harvard, Vancouver, ISO, and other styles
19

Leh, Barbara. "Caractérisation par autofluorescence de tissus cérébraux tumoraux : mesures sur fantômes et modèle animal." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00647327.

Full text
Abstract:
L'objectif de ce travail de thèse est de développer une sonde optique dédiée à aider le neurochirurgien à parfaire la résection des glioblastomes. Ce type de tumeurs est le plus fréquent et le plus agressif. Améliorer son exérèse permettrait d'augmenter la durée de survie moyenne du patient. Une exposé des tumeurs cérébrales et de leur prise en charge médicale introduit cette thèse. Le développement comporte trois volets. En premier lieu, le dispositif expérimental et la sonde utilisée fibrée sont caractérisés. Pour ce faire, des fantômes optiques calibrés aux géométries variées ont été conçus. Après validation, ils ont permis de définir la profondeur détectée en fonction de la variation de coefficients optiques.Deuxièmement, un programme de simulation Monte-Carlo a été développé et adapté au dispositif de mesures. Grâce aux mesures sur fantômes, ce programme a été validé. Cet outil permet un gain de temps considérable dans le processus de définition des propriétés de détection d'une sonde en fonction de sa géométrie.Enfin, dans le but d'identifier des indicateurs potentiels du tissu cérébral tumoral, une campagne de mesures sur modèle animal a été menée. Une étude spectroscopique approfondie a été effectuée sur des échantillons frais ex vivo. Plusieurs indices caractéristiques des tissus tumoraux ont été mis en évidence grâce à ce travail.
APA, Harvard, Vancouver, ISO, and other styles
20

Nguyen, Hoai phuong. "Certification de l'intégrité d'images numériques et de l'authenticité." Thesis, Reims, 2019. http://www.theses.fr/2019REIMS007/document.

Full text
Abstract:
Avec l’avènement de l’informatique grand public et du réseau Internet, de nombreuses vidéos circulent un peu partout dans le monde. La falsification de ces supports est devenue une réalité incontournable, surtout dans le domaine de la cybercriminalité. Ces modifications peuvent être relativement anodines (retoucher l’apparence d’une personne pour lui enlever des imperfections cutanées), dérangeantes (faire disparaitre les défauts d’un objet) ou bien avoir de graves répercussions sociales (montage présentant la rencontre improbable de personnalités politiques). Ce projet s’inscrit dans le domaine de l’imagerie légale (digital forensics en anglais). Il s’agit de certifier que des images numériques sont saines ou bien falsifiées. La certification peut être envisagée comme une vérification de la conformité de l’image à tester en rapport à une référence possédée. Cette certification doit être la plus fiable possible car la preuve numérique de la falsification ne pourra être établie que si la méthode de détection employée fournit très peu de résultats erronés. Une image est composée de zones distinctes correspondantes à différentes portions de la scène (des individus, des objets, des paysages, etc.). La recherche d’une falsification consiste à vérifier si une zone suspecte est « physiquement cohérente » avec d’autres zones de l’image. Une façon fiable de définir cette cohérence consiste à se baser sur les « empreintes physiques » engendrées par le processus d’acquisition. Le premier caractère novateur de ce projet est la différenciation entre les notions de conformité et d’intégrité. Un support est dit conforme s’il respecte le modèle physique d’acquisition. Si certains des paramètres du modèle prennent des valeurs non autorisées, le support sera déclaré non-conforme. Le contrôle d’intégrité va plus loin. Il s’agit d’utiliser le test précédent pour vérifier si deux zones distinctes sont conformes à un modèle commun. Autrement dit, contrairement au contrôle de conformité qui s’intéresse au support dans son ensemble, le contrôle d’intégrité examine l’image zone par zone pour vérifier si deux zones sont mutuellement cohérentes, c’est-à-dire si la différence entre les paramètres caractérisant ces deux zones est cohérente avec la réalité physique du processus d’acquisition. L’autre caractère novateur du projet est la construction d’outils permettant de pouvoir calculer analytiquement les probabilités d’erreurs du détecteur de falsifications afin de fournir un critère quantitatif de décision. Aucune méthode ou outil actuels ne répondent à ces contraintes
Nowadays, with the advent of the Internet, the falsification of digital media such as digital images and video is a security issue that cannot be ignored. It is of vital importance to certify the conformity and the integrity of these media. This project, which is in the domain of digital forensics, is proposed to answer this problematic
APA, Harvard, Vancouver, ISO, and other styles
21

Bourien, Jérôme. "Analyse de distributions spatio-temporelles de transitoires dans des signaux vectoriels. Application à la détection-classification d'activités paroxystiques intercritiques dans des observations EEG." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00007178.

Full text
Abstract:
Les signaux électroencéphalographiques enregistrés chez les patients épileptiques reflètent, en dehors des périodes correspondant aux crises d'épilepsie, des signaux transitoires appelés "activités épileptiformes" (AE). L'analyse des AE peut contribuer à l'étude des épilepsies partielles pharmaco-résistantes. Une méthode de caractérisation de la dynamique spatio-temporelle des AE dans des signaux EEG de profondeur est présentée dans ce document. La méthode est constituée de quatre étapes:

1. Détection des AE monovoie. La méthode de détection, qui repose sur une approche heuristique, utilise un banc de filtres en ondelettes pour réhausser la composante pointue des AE (généralement appelée "spike" dans la littérature). La valeur moyenne des statistiques obtenues en sortie de chaque filtre est ensuite analysée avec un algorithme de Page-Hinkley dans le but de détecter des changements abrupts correspondant aux spikes.

2. Fusion des AE. Cette procédure recherche des co-occurrences entre AE monovoie à l'aide d'une fenêtre glissante puis forme des AE multivoies.

3. Extraction des sous-ensembles de voies fréquement et significativement activées lors des AE multivoies (appelés "ensembles d'activation").

4. Evaluation de l'éxistence d'un ordre d'activation temporel reproductible (éventuellement partiel) au sein de chaque ensemble d'activation.

Les méthodes proposées dans chacune des étapes ont tout d'abord été évaluées à l'aide de signaux simulés (étape 1) ou à l'aide de models Markoviens (étapes 2-4). Les résultats montrent que la méthode complète est robuste aux effets des fausses-alarmes. Cette méthode a ensuite été appliquée à des signaux enregistrés chez 8 patients (chacun contenant plusieurs centaines d'AE). Les résultats indiquent une grande reproductibilité des distributions spatio-temporelles des AE et ont permis l'identification de réseaux anatomo-fonctionnels spécifiques.
APA, Harvard, Vancouver, ISO, and other styles
22

Billiot, Bastien. "Conception d'un dispositif d'acquisition d'images agronomiques 3D en extérieur et développement des traitements associés pour la détection et la reconnaissance de plantes et de maladies." Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00983327.

Full text
Abstract:
Dans le cadre de l'acquisition de l'information de profondeur de scènes texturées, un processus d'estimation de la profondeur basé sur la méthode de reconstruction 3D " Shape from Focus " est présenté dans ce manuscrit. Les deux étapes fondamentales de cette approche sont l'acquisition de la séquence d'images de la scène par sectionnement optique et l'évaluation de la netteté locale pour chaque pixel des images acquises. Deux systèmes d'acquisition de cette séquence d'images sont présentés ainsi que les traitements permettant d'exploiter celle-ci pour la suite du processus d'estimation de la profondeur. L'étape d'évaluation de la netteté des pixels passe par la comparaison des différents opérateurs de mesure de netteté. En plus des opérateurs usuels, deux nouveaux opérateurs basés sur les descripteurs généralisés de Fourier sont proposés. Une méthode nouvelle et originale de comparaison est développée et permet une analyse approfondie de la robustesse à différents paramètres des divers opérateurs. Afin de proposer une automatisation du processus de reconstruction, deux méthodes d'évaluation automatique de la netteté sont détaillées. Finalement, le processus complet de reconstruction est appliqué à des scènes agronomiques, mais également à une problématique du domaine de l'analyse de défaillances de circuits intégrés afin d'élargir les domaines d'utilisation
APA, Harvard, Vancouver, ISO, and other styles
23

Laborde, Antoine. "Detection of minor compounds in food powder using near infrared hyperspectral imaging." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASB017.

Full text
Abstract:
L’imagerie hyperspectrale proche infrarouge (PIR) permet d’obtenir une carte spectrale d’un échantillon organique. La mesure d’un spectre pour chaque pixel de la caméra permet notamment la recherche de composés minoritaires dans les poudres agroalimentaires. Cependant, l’analyse spectrale PIR est limitée à une couche de profondeur donnée. De plus, la taille des particules associée à une résolution insuffisante des caméras PIR actuelles induisent un mélange des signaux spectraux dans les pixels de l’image. Ces deux problèmes sont une limitation pour l’analyse des composés minoritaires dans les poudres agroalimentaires.Nous proposons une méthode permettant de déterminer la profondeur de détection d’une cible composite placée dans un produit pulvérulent tel que la farine de blé. Basée sur une régression par projection sur les structures latentes, cette méthode permet d’appréhender l’atténuation du signal PIR lorsque la couche de poudre augmente, et ce malgré les problèmes inhérents à la détection en profondeur.De plus, deux stratégies de démélange de spectres sont proposées dans le but de détecter les pixels contenant des signatures de particules minoritaires. Le manque de valeur de référence utilisées en tant que données de validation des algorithmes ainsi que l’ambiguïté des spectres des composés pures à démélanger sont deux difficultés majeures. Une première stratégie consiste à modélisation la variabilité des spectres étudiés via l’Analyse en Composantes Principales afin de construire un algorithme de détection performant. La deuxième stratégie, basée sur la Multivariate Curve Resolution Alternating Least-Squares permet le démélange des signaux par pixels dans un cas plus complexe
Near-infrared (NIR) hyperspectral imaging provides a spectral map for organic samples. Minor compounds in food powder can be looked for by analyzing the pixel spectra. However, the NIR spectral analysis is limited to a given depth. Besides, particles smaller than the pixel size induce a mixed spectral signature in the pixels. These two issues are an obstacle to the analysis of minor compounds in food powders.We propose a method to determine the detection depth of a composite target under a layer of powder such as wheat flour. It is based on the Partial Least Squares regression and provides an understanding of how the NIR signal is attenuated when the layer of powder despite the penetration depth issues.Two spectral unmixing strategies are proposed to detect pixel with minor compound NIR signatures. The lack of reference values to validate the model and the ambiguity of the spectral signature to unmix are two major difficulties. The first method models the spectral variability using Principal Component Analysis to design a performant detection algorithm. Then, for a more complex situation, the Multivariate Curve Resolution Alternating Least-Squares algorithm is used to unmix each pixel
APA, Harvard, Vancouver, ISO, and other styles
24

Derome, Maxime. "Vision stéréoscopique temps-réel pour la navigation autonome d'un robot en environnement dynamique." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS156/document.

Full text
Abstract:
L'objectif de cette thèse est de concevoir un système de perception stéréoscopique embarqué, permettant une navigation robotique autonome en environnement dynamique (i.e. comportant des objets mobiles). Pour cela, nous nous sommes imposé plusieurs contraintes : 1) Puisque l'on souhaite pouvoir naviguer en terrain inconnu et en présence de tout type d'objets mobiles, nous avons adopté une approche purement géométrique. 2) Pour assurer une couverture maximale du champ visuel nous avons choisi d'employer des méthodes d'estimation denses qui traitent chaque pixel de l'image. 3) Puisque les algorithmes utilisés doivent pouvoir s'exécuter en embarqué sur un robot, nous avons attaché le plus grand soin à sélectionner ou concevoir des algorithmes particulièrement rapides, pour nuire au minimum à la réactivité du système. La démarche présentée dans ce manuscrit et les contributions qui sont faites sont les suivantes. Dans un premier temps, nous étudions plusieurs algorithmes d’appariement stéréo qui permettent d'estimer une carte de disparité dont on peut déduire, par triangulation, une carte de profondeur. Grâce à cette évaluation nous mettons en évidence un algorithme qui ne figure pas sur les benchmarks KITTI, mais qui offre un excellent compromis précision/temps de calcul. Nous proposons également une méthode pour filtrer les cartes de disparité. En codant ces algorithmes en CUDA pour profiter de l’accélération des calculs sur cartes graphiques (GPU), nous montrons qu’ils s’exécutent très rapidement (19ms sur les images KITTI, sur GPU GeForce GTX Titan).Dans un deuxième temps, nous souhaitons percevoir les objets mobiles et estimer leur mouvement. Pour cela nous calculons le déplacement du banc stéréo par odométrie visuelle pour pouvoir isoler dans le mouvement apparent 2D ou 3D (estimé par des algorithmes de flot optique ou de flot de scène) la part induite par le mouvement propre à chaque objet. Partant du constat que seul l'algorithme d'estimation du flot optique FOLKI permet un calcul en temps-réel, nous proposons plusieurs modifications de celui-ci qui améliorent légèrement ses performances au prix d'une augmentation de son temps de calcul. Concernant le flot de scène, aucun algorithme existant ne permet d'atteindre la vitesse d'exécution souhaitée, nous proposons donc une nouvelle approche découplant structure et mouvement pour estimer rapidement le flot de scène. Trois algorithmes sont proposés pour exploiter cette décomposition structure-mouvement et l’un d’eux, particulièrement efficace, permet d'estimer très rapidement le flot de scène avec une précision relativement bonne. A notre connaissance, il s'agit du seul algorithme publié de calcul du flot de scène capable de s'exécuter à cadence vidéo sur les données KITTI (10Hz).Dans un troisième temps, pour détecter les objets en mouvement et les segmenter dans l'image, nous présentons différents modèles statistiques et différents résidus sur lesquels fonder une détection par seuillage d'un critère chi2. Nous proposons une modélisation statistique rigoureuse qui tient compte de toutes les incertitudes d'estimation, notamment celles de l'odométrie visuelle, ce qui n'avait pas été fait à notre connaissance dans le contexte de la détection d'objets mobiles. Nous proposons aussi un nouveau résidu pour la détection, en utilisant la méthode par prédiction d’image qui permet de faciliter la propagation des incertitudes et l'obtention du critère chi2. Le gain apporté par le résidu et le modèle d'erreur proposés est démontré par une évaluation des algorithmes de détection sur des exemples tirés de la base KITTI. Enfin, pour valider expérimentalement notre système de perception en embarqué sur une plateforme robotique, nous implémentons nos codes sous ROS et certains codes en CUDA pour une accélération sur GPU. Nous décrivons le système de perception et de navigation utilisé pour la preuve de concept qui montre que notre système de perception, convient à une application embarquée
This thesis aims at designing an embedded stereoscopic perception system that enables autonomous robot navigation in dynamic environments (i.e. including mobile objects). To do so, we need to satisfy several constraints: 1) We want to be able to navigate in unknown environment and with any type of mobile objects, thus we adopt a geometric approach. 2) We want to ensure the best possible coverage of the field of view, so we employ dense methods that process every pixel in the image. 3) The algorithms must be compliant with an embedded platform, therefore we must carefully design the algorithms so they are fast enough to keep a certain level of reactivity. The approach presented in this thesis manuscript and the contributions are summarized below. First, we study several stereo matching algorithms that estimate a disparity map from which we can deduce a depth map, by triangulation. This comparative study highlights one algorithm that is not in the KITTI benchmarks, but that gives a great accuracy/processing time tradeoff. We also propose a filtering method to post-process the disparity maps. By coding these algorithm in CUDA to benefit from hardware acceleration on Graphics Processing Unit, we show that they can perform very fast (19ms on KITTI images, with a GPU GeForce GTX Titan).Second, we want to detect mobile objects and estimate their motion. To do so we compute the stereo rig motion using visual odometry, in order to isolate the part induced by moving objects in the 2D or 3D apparent motion (estimated by optical flow or scene flow algorithms). Considering that the only optical flow algorithm able to perform in real-time is FOLKI, we propose several modifications of it to slightly improve its performances at the cost of a slower processing time. Regarding the scene flow estimation, existing algorithms cannot reach the desired computation speed, so we propose a new approach by decoupling structure and motion for a fast scene flow estimation. Three algorithms are proposed to use this structure-motion decomposition, and one of them, particularly efficient, enables very fast scene flow computing with a relatively good accuracy. To our knowledge it is the only published scene flow algorithm able to perform at framerate on KITTI dataset (10 Hz).Third, to detect moving objects and segment them in the image, we show several statistical models and residual quantities on which we can base the detection by thresholding a chi2 criterion. We propose a rigorous statistical modeling that takes into account all the uncertainties occurring during the estimation, in particular during the visual odometry, which had not been done to our knowledge, in the context of moving object detection. We also propose a new residual quantity for the detection, using an image prediction approach to facilitate uncertainty propagation and the chi2 criterion modeling. The benefit brought by the proposed residual quantity and error model is demonstrated by evaluating detection algorithms on a samples of annotated KITTI data. Finally, we implement our algorithms on ROS to run the perception system on en embedded platform, and we code some algorithms in CUDA to accelerate the computing using GPU. We describe the perception and the navigation system that we use for the experimental validation. We show in our experiments that the proposed stereovision perception system is suitable for embedded robotic applications
APA, Harvard, Vancouver, ISO, and other styles
25

Mozafari, Marzieh. "Hate speech and offensive language detection using transfer learning approaches." Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAS007.

Full text
Abstract:
Une des promesses des plateformes de réseaux sociaux (comme Twitter et Facebook) est de fournir un endroit sûr pour que les utilisateurs puissent partager leurs opinions et des informations. Cependant, l’augmentation des comportements abusifs, comme le harcèlement en ligne ou la présence de discours de haine, est bien réelle. Dans cette thèse, nous nous concentrons sur le discours de haine, l'un des phénomènes les plus préoccupants concernant les réseaux sociaux.Compte tenu de sa forte progression et de ses graves effets négatifs, les institutions, les plateformes de réseaux sociaux et les chercheurs ont tenté de réagir le plus rapidement possible. Les progrès récents des algorithmes de traitement automatique du langage naturel (NLP) et d'apprentissage automatique (ML) peuvent être adaptés pour développer des méthodes automatiques de détection des discours de haine dans ce domaine.Le but de cette thèse est d'étudier le problème du discours de haine et de la détection des propos injurieux dans les réseaux sociaux. Nous proposons différentes approches dans lesquelles nous adaptons des modèles avancés d'apprentissage par transfert (TL) et des techniques de NLP pour détecter automatiquement les discours de haine et les contenus injurieux, de manière monolingue et multilingue.La première contribution concerne uniquement la langue anglaise. Tout d'abord, nous analysons le contenu textuel généré par les utilisateurs en introduisant un nouveau cadre capable de catégoriser le contenu en termes de similarité basée sur différentes caractéristiques. En outre, en utilisant l'API Perspective de Google, nous mesurons et analysons la « toxicité » du contenu. Ensuite, nous proposons une approche TL pour l'identification des discours de haine en utilisant une combinaison du modèle non supervisé pré-entraîné BERT (Bidirectional Encoder Representations from Transformers) et de nouvelles stratégies supervisées de réglage fin. Enfin, nous étudions l'effet du biais involontaire dans notre modèle pré-entraîné BERT et proposons un nouveau mécanisme de généralisation dans les données d'entraînement en repondérant les échantillons puis en changeant les stratégies de réglage fin en termes de fonction de perte pour atténuer le biais racial propagé par le modèle. Pour évaluer les modèles proposés, nous utilisons deux datasets publics provenant de Twitter.Dans la deuxième contribution, nous considérons un cadre multilingue où nous nous concentrons sur les langues à faibles ressources dans lesquelles il n'y a pas ou peu de données annotées disponibles. Tout d'abord, nous présentons le premier corpus de langage injurieux en persan, composé de 6 000 messages de micro-blogs provenant de Twitter, afin d'étudier la détection du langage injurieux. Après avoir annoté le corpus, nous réalisons étudions les performances des modèles de langages pré-entraînés monolingues et multilingues basés sur des transformeurs (par exemple, ParsBERT, mBERT, XLM-R) dans la tâche en aval. De plus, nous proposons un modèle d'ensemble pour améliorer la performance de notre modèle. Enfin, nous étendons notre étude à un problème d'apprentissage multilingue de type " few-shot ", où nous disposons de quelques données annotées dans la langue cible, et nous adaptons une approche basée sur le méta-apprentissage pour traiter l'identification des discours de haine et du langage injurieux dans les langues à faibles ressources
The great promise of social media platforms (e.g., Twitter and Facebook) is to provide a safe place for users to communicate their opinions and share information. However, concerns are growing that they enable abusive behaviors, e.g., threatening or harassing other users, cyberbullying, hate speech, racial and sexual discrimination, as well. In this thesis, we focus on hate speech as one of the most concerning phenomenon in online social media.Given the high progression of online hate speech and its severe negative effects, institutions, social media platforms, and researchers have been trying to react as quickly as possible. The recent advancements in Natural Language Processing (NLP) and Machine Learning (ML) algorithms can be adapted to develop automatic methods for hate speech detection in this area.The aim of this thesis is to investigate the problem of hate speech and offensive language detection in social media, where we define hate speech as any communication criticizing a person or a group based on some characteristics, e.g., gender, sexual orientation, nationality, religion, race. We propose different approaches in which we adapt advanced Transfer Learning (TL) models and NLP techniques to detect hate speech and offensive content automatically, in a monolingual and multilingual fashion.In the first contribution, we only focus on English language. Firstly, we analyze user-generated textual content to gain a brief insight into the type of content by introducing a new framework being able to categorize contents in terms of topical similarity based on different features. Furthermore, using the Perspective API from Google, we measure and analyze the toxicity of the content. Secondly, we propose a TL approach for identification of hate speech by employing a combination of the unsupervised pre-trained model BERT (Bidirectional Encoder Representations from Transformers) and new supervised fine-tuning strategies. Finally, we investigate the effect of unintended bias in our pre-trained BERT based model and propose a new generalization mechanism in training data by reweighting samples and then changing the fine-tuning strategies in terms of the loss function to mitigate the racial bias propagated through the model. To evaluate the proposed models, we use two publicly available datasets from Twitter.In the second contribution, we consider a multilingual setting where we focus on low-resource languages in which there is no or few labeled data available. First, we present the first corpus of Persian offensive language consisting of 6k micro blog posts from Twitter to deal with offensive language detection in Persian as a low-resource language in this domain. After annotating the corpus, we perform extensive experiments to investigate the performance of transformer-based monolingual and multilingual pre-trained language models (e.g., ParsBERT, mBERT, XLM-R) in the downstream task. Furthermore, we propose an ensemble model to boost the performance of our model. Then, we expand our study into a cross-lingual few-shot learning problem, where we have a few labeled data in target language, and adapt a meta-learning based approach to address identification of hate speech and offensive language in low-resource languages
APA, Harvard, Vancouver, ISO, and other styles
26

Alla, Jules-Ryane S. "Détection de chute à l'aide d'une caméra de profondeur." Thèse, 2013. http://hdl.handle.net/1866/9992.

Full text
Abstract:
Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.
Elderly falls are a major public health problem. Studies show that about 30% of people aged 65 and older fall each year in Canada, with negative consequences on individuals, their families and our society. Faced with such a situation a video surveillance system is an effective solution to ensure the safety of these people. To this day many systems support services to the elderly. These devices allow the elderly to live at home while ensuring their safety by wearing a sensor. However the sensor must be worn at all times by the subject which is uncomfortable and restrictive. This is why research has recently been interested in the use of cameras instead of wearable sensors. The goal of this project is to demonstrate that the use of a video surveillance system can help to reduce this problem. In this thesis we present an approach for automatic detection of falls based on a method for tracking 3D subject using a depth camera (Kinect from Microsoft) positioned vertically to the ground. This monitoring is done using the silhouette extracted in real time with a robust approach for extracting 3D depth based on the depth variation of the pixels in the scene. This method is based on an initial capture the scene without any body. Once extracted, 10% of the silhouette corresponding to the uppermost region (nearest to the Kinect) will be analyzed in real time depending on the speed and the position of its center of gravity . These criteria will be analysed to detect the fall, then a signal (email or SMS) will be transmitted to an individual or to the authority in charge of the elderly. This method was validated using several videos of a stunt simulating falls. The camera position and depth information reduce so considerably the risk of false alarms. Positioned vertically above the ground, the camera makes it possible to analyze the scene especially for tracking the silhouette without major occlusion, which in some cases lead to false alarms. In addition, the various criteria for fall detection, are reliable characteristics for distinguishing the fall of a person, from squatting or sitting. Nevertheless, the angle of the camera remains a problem because it is not large enough to cover a large surface. A solution to this dilemma would be to fix a lens on the objective of the Kinect for the enlargement of the field of view and monitored area.
APA, Harvard, Vancouver, ISO, and other styles
27

Ndayikengurukiye, Didier. "Estimation de cartes d'énergie de hautes fréquences ou d'irrégularité de périodicité de la marche humaine par caméra de profondeur pour la détection de pathologies." Thèse, 2016. http://hdl.handle.net/1866/16178.

Full text
Abstract:
Ce travail présente deux nouveaux systèmes simples d'analyse de la marche humaine grâce à une caméra de profondeur (Microsoft Kinect) placée devant un sujet marchant sur un tapis roulant conventionnel, capables de détecter une marche saine et celle déficiente. Le premier système repose sur le fait qu'une marche normale présente typiquement un signal de profondeur lisse au niveau de chaque pixel avec moins de hautes fréquences, ce qui permet d'estimer une carte indiquant l'emplacement et l'amplitude de l'énergie de haute fréquence (HFSE). Le second système analyse les parties du corps qui ont un motif de mouvement irrégulier, en termes de périodicité, lors de la marche. Nous supposons que la marche d'un sujet sain présente partout dans le corps, pendant les cycles de marche, un signal de profondeur avec un motif périodique sans bruit. Nous estimons, à partir de la séquence vidéo de chaque sujet, une carte montrant les zones d'irrégularités de la marche (également appelées énergie de bruit apériodique). La carte avec HFSE ou celle visualisant l'énergie de bruit apériodique peut être utilisée comme un bon indicateur d'une éventuelle pathologie, dans un outil de diagnostic précoce, rapide et fiable, ou permettre de fournir des informations sur la présence et l'étendue de la maladie ou des problèmes (orthopédiques, musculaires ou neurologiques) du patient. Même si les cartes obtenues sont informatives et très discriminantes pour une classification visuelle directe, même pour un non-spécialiste, les systèmes proposés permettent de détecter automatiquement les individus en bonne santé et ceux avec des problèmes locomoteurs.
This work presents two new and simple human gait analysis systems based on a depth camera (Microsoft Kinect) placed in front of a subject walking on a conventional treadmill, capable of detecting a healthy gait from an impaired one. The first system presented relies on the fact that a normal walk typically exhibits a smooth motion (depth) signal, at each pixel with less high-frequency spectral energy content than an abnormal walk. This permits to estimate a map for that subject, showing the location and the amplitude of the high-frequency spectral energy (HFSE). The second system analyses the patient's body parts that have an irregular movement pattern, in terms of periodicity, during walking. Herein we assume that the gait of a healthy subject exhibits anywhere in the human body, during the walking cycles, a depth signal with a periodic pattern without noise. From each subject’s video sequence, we estimate a saliency color map showing the areas of strong gait irregularities also called aperiodic noise energy. Either the HFSE or aperiodic noise energy shown in the map can be used as a good indicator of possible pathology in an early, fast and reliable diagnostic tool or to provide information about the presence and extent of disease or (orthopedic, muscular or neurological) patient's problems. Even if the maps obtained are informative and highly discriminant for a direct visual classification, even for a non-specialist, the proposed systems allow us to automatically detect maps representing healthy individuals and those representing individuals with locomotor problems.
APA, Harvard, Vancouver, ISO, and other styles
28

Gros, D'Aillon Eric. "Etude des performances spectrometriques des detecteurs gamma CdTe CdZnTe monolithiques." Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00011119.

Full text
Abstract:
Les détecteurs gamma semi-conducteurs monolithiques pixellisés en CdTe et CdZnTe sont amenés à remplacer les détecteurs à base de scintillateur pour des applications médicales, notamment pour la tomographie d'émission de photons uniques (SPECT). Outre la compacité, ils présentent de meilleures performances spectrométriques : la résolution en énergie, l'efficacité de détection, et la résolution spatiale. De plus, la profondeur d'interaction des photons dans le cristal peut être mesurée.
Ce travail a consisté à étudier expérimentalement et par simulation, les corrélations entre le pas des anodes, les propriétés physiques des matériaux (résistivité et propriétés de transport des électrons) et les performances spectrométriques des détecteurs. Nous avons comparé plusieurs méthodes de mesure de la profondeur d'interaction des photons et avons obtenu une résolution en énergie à 122 keV comprise entre 1.7 % et 7 %, selon le matériau, pour 5 mm d'épaisseur. Le partage de charges entre les anodes des détecteurs a été étudié et un traitement des informations mesurées est proposé.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography