Letteratura scientifica selezionata sul tema "Détection de falsifications"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Détection de falsifications".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Détection de falsifications"

1

Victorri-Vigneau, Caroline, Katia Larour, Dominique Simon, Jacques Pivette e Pascale Jolliet. "Création et validation d’un outil de détection de la fraude par falsification d’ordonnance à partir des bases de données de l’Assurance Maladie". Therapies 64, n. 1 (gennaio 2009): 27–31. http://dx.doi.org/10.2515/therapie/2009004.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Tesi sul tema "Détection de falsifications"

1

Nguyen, Hoai phuong. "Certification de l'intégrité d'images numériques et de l'authenticité". Thesis, Reims, 2019. http://www.theses.fr/2019REIMS007/document.

Testo completo
Abstract (sommario):
Avec l’avènement de l’informatique grand public et du réseau Internet, de nombreuses vidéos circulent un peu partout dans le monde. La falsification de ces supports est devenue une réalité incontournable, surtout dans le domaine de la cybercriminalité. Ces modifications peuvent être relativement anodines (retoucher l’apparence d’une personne pour lui enlever des imperfections cutanées), dérangeantes (faire disparaitre les défauts d’un objet) ou bien avoir de graves répercussions sociales (montage présentant la rencontre improbable de personnalités politiques). Ce projet s’inscrit dans le domaine de l’imagerie légale (digital forensics en anglais). Il s’agit de certifier que des images numériques sont saines ou bien falsifiées. La certification peut être envisagée comme une vérification de la conformité de l’image à tester en rapport à une référence possédée. Cette certification doit être la plus fiable possible car la preuve numérique de la falsification ne pourra être établie que si la méthode de détection employée fournit très peu de résultats erronés. Une image est composée de zones distinctes correspondantes à différentes portions de la scène (des individus, des objets, des paysages, etc.). La recherche d’une falsification consiste à vérifier si une zone suspecte est « physiquement cohérente » avec d’autres zones de l’image. Une façon fiable de définir cette cohérence consiste à se baser sur les « empreintes physiques » engendrées par le processus d’acquisition. Le premier caractère novateur de ce projet est la différenciation entre les notions de conformité et d’intégrité. Un support est dit conforme s’il respecte le modèle physique d’acquisition. Si certains des paramètres du modèle prennent des valeurs non autorisées, le support sera déclaré non-conforme. Le contrôle d’intégrité va plus loin. Il s’agit d’utiliser le test précédent pour vérifier si deux zones distinctes sont conformes à un modèle commun. Autrement dit, contrairement au contrôle de conformité qui s’intéresse au support dans son ensemble, le contrôle d’intégrité examine l’image zone par zone pour vérifier si deux zones sont mutuellement cohérentes, c’est-à-dire si la différence entre les paramètres caractérisant ces deux zones est cohérente avec la réalité physique du processus d’acquisition. L’autre caractère novateur du projet est la construction d’outils permettant de pouvoir calculer analytiquement les probabilités d’erreurs du détecteur de falsifications afin de fournir un critère quantitatif de décision. Aucune méthode ou outil actuels ne répondent à ces contraintes
Nowadays, with the advent of the Internet, the falsification of digital media such as digital images and video is a security issue that cannot be ignored. It is of vital importance to certify the conformity and the integrity of these media. This project, which is in the domain of digital forensics, is proposed to answer this problematic
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Abecidan, Rony. "Stratégies d'apprentissage robustes pour la détection de manipulation d'images". Electronic Thesis or Diss., Centrale Lille Institut, 2024. http://www.theses.fr/2024CLIL0025.

Testo completo
Abstract (sommario):
Aujourd'hui, la manipulation d'images à des fins non éthiques est courante, notamment sur les réseaux sociaux et dans la publicité. Les utilisateurs malveillants peuvent par exemple créer des images synthétiques convaincantes pour tromper le public ou dissimuler des messages dans des images numériques, posant des risques pour la sécurité nationale. Les chercheurs en analyse forensique d'image travaillent donc avec les forces de l'ordre pour détecter ces manipulations. Les méthodes d'analyse forensique les plus avancées utilisent notamment des réseaux neuronaux convolutifs pour les détecter. Cependant, ces réseaux sont entraînés sur des données préparées par des équipes de recherche, qui diffèrent largement des données réelles rencontrées en pratique. Cet écart réduit considérablement l'efficacité opérationnelle des détecteurs de manipulations d'images. Cette thèse vise précisément à améliorer l'efficacité des détecteurs de manipulation d'images dans un contexte pratique, en atténuant l'impact de ce décalage de données. Deux stratégies complémentaires sont explorées, toutes deux issues de la littérature en apprentissage automatique : 1. Créer des modèles capables d'apprendre à généraliser sur de nouvelles bases de données ou 2. Sélectionner, voire construire, des bases d'entraînement représentatives des images à examiner. Pour détecter des manipulations sur un grand nombre d'images non étiquetées, les stratégies d'adaptation de domaine cherchant à plonger les distributions d'entraînement et d'évaluation dans un espace latent où elles coïncident peuvent se révéler utiles. Néanmoins, on ne peut nier la faible efficacité opérationnelle de ces stratégies, étant donné qu'elles supposent un équilibre irréaliste entre images vraies et manipulées parmi les images à examiner. En plus de cette hypothèse problématique, les travaux de cette thèse montrent que ces stratégies ne fonctionnent que si la base d'entraînement guidant la détection est suffisamment proche de la base d'images sur laquelle on cherche à évaluer, une condition difficile à garantir pour un praticien. Généraliser sur un petit nombre d'images non étiquetées est encore plus difficile bien que plus réaliste. Dans la seconde partie de cette thèse, nous abordons ce scénario en examinant l'influence des opérations de développement d'images traditionnelles sur le phénomène de décalage de données en détection de manipulation d'images. Cela nous permet de formuler des stratégies pour sélectionner ou créer des bases d'entraînement adaptées à un petit nombre d'images. Notre contribution finale est une méthodologie qui exploite les propriétés statistiques des images pour construire des ensembles d'entraînement pertinents vis-à-vis des images à examiner. Cette approche réduit considérablement le problème du décalage de données et permet aux praticiens de développer des modèles sur mesure pour leur situation
Today, it is easier than ever to manipulate images for unethical purposes. This practice is therefore increasingly prevalent in social networks and advertising. Malicious users can for instance generate convincing deep fakes in a few seconds to lure a naive public. Alternatively, they can also communicate secretly hidding illegal information into images. Such abilities raise significant security concerns regarding misinformation and clandestine communications. The Forensics community thus actively collaborates with Law Enforcement Agencies worldwide to detect image manipulations. The most effective methodologies for image forensics rely heavily on convolutional neural networks meticulously trained on controlled databases. These databases are actually curated by researchers to serve specific purposes, resulting in a great disparity from the real-world datasets encountered by forensic practitioners. This data shift addresses a clear challenge for practitioners, hindering the effectiveness of standardized forensics models when applied in practical situations.Through this thesis, we aim to improve the efficiency of forensics models in practical settings, designing strategies to mitigate the impact of data shift. It starts by exploring literature on out-of-distribution generalization to find existing strategies already helping practitioners to make efficient forensic detectors in practice. Two main frameworks notably hold promise: the implementation of models inherently able to learn how to generalize on images coming from a new database, or the construction of a representative training base allowing forensics models to generalize effectively on scrutinized images. Both frameworks are covered in this manuscript. When faced with many unlabeled images to examine, domain adaptation strategies matching training and testing bases in latent spaces are designed to mitigate data shifts encountered by practitioners. Unfortunately, these strategies often fail in practice despite their theoretical efficiency, because they assume that scrutinized images are balanced, an assumption unrealistic for forensic analysts, as suspects might be for instance entirely innocent. Additionally, such strategies are tested typically assuming that an appropriate training set has been chosen from the beginning, to facilitate adaptation on the new distribution. Trying to generalize on a few images is more realistic but much more difficult by essence. We precisely deal with this scenario in the second part of this thesis, gaining a deeper understanding of data shifts in digital image forensics. Exploring the influence of traditional processing operations on the statistical properties of developed images, we formulate several strategies to select or create training databases relevant for a small amount of images under scrutiny. Our final contribution is a framework leveraging statistical properties of images to build relevant training sets for any testing set in image manipulation detection. This approach improves by far the generalization of classical steganalysis detectors on practical sets encountered by forensic analyst and can be extended to other forensic contexts
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Mahfoudi, Gaël. "Authentication of Digital Images and Videos". Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0043.

Testo completo
Abstract (sommario):
Les médias digitaux font partie de notre vie de tous les jours. Après des années de photojournalisme, nous nous sommes habitués à considérer ces médias comme des témoignages objectifs de la réalité. Cependant les logiciels de retouches d'images et de vidéos deviennent de plus en plus puissants et de plus en plus simples à utiliser, ce qui permet aux contrefacteurs de produire des images falsifiées d'une grande qualité. L'authenticité de ces médias ne peut donc plus être prise pour acquise. Récemment, de nouvelles régulations visant à lutter contre le blanchiment d'argent ont vu le jour. Ces régulations imposent notamment aux institutions financières de vérifier l'identité de leurs clients. Cette vérification est souvent effectuée de manière distantielle au travers d'un Système de Vérification d'Identité à Distance (SVID). Les médias digitaux sont centraux dans de tels systèmes, il est donc essentiel de pouvoir vérifier leurs authenticités. Cette thèse se concentre sur l'authentification des images et vidéos au sein d'un SVID. Suite à la définition formelle d'un tel système, les attaques probables à l'encontre de ceux-ci ont été identifiées. Nous nous sommes efforcés de comprendre les enjeux de ces différentes menaces afin de proposer des solutions adaptées. Nos approches sont basées sur des méthodes de traitement de l'image ou sur des modèles paramétriques. Nous avons aussi proposé de nouvelles bases de données afin d'encourager la recherche sur certains défis spécifiques encore peu étudiés
Digital media are parts of our day-to-day lives. With years of photojournalism, we have been used to consider them as an objective testimony of the truth. But images and video retouching software are becoming increasingly more powerful and easy to use and allow counterfeiters to produce highly realistic image forgery. Consequently, digital media authenticity should not be taken for granted any more. Recent Anti-Money Laundering (AML) relegation introduced the notion of Know Your Customer (KYC) which enforced financial institutions to verify their customer identity. Many institutions prefer to perform this verification remotely relying on a Remote Identity Verification (RIV) system. Such a system relies heavily on both digital images and videos. The authentication of those media is then essential. This thesis focuses on the authentication of images and videos in the context of a RIV system. After formally defining a RIV system, we studied the various attacks that a counterfeiter may perform against it. We attempt to understand the challenges of each of those threats to propose relevant solutions. Our approaches are based on both image processing methods and statistical tests. We also proposed new datasets to encourage research on challenges that are not yet well studied
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Iphar, Clément. "Formalisation d'un environnement d'analyse des données basé sur la détection d'anomalies pour l'évaluation de risques : Application à la connaissance de la situation maritime". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM041/document.

Testo completo
Abstract (sommario):
Il existe différents systèmes de localisation de navires en mer qui favorisent une aide à la navigation et une sécurisation du trafic maritime. Ces systèmes sont également utilisés en tant qu’outils de surveillance et d’aide à la décision par les centres de surveillance basés à terre. Le Système d’Identification Automatique (AIS) déployé par l’Organisation Maritime Internationale, bien qu’étant le système de localisation de navires le plus utilisé de nos jours, est faiblement sécurisé. Cette vulnérabilité est illustrée par des cas réels et détectés tels que des usurpations d’identité ou des disparitions volontaires de navires qui sont sources de risques pour les navires, les infrastructures offshores et côtières et l’environnement.Nous proposons dans cette thèse une démarche méthodologique d’analyse et d’évaluation des messages AIS fondée sur les dimensions de la qualité de la donnée, dont l’intégrité considérée comme la plus importante de ces dimensions. Du fait de la structure complexe de l’AIS, une liste d'indicateurs a été établie, afin d’évaluer l'intégrité de la donnée, sa conformité avec les spécifications techniques du système et la cohérence des champs des messages entre eux et au sein d’un seul ou plusieurs messages. Notre démarche repose également sur l’usage d’informations additionnelles telles que des données géographiques ou des registres de navires afin d’évaluer la véracité et l’authenticité d’un message AIS et de son expéditeur.Enfin, une évaluation des risques associés est proposée, permettant une meilleurecompréhension de la situation maritime ainsi que l’établissement de liens de causalité entre les vulnérabilités du système et les risques relevant de la sécurité et sûreté de la navigation maritime
At sea, various systems enable vessels to be aware of their environment and on the coast, those systems, such as radar, provide a picture of the maritime traffic to the coastal states. One of those systems, the Automatic Identification System (AIS) is used for security purposes (anti-collision) and as a tool for on-shore bodies as a control and surveillance and decision-support tool.An assessment of AIS based on data quality dimensions is proposed, in which integrity is highlighted as the most important of data quality dimensions. As the structure of AIS data is complex, a list of integrity items have been established, their purpose being to assess the consistency of the data within the data fields with the technical specifications of the system and the consistency of the data fields within themselves in a message and between the different messages. In addition, the use of additional data (such as fleet registers) provides additional information to assess the truthfulness and the genuineness of an AIS message and its sender.The system is weekly secured and bad quality data have been demonstrated, such as errors in the messages, data falsification or data spoofing, exemplified in concrete cases such as identity theft or vessel voluntary disappearances. In addition to message assessment, a set of threats have been identified, and an assessment of the associated risks is proposed, allowing a better comprehension of the maritime situation and the establishment of links between the vulnerabilities caused by the weaknesses of the system and the maritime risks related to the safety and security of maritime navigation
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Ehret, Thibaud. "Video denoising and applications". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN018.

Testo completo
Abstract (sommario):
Cette thèse est dédiée es débruitage vidéo. La première partie se concentre sur les méthodes de débruitage de vidéo à patches. Nous étudions en détail VBM3D, une méthode populaire de débruitage vidéo, pour comprendre les méchanismes qui ont fait son succès. Nous présentons aussi une implémentation temps-réel sur care graphique de cette méthode. Nous étudions ensuite l'impacte de la recherche de patches pour le débruitage vidéo et en particulier commen une recherche globale peut améliorer la qualité du débruitage. Enfin, nous proposons une nouvelle méthode causale et récursive appelée NL-Kalman qui produit ne rès bonne consistance temporelle.Dans la deuxième partie, nous étudions les méthodes d'apprentissage pour le débruitage. Nous présentons l'une des toutes premières architecture de réseau qui est compétitive avec l'état de l'art. Nous montrons aussi que les méthodes basées sur l'apprentissage profond offrent de nouvelles opportunités. En particulier, il devient possible de débruiter sans connaître le modèle du bruit. Grâce à la méthode proposée, même les vidéos traitées par une chaîne de traitement inconnue peuvent être débruitées. Nous étudions aussi le cas de données mosaïquées. En particulier, nous montrons que les réseaux de neurones sont largement supérieurs aux méthodes précédentes. Nous proposons aussi une nouvelle méthode d'apprentissage pour démosaïckage sans avoir besoin de vérité terrain.Dans une troisième partie nous présentons différentes application aux techniques utilisées pour le débruitage. Le premier problème étudié est la détection d'anomalie. Nous montrons que ce problème peut être ramené à détecter des anomalies dans du bruit. Nous regardons aussi la détection de falsification et en particulier la détection de copié-collé. Tout comme le débruitage à patches, ce problème peut être résolu à l'aide d'une recherche de patches similaires. Pour cela, nous étudions en détail PatchMatch et l'utilisons pour détecter des falsifications. Nous présentons aussi une méthode basée sur une association de patches parcimonieuse
This thesis studies the problem of video denoising. In the first part we focus on patch-based video denoising methods. We study in details VBM3D, a popular video denoising method, to understand the mechanisms that made its success. We also present a real-time implementation on GPU of this method. We then study the impact of patch search in video denoising and in particular how searching for similar patches in the entire video, a global patch search, improves the denoising quality. Finally, we propose a novel causal and recursive method called NL-Kalman that produces very good temporal consistency.In the second part, we look at the newer trend of deep learning for image and video denoising. We present one of the first neural network architecture, using temporal self-similarity, competitive with state-of-the-art patch-based video denoising methods. We also show that deep learning offers new opportunities. In particular, it allows for denoising without knowing the noise model. We propose a framework that allows denoising of videos that have been through an unknown processing pipeline. We then look at the case of mosaicked data. In particular, we show that deep learning is undeniably superior to previous approaches for demosaicking. We also propose a novel training process for demosaicking without ground-truth based on multiple raw acquisition. This allows training for real case applications. In the third part we present different applications taking advantage of mechanisms similar those studied for denoising. The first problem studied is anomaly detection. We show that this problem can be reduced to detecting anomalies in noise. We also look at forgery detection and in particular copy-paste forgeries. Just like for patch-based denoising, solving this problem requires searching for similar patches. For that, we do an in-depth study of PatchMatch and see how it can be used for detecting forgeries. We also present an efficient method based on sparse patch matching
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Diallo, Boubacar. "Mesure de l'intégrité d'une image : des modèles physiques aux modèles d'apprentissage profond". Thesis, Poitiers, 2020. http://www.theses.fr/2020POIT2293.

Testo completo
Abstract (sommario):
Les images numériques sont devenues un outil de communication visuel puissant et efficace pour transmettre des messages, diffuser des idées et prouver des faits. L’apparition du smartphone avec une grande diversité de marques et de modèles facilite la création de nouveaux contenus visuels et leur diffusion dans les réseaux sociaux et les plateformes de partage d’images. Liés à ce phénomène de création et publication d'images et aidés par la disponibilité et la facilité d’utilisation des logiciels de manipulation d’images, de nombreux problèmes sont apparus allant de la diffusion de contenu illégal à la violation du droit d’auteur. La fiabilité des images numériques est remise en cause que ce soit pour de simples utilisateurs ou pour des professionnels experts tels que les tribunaux et les enquêteurs de police. Le phénomène des « fake news » est un exemple bien connu et répandu d’utilisation malveillante d’images numériques sur les réseaux.De nombreux chercheurs du domaine de la cybersécurité des images ont relevé les défis scientifiques liés aux manipulations des images. De nombreuses méthodes aux performances intéressantes ont été développées basées sur le traitement automatique des images et plus récemment l'adoption de l'apprentissage profond. Malgré la diversité des techniques proposées, certaines ne fonctionnent que pour certaines conditions spécifiques et restent vulnérables à des attaques malveillantes relativement simples. En effet, les images collectées sur Internet imposent de nombreuses contraintes aux algorithmes remettant en question de nombreuses techniques de vérification d’intégrité existantes. Il existe deux particularités principales à prendre en compte pour la détection d'une falsification : l’une est le manque d'informations sur l'acquisition de l'image d'origine, l'autre est la forte probabilité de transformations automatiques liées au partage de l'image telles que la compression avec pertes ou le redimensionnement.Dans cette thèse, nous sommes confrontés à plusieurs de ces défis liés à la cybersécurité des images notamment l’identification de modèles de caméra et la détection de falsification d’images. Après avoir passé en revue l'état de l'art du domaine, nous proposons une première méthode basée sur les données pour l’identification de modèles de caméra. Nous utilisons les techniques d’apprentissage profond basées sur les réseaux de neurones convolutifs (CNN) et développons une stratégie d’apprentissage prenant en compte la qualité des données d’entrée par rapport à la transformation appliquée. Une famille de réseaux CNN a été conçue pour apprendre les caractéristiques du modèle de caméra directement à partir d’une collection d’images subissant les mêmes transformations que celles couramment utilisées sur Internet. Notre intérêt s'est porté sur la compression avec pertes pour nos expérimentations, car c’est le type de post-traitement le plus utilisé sur Internet. L’approche proposée fournit donc une solution robuste face à la compression pour l’identification de modèles de caméra. Les performances obtenues par notre approche de détection de modèles de caméra sont également utilisées et adaptées pour la détection et la localisation de falsification d’images. Les performances obtenues soulignent la robustesse de nos propositions pour la classification de modèles de caméra et la détection de falsification d'images
Digital images have become a powerful and effective visual communication tool for delivering messages, diffusing ideas, and proving facts. The smartphone emergence with a wide variety of brands and models facilitates the creation of new visual content and its dissemination in social networks and image sharing platforms. Related to this phenomenon and helped by the availability and ease of use of image manipulation softwares, many issues have arisen ranging from the distribution of illegal content to copyright infringement. The reliability of digital images is questioned for common or expert users such as court or police investigators. A well known phenomenon and widespread examples are the "fake news" which oftenly include malicious use of digital images.Many researchers in the field of image forensic have taken up the scientific challenges associated with image manipulation. Many methods with interesting performances have been developed based on automatic image processing and more recently the adoption of deep learning. Despite the variety of techniques offered, performance are bound to specific conditions and remains vulnerable to relatively simple malicious attacks. Indeed, the images collected on the Internet impose many constraints on algorithms questioning many existing integrity verification techniques. There are two main peculiarities to be taken into account for the detection of a falsification: one is the lack of information on pristine image acquisition, the other is the high probability of automatic transformations linked to the image-sharing platforms such as lossy compression or resizing.In this thesis, we focus on several of these image forensic challenges including camera model identification and image tampering detection. After reviewing the state of the art in the field, we propose a first data-driven method for identifying camera models. We use deep learning techniques based on convolutional neural networks (CNNs) and develop a learning strategy considering the quality of the input data versus the applied transformation. A family of CNN networks has been designed to learn the characteristics of the camera model directly from a collection of images undergoing the same transformations as those commonly used on the Internet. Our interest focused on lossy compression for our experiments, because it is the most used type of post-processing on the Internet. The proposed approach, therefore, provides a robust solution to compression for camera model identification. The performance achieved by our camera model detection approach is also used and adapted for image tampering detection and localization. The performances obtained underline the robustness of our proposals for camera model identification and image forgery detection
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia