Teses / dissertações sobre o tema "Document détection"

Siga este link para ver outros tipos de publicações sobre o tema: Document détection.

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Document détection".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Poulain, d'Andecy Vincent. "Système à connaissance incrémentale pour la compréhension de document et la détection de fraude". Thesis, La Rochelle, 2021. http://www.theses.fr/2021LAROS025.

Texto completo da fonte
Resumo:
Le Document Understanding est la discipline de l’Intelligence Artificielle qui dote les machines du pouvoir de Lecture. Cette capacité sous-entend de comprendre dans une vision globale l’objet du document, sa classe, et dans une vision locale, des informations précises, des entités. Un double défi est de réussir ces opérations dans plus de 90% des cas tout en éduquant la machine avec le moins d’effort humain possible. Cette thèse défend la possibilité de relever ces défis avec des méthodes à apprentissage incrémental. Nos propositions permettent d’éduquer efficacement et itérativement une machine avec quelques exemples de document. Pour la classification, nous démontrons (1) la possibilité de découvrir itérativement des descripteurs textuels, (2) l’intérêt de tenir compte de l’ordre du discours et (3) l’intérêt d’intégrer dans le modèle de donnée incrémental une mémoire épisodique de quelques Souvenirs d’échantillon. Pour l’extraction d’entité, nous démontrons un modèle structurel itératif à partir d’un graphe en étoile dont la robustesse est améliorée avec quelques connaissances a priori d’ordre général. Conscient de l’importance économique et sociétale de la fraude dans les flux documentaires, cette thèse fait également le point sur cette problématique. Notre contribution est modeste en étudiant les catégories de fraude pour ouvrir des perspectives de recherche. Cette thèse a été conduite dans un cadre atypique en conjonction avec une activité industrielle à Yooz et des projets collaboratifs, en particulier, les projets FEDER SECURDOC soutenu par la région Nouvelle Aquitaine et Labcom IDEAS soutenu par l’ANR
The Document Understanding is the Artificial Intelligence ability for machines to Read documents. In a global vision, it aims the understanding of the document function, the document class, and in a more local vision, it aims the understanding of some specific details like entities. The scientific challenge is to recognize more than 90% of the data. While the industrial challenge requires this performance with the least human effort to train the machine. This thesis defends that Incremental Learning methods can cope with both challenges. The proposals enable an efficient iterative training with very few document samples. For the classification task, we demonstrate (1) the continue learning of textual descriptors, (2) the benefit of the discourse sequence, (3) the benefit of integrating a Souvenir of few samples in the knowledge model. For the data extraction task, we demonstrate an iterative structural model, based on a star-graph representation, which is enhanced by the embedding of few a priori knowledges. Aware about economic and societal impacts because the document fraud, this thesis deals with this issue too. Our modest contribution is only to study the different fraud categories to open further research. This research work has been done in a non-classic framework, in conjunction of industrial activities for Yooz and collaborative research projects like the FEDER Securdoc project supported by la région Nouvelle Aquitaine, and the Labcom IDEAS supported by the ANR
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Nguyen, Minh Tien. "Détection de textes générés automatiquement". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM025/document.

Texto completo da fonte
Resumo:
Le texte généré automatiquement a été utilisé dans de nombreuses occasions à des buts différents. Il peut simplement passer des commentaires générés dans une discussion en ligne à une tâche beaucoup plus malveillante, comme manipuler des informations bibliographiques. Ainsi, cette thèse introduit d'abord différentes méthodes pour générer des textes libres ayant trait à un certain sujet et comment ces textes peuvent être utilisés. Par conséquent, nous essayons d'aborder plusieurs questions de recherche. La première question est comment et quelle est la meilleure méthode pour détecter un document entièrement généré.Ensuite, nous irons un peu plus loin et montrer la possibilité de détecter quelques phrases ou un petit paragraphe de texte généré automatiquement en proposant une nouvelle méthode pour calculer la similarité des phrases en utilisant leur structure grammaticale. La dernière question est comment détecter un document généré automatiquement sans aucun échantillon, ceci est utilisé pour illustrer le cas d'un nouveau générateur ou d'un générateur dont il est impossible de collecter des échantillons dessus.Cette thèse étudie également l'aspect industriel du développement. Un aperçu simple d'un flux de travail de publication d'un éditeur de premier plan est présenté. À partir de là, une analyse est effectuée afin de pouvoir intégrer au mieux notre méthode de détection dans le flux de production.En conclusion, cette thèse a fait la lumière sur de multiples questions de recherche importantes concernant la possibilité de détecter des textes générés automatiquement dans différents contextes. En plus de l'aspect de la recherche, des travaux d'ingénierie importants dans un environnement industriel réel sont également réalisés pour démontrer qu'il est important d'avoir une application réelle pour accompagner une recherche hypothétique
Automatically generated text has been used in numerous occasions with distinct intentions. It can simply go from generated comments in an online discussion to a much more mischievous task, such as manipulating bibliography information. So, this thesis first introduces different methods of generating free texts that resemble a certain topic and how those texts can be used. Therefore, we try to tackle with multiple research questions. The first question is how and what is the best method to detect a fully generated document.Then, we take it one step further to address the possibility of detecting a couple of sentences or a small paragraph of automatically generated text by proposing a new method to calculate sentences similarity using their grammatical structure. The last question is how to detect an automatically generated document without any samples, this is used to address the case of a new generator or a generator that it is impossible to collect samples from.This thesis also deals with the industrial aspect of development. A simple overview of a publishing workflow from a high-profile publisher is presented. From there, an analysis is carried out to be able to best incorporate our method of detection into the production workflow.In conclusion, this thesis has shed light on multiple important research questions about the possibility of detecting automatically generated texts in different setting. Besides the researching aspect, important engineering work in a real life industrial environment is also carried out to demonstrate that it is important to have real application along with hypothetical research
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Martorell, Alexandre. "Détection à distance d’électroniques par l’intermodulation". Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS019/document.

Texto completo da fonte
Resumo:
Électromagnétisme, sécurité et guerre électronique sont étroitement liés depuis des décennies. Leur association rassemble des applications de surveillance radar, de neutralisation de systèmes électroniques ou de détection d’électroniques cachées. Aujourd’hui, la multiplication des EEI (Engins Explosifs Improvisés) aussi bien sur les théâtres d’opération que dans les milieux urbains conduit à la nécessité de leur détection. Les travaux de cette thèse peuvent entrer dans cette thématique et proposent une nouvelle alternative qui permet de mettre en évidence la présence de récepteurs RF cachés. Le radar non-linéaire est particulièrement adapté à la détection de dispositifs contenant des métaux et des semi-conducteurs (électroniques). Une technique populaire consiste à transmettre une seule fréquence f1 et à recevoir la seconde harmonique générée par la cible. Une autre technique, moins courante, consiste à transmettre deux fréquences, f1 et f2, et à recevoir les produits d'intermodulation d’ordre 3 (2f1 - f2 et 2f2 - f1). Un état de l’art approfondi des systèmes radars non-linéaires est effectué dans un premier chapitre avec une comparaison de leurs caractéristiques. Dans un second chapitre, un banc de test en mode conduit est développé permettant la mesure de l’IM3 réfléchi d’une cible RF. Ainsi des analyses et des ordres de grandeurs seront connus aidant au développement du radar. Dans le chapitre 3, Le démonstrateur du radar à IM3 est développé. Un large panel de systèmes RF, commerciaux ou non, susceptibles d’être trouvé dans des milieux opérationnels est mis sous test. Leur détection va permettre de valider la technique de récupération de l’IM3. Un nouveau bilan de liaison réaliste du radar IM3 est mis en place afin d’estimer la portée de détection réelle du radar, pour différentes cibles RF. Dans le dernier chapitre les travaux s’orientent sur l’identification et la classification d’une cible RF. L’étude porte sur la possibilité d’extraire tous paramètres pouvant aider à une classification (évaluation du danger) de récepteurs RF dans un milieu opérationnel. Le travail de recherche présenté dans ce manuscrit contribue à l’amélioration des techniques de détection d’électroniques cachées. Un protocole de détection a été proposé décrivant les faits et gestes du radar IM3. Il inclut un balayage en fréquence puis en puissance. Les premiers tests ont été effectués sur un Talkie-Walkie démontrant la possibilité de détecter sa bande passante via la réémission d’IM3, à plus de 2 m. La répétabilité des tests sur un panel élargi de récepteurs RF valide le protocole de détection et l’intérêt du radar IM3. Une puissance d’émission du radar IM3 de 40 dBm, à une fréquence d’IM3 de 400 MHz, peut potentiellement détecter un récepteur à 80 m. Enfin dans un dernier travail exploratoire nous avons démontré que, par l’observation de la réponse de l’IM3 réfléchi suite à un balayage en puissance, le radar IM3 peut ajouter de nouveaux critères d’identification discriminant les récepteurs détectés entre eux
Electromagnetism, security and electronic warfare have been closely linked for decades. Their association gathers applications of radar surveillance, neutralization of electronic systems or detection of hidden electronics. Today, the multiplication of IEDs (Improvised Explosive Devices) both in theatres of operation and in urban environments leads to the need for their detection. The works of this thesis can enter into this theme and propose a new alternative that allows to highlight the presence of hidden RF receivers. The nonlinear radar is particularly suitable for detecting devices containing metals and (electronic) semiconductors. A popular technique is to transmit a single frequency f1 and receive the second harmonic generated by the target. Another less common technique consists of transmitting two frequencies, f1 and f2, and receiving intermodulation products of order 3 (2f1 - f2 and 2f2 - f1). An in-depth state of the art of nonlinear radar systems is made in a first chapter with a comparison of their characteristics. In a second chapter, an inductive test bench is developed to measure the reflected IM3 of an RF target. Thus analyses and orders of magnitude will be known helping the development of radar. In chapter 3, the IM3 radar demonstrator is developed. A wide range of RF systems, commercial and non-commercial, that may be found in operational environments are being tested. Their detection will validate the IM3 recovery technique. A new realistic IM3 radar link budget is implemented to estimate the actual radar detection range for different RF targets. In the last chapter the work focuses on the identification and classification of an RF target. The study focuses on the possibility of extracting all parameters to assist in a classification (hazard assessment) of RF receptors in an operational environment. The research work presented in this manuscript contributes to the improvement of hidden electronic detection techniques. A detection protocol was proposed describing the actions of the IM3 radar. It includes a frequency scan and then a power scan. The first tests were carried out on a walkie-talkie demonstrating the possibility of detecting its bandwidth via IM3 retransmission, at more than 2 m. The repeatability of the tests on an extended panel of RF receivers validates the detection protocol and the interest of the IM3 radar. An IM3 radar transmission power of 40 dBm, at an IM3 frequency of 400 MHz, can potentially detect a receiver at 80 m. Finally in a final exploratory work, we demonstrated that by observing the IM3 response reflected following a power scan the IM3 radar can add new identification criteria that discriminate the hidden receivers detected between them
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Sharif, Md Haidar. "Détection et suivi d’événements de surveillance". Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10034/document.

Texto completo da fonte
Resumo:
Dans les systèmes de vidéosurveillance, les algorithmes de vision assistée par ordinateur ont joué un rôle crucial pour la détection d’événements liés à la sûreté et la sécurité publique. Par ailleurs, l’incapacité de ces systèmes à gérer plusieurs scènes de foule est une lacune bien connue. Dans cette thèse, nous avons développé des algorithmes adaptés à certaines difficultés rencontrées dans des séquences vidéo liées à des environnements de foule d’une ampleur significative comme les aéroports, les centres commerciaux, les rencontres sportives etc. Nous avons adopté différentes approches en effectuant d’abord une analyse globale du mouvement dans les régions d’intérêt de chaque image afin d’obtenir des informations sur les comportements multimodaux de la foule sous forme de structures spatio-temporelles complexes. Ces structures ont ensuite été utilisées pour détecter des événements de surveillance inhabituels au sein-même de la foule. Pour réaliser nos expériences, nous nous sommes principalement appuyés sur trois ensembles de données qui ont suscité notre réflexion. Les résultats reflètent à la fois la qualité et les défauts de ces approches. Nous avons également développé une distance pseudo-euclidienne.Pour démontrer son utilité, une méthodologie qui lui est propre a été utilisée pour la détection de plusieurs événements de surveillance standards issus de la base TRECVID2008. Certains résultats montrent la robustesse de cette méthodologie tandis que d’autres soulignent la difficulté du problème. Les principaux défis portent, entre autres, sur le flux massif de personnes, l’importance de l’occlusion, la réflexion, les ombres, les fluctuations, les variations de la taille de la cible, etc. Cependant, nos idées et nos expériences de ces problèmes d’ordre pratique ont été particulièrement utiles. De plus, cette thèse développe un algorithme permettant de suivre une cible individuelle dans le cadre de plusieurs scènes de foule. Les séquences vidéo de la base de PETS2009 Benchmark ont été prises en compte pour évaluer les performances de cet algorithme. Si on analyse ses avantages et ses inconvénients, celui-ci fait toujours preuve d’une grande exactitude et sensibilité vis-à-vis des effets de variationde la lumière, ce qui atteste de sa grande efficacité même lorsque la luminosité baisse, que la cible entre ou sort d’une zone d’ombre ou en cas de lueur soudaine
Computer vision algorithms have played a vital role in video surveillance systems to detect surveillance events for public safety and security. Even so, a common demerit among these systems is their unfitness to handle divers crowded scenes. In this thesis, we have developed algorithms which accommodate some of the challenges encountered in videos of crowded environments (e.g., airports, malls, sporting events) to a certain degree. We have adopted approaches by first performing a global-level motion analysis within each frame’s region of interest that provides the knowledge of crowd’s multi-modal behaviors in the form of complex spatiotemporal structures. These structures are then employed in the detection of unusual surveillance events occurred in the crowds. To conduct experiments, we have heavily relied on three thought-provoking datasets. The results reflect some unique global excellences of the approaches. We have also developed a pseudo Euclidian distance. To show its usage, a methodology based on it has been employed in the detection of various usual surveillance events from theTRECVID2008. Some results report the robustness of the methodology, while the rest gives evidence of the difficulty of the problem at hand. Big challenges include, but are not limited to, massive population flow, heavy occlusion, reflection, shadow, fluctuation, varying target sizes, etc. Notwithstanding, we have got much useful insights and experience to the practical problems. In addition, the thesis explores an individual target tracking algorithm within miscellaneous crowded scenes. Video sequences from the PETS2009 Benchmark data have been used to evaluate its performance. Viewing its pros and cons, the algorithm is still highly accurate and its sensitivity to the effects of diversity in noise and lighting, which ascertains its high-quality performance on disappearances, targets moving in and out of the shadow, and flashes of light
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Donatin, Emilie. "Détection des bactéries entéropathogènes : approche polyphasique". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM5034/document.

Texto completo da fonte
Resumo:
Le corps humain est un ensemble de microflores où cohabitent bactéries, archées, virus et eucaryotes. Ces écosystèmes complexes sont appelés microbiotes. Parmi ceux-ci figure le microbiote intestinal qui compte 1011 à 1014 bactéries/g de selle. Les modifications de la flore intestinale peuvent être à l'origine de pathologies comme les diarrhées infectieuses. Il s'agit d'un véritable problème de santé publique puisqu'environ 2.16 millions de décès sont liés à cette pathologie chaque année. Les virus intestinaux jouent un rôle prépondérant mais les infections bactériennes restent également importantes. Le diagnostic de ces infections bactériennes reste compliqué puisque le microbiote intestinal comporte 75% d'espèces non cultivables. De plus, on ne dispose pas réellement d'une liste exhaustive des bactéries pouvant être responsables de diarrhées infectieuses. Nous avons donc choisi d'étudier le microbiote intestinal dans des selles normales et pathologiques, par une approche polyphasique alliant une étape préliminaire de concentration des selles diarrhéiques par la lyophilisation, à des techniques de culture et des méthodes de biologie moléculaire. Pour cela nous avons mis au point une nouvelle technologie pour la détection des entéropathogènes par hybridation sur puce à ADN permettant la détection des bactéries et des virus ADN entéropathogènes, en présence d'un témoin archae. Notre outil permet le diagnostic multiplexe des diarrhées infectieuses puisque nous avons correctement identifié un adénovirus et la bactérie Campylobacter jejuni présents dans une même selle
The human body is a collection of microflora where cohabit bacteria, archaea, viruses and eukaryotes. These complex ecosystems are called microbiota. Among these is the intestinal microbiota that counts 1011 to 1014 bacteria/g of stool. Changes in the intestinal flora can cause of pathologies such as infectious diarrhea. This is a real public health problem since about 2.16 million deaths are related to this disease each year. Enteric viruses play a preponderant role but bacterial infections are also important. The diagnosis of bacterial infections is complicated because the intestinal microbiota includes 75% non-cultivable species. In addition, there is not really a list of bacteria could be responsible for infectious diarrhea. We therefore decided to study the intestinal microbiota in normal stool and also pathological stools by a polyphasic approach combining a preliminary step of diarrheal stools concentration by lyophilization, with cultivation techniques and molecular biology methods. We developed a new technology for the detection of enteropathogens by hybridization on DNA microarray for the detection of bacteria and enteric viruses (DNA) in the presence of a control archaea. Our tool allows multiplexed diagnostic of infectious diarrhea since we correctly identified an adenovirus and Campylobacter jejuni present in a same sample. This is the first DNA microarray for multiplex detection of bacteria and viruses (DNA) enteropathogens. An improvement of our protocol for nucleic acid extraction is proposed to allow the detection of RNA viruses such as rotavirus and calicivirus which are currently dominant
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Le, Danvic Chrystelle. "Détection de l’oestrus chez les bovins". Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10185/document.

Texto completo da fonte
Resumo:
L’œstrus (ou chaleurs) est une période critique dans la mise en place des processus de reproduction au sein des élevages. Or, les techniques de détection actuelles s’avèrent lourdes à mettre en place, onéreuses et n’assurent pas une détection systématique de l’œstrus. Le mâle est capable de détecter l’œstrus par l’intermédiaire de signaux chimiques émis dans les urines de femelle. La connaissance de ces signaux, ainsi que de leurs protéines de liaison dans les tissus olfactifs devrait permettre le développement d’un biosenseur, permettant de détecter de façon automatique et précise les composés volatils émis par les femelles en œstrus. Afin de mettre en évidence les signaux chimiques de l’œstrus chez les bovins (Bos Taurus), des urines de vaches (30) ont été collectées à différents stades de leur cycle œstral. La composition chimique de ces urines a été déterminée par chromatographie en phase gazeuse couplée à la spectrométrie de masse. La comparaison des profils chimiques urinaires au cours de cycle œstral a permis l’identification d’une série de composés présents de façon spécifique aux stades pré-œstrus et/ou œstrus chez certains animaux. Une grande variabilité interindividuelle et entre les collectes a été observée. Aucune protéine impliquée dans la liaison des composés œstrus-spécifiques identifiés n’a pu être mise en évidence dans les urines des femelles émettrices. Chez l’animal détecteur, plusieurs isoformes de la protéine bovine de liaison aux odeurs (OBPb) ont pu être mises en évidence dans les tissus olfactifs. Des études biochimiques ont confirmé la phosphorylation d’un des variants de l’OBPb et la présence d’une chaîne N-glycannique sur la partie N-terminale de la protéine. L’existence d’une diversité d’OBPb suggère une spécificité de liaison de chaque isoforme vis-à-vis des ligands odorants. Leur propriété de liaison a été quantifiée par spectroscopie de fluorescence, ouvrant ainsi la voie à des études de relations structure-fonction de ces OBP
Estrus detection is the critical stage in livestock reproduction. Efficiency of artificial insemination, the major method of reproduction used in cattle, depends on the accurate detection of this short female stage. Currently used detection methods are quite expensive and insecure. This work aims to the elucidation of chemical communication involved in estrus detection by the male. Indeed, male can detect heats by olfactory cues emitted in urine of female. Identification of such chemical cues and their associated binding proteins in estrus behaviour will permit to develop new biotechnological tools as biosensors for estrus detection. To characterize estrus specific molecules, urine from 30 cows was collected at specific stages of the estrus cycle and their chemical composition has been assayed by GC/MS analysis. No systematic estrus specific compounds have been characterized, but we were able to characterize a few compounds as pre-estrus and/or estrus specific in some animals. Identified compounds remain to be tested for their biological activity and ability to elicit sexual behaviour to confirm their implication in estrus detection. No protein binding these molecules could be identified in urine. The urinary serum albumin, described in female elephant urine as a pheromone carrier protein, was characterized. The study of protein in the olfactory area led us to identify several isoforms of bovine Odorant Binding Protein (bOBP), in male and female olfactory tissues. Isoforms can be distinguished by their post-translational modifications. Biochemical experiments showed phosphorylation on one bOBP variant and a N-glycan is present at the N-terminus of the protein. Existence of various bOBP isoforms suggests function specificity, in particular in their binding properties. Spectroscopic fluorescence experiments were performed to analyze the structure-function relationships between the various bOBP isoforms and odorant molecules to ascertain this hypothesis
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Girardeau, Vadim. "Imagerie photo-acoustique à détection optique". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT049/document.

Texto completo da fonte
Resumo:
Dans le contexte d’une population vieillissante il est primordial de développer des outils de diagnostic cliniques précis, fiables, peu coûteux et faciles à mettre en place. Durant cette thèse j’ai en particulier cherché à réaliser une cartographie dynamique des vaisseaux sanguins dans le but de permettre de détecter à la fois des cancers et des maladies cardiovasculaires, deux des maladies les plus mortelles. Pour avoir un diagnostic efficace on se doit d’imager en profondeur avec une résolution spatiale et temporelle la meilleure possible. Dans le chapitre 0 j’explique les enjeux de l’imagerie médicale sur la micro-vascularisation en analysant les avantages et inconvénients de plusieurs types d’imageries médicales. Dans le chapitre 1 je développe en détail l’imagerie photo-acoustique, qui s’est avérée être la plus appropriée à notre application. Elle a l’avantage d’avoir un contraste optique et une résolution acoustique. J’utilise en particulier la photo-acoustique fréquentielle qui est peu onéreuse et peu encombrante, donc facilement intégrable dans le monde hospitalier par rapport à une imagerie photo-acoustique « classique ». Je valide cette partie sur des résultats expérimentaux in-vivo sur des oreilles de souris. Dans le chapitre 2 j’ai cherché à détecter le signal photo-acoustique de façon optique qui a pour avantage d’être sans contact donc sans souci d’encombrement entre « excitation optique » et « détection acoustique ». Je développe le traitement du signal nécessaire pour détecter une onde acoustique, i.e. des vibrations, à l’aide d’un interféromètre. Puis je présente dans le chapitre 3 un interféromètre particulier développé au laboratoire : le Laser Optical Feedback Imaging (LOFI). Il permet de s’affranchir du bruit du détecteur donc il permet de détecter des vibrations de petites amplitudes même sur des surfaces peu réfléchissantes comme la peau et cela même à faible puissance par respect des normes médicales. Dans le chapitre 4 je valide la détection du signal photo-acoustique avec notre détection optique. Enfin dans le chapitre 5 je montre à travers des simulations une technique d’imagerie innovante plein champ qui permettrait de détecter plus rapidement un signal photo-acoustique riche spectralement
In the context of an aging population, it is essential to develop clinical diagnostic tools that are accurate, reliable, inexpensive and easy to implement. During this thesis I particularly sought to perform a dynamic mapping of blood vessels in order to detect both cancers and cardiovascular diseases, two of the most deadly diseases. In order to have an effective diagnosis, it is necessary to image in depth with the best possible spatial and temporal resolution. In chapter 0 I explain the challenges of medical imaging on micro-vascularization by analyzing the advantages and disadvantages of several types of medical imaging. In chapter 1 I develop in detail the photo-acoustic imaging, which proved to be the most appropriate for our application. It has the advantage of optical contrast and acoustic resolution. In particular, I use frequency photo-acoustics, which is inexpensive and space-saving, and can therefore be easily integrated in the hospital world compared to "traditional" photo-acoustic imaging. I validate this part on in-vivo experimental results on mouse ears. In chapter 2 I tried to detect the photo-acoustic signal in an optical way which has the advantage of being contactless and therefore without any problem of clutter between "optical excitation" and "acoustic detection". I develop the signal processing necessary to detect an acoustic wave, i.e. vibrations, using an interferometer. Then I present in chapter 3 a particular interferometer developed in the laboratory: the Laser Optical Feedback Imaging (LOFI). This interferometer allows to be limited to photon noise even with a low intensity thus it makes it possible to detect vibrations of small amplitudes even on surfaces with a low reflecting index like the skin in accordance with medical standards. In chapter 4 I validate the detection of the photo-acoustic signal with our optical detection. Finally in chapter 5 I show with simulations an innovative full field imaging technique that would allow faster detection of a spectrally rich photo-acoustic signal
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Bouvier, des Noes Mathieu. "Détection itérative des séquences pseudo-aléatoires". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT068/document.

Texto completo da fonte
Resumo:
Les séquences binaires pseudo-aléatoires sont couramment employées par les systèmes de transmissions numériques ou des mécanismes de chiffrement. On les retrouve en particulier dans les transmissions par étalement de spectre par séquence direct (e.g. 3G ou GPS)) ou pour construire des séquences d'apprentissage pour faciliter la synchronisation ou l'estimation du canal (e.g. LTE). Un point commun à toutes ces applications est la nécessité de se synchroniser avec la séquence émise. La méthode conventionnelle consiste à générer la même séquence au niveau du récepteur et la corréler avec le signal reçu. Si le résultat dépasse un seuil pré-défini, la synchronisation est déclarée acquise. On parle alors de détection par corrélation.Cette thèse aborde une autre voie : la détection des séquences binaires pseudo-aléatoire par des techniques de décodage canal. Ceci permet par exemple de détecter des séquences longues (e.g. de période 242), contrairement aux techniques par corrélation qui sont trop complexes à implémenter. Cela nécessite néanmoins que le récepteur connaisse au préalable le polynôme générateur de la séquence.Nous avons montré que le décodage d'une séquence pseudo-aléatoire est une problématique du type 'détecte et décode'. Le récepteur détecte la présence de la séquence et simultanément estime son état initial. Ceci correspond dans la théorie classique de la détection à un détecteur de type GLRT qui ne connaît pas la séquence émise, mais qui connaît sa méthode de construction. L'algorithme implémente alors un GLRT qui utilise un décodeur pour estimer la séquence reçue. Ce dernier est implémenté avec un algorithme de décodage par passage de messages qui utilise une matrice de parité particulière. Elle est construite avec des équations de parités différentes, chacune ayant un poids de Hamming valant t.Il correspond au nombre de variables participants à l'équation.Les équations de parité sont un constituant indispensable du décodeur. Nous avons donné leur nombre pour les m-séquences et les séquences de Gold. Pour le cas particulier des séquences de Gold, nous avons calculé le nombre d'équations de parité de poids t=5 lorsque le degré du polynôme générateur r est impair. Ce calcul est important car il n'y a pas d'équations de parité de poids t < 5 lorsque r est impair. Le nombre d'équations de parité est aussi utilisé pour estimer le degré minimal des équations d'un poids t donné. Nous avons montré que le modèle de prédiction estime correctement la valeur moyenne du degré minimal de l'ensemble des séquences de Gold. Nous avons néanmoins mis en évidence une grande variabilité du degré minimal des séquences autour de cette valeur moyenne.Nous avons ensuite identifié les ensembles absorbants complets de plus petite taille lorsque le décodeur emploie plusieurs polynômes de parité. Ces ensembles bloquent la convergence du décodeur lorsque celui-ci est alimenté avec du bruit. Ceci évite les fausses alarmes lors du processus de détection. Nous avons montré que des cycles 'transverses' détruisent ces ensembles absorbants, ce qui génère des fausses alarmes. Nous en avons déduit un algorithme qui minimise le nombre de cycles transverses de longueur 6 et 8, ce qui minimise la probabilité de fausse alarme lorsque le poids des équations de parité vaut t=3. Notre algorithme permet de sélectionner les équations de parité qui minimisent la probabilité de fausse alarme et ainsi réduire notablement le temps d'acquisition d'une séquence de Gold.Nous avons enfin proposé deux algorithmes de détection du code d'embrouillage pour les systèmes WCDMA et CDMA2000. Ils exploitent les propriétés des m-séquences constituant les séquences de Gold, ainsi que les mécanismes de décodage par passage de messages. Ces algorithmes montrent les vulnérabilités des transmissions par étalement de spectre
Pseudo-random binary sequences are very common in wireless transmission systems and ciphering mechanisms. More specifically, they are used in direct sequence spread spectrum transmission systems like UMTS or GPS, or to construct preamble sequences for synchronization and channel estimation purpose like in LTE. It is always required to synchronize the receiver with the transmitted sequence. The usual way consists in correlating the received signal with a replica of the sequence. If the correlation exceeds a predefined threshold, the synchronization is declared valid.This thesis addresses a different approach: the binary sequence is detected with a forward error correction decoding algorithm. This allows for instance to detect very long sequences.In this thesis, we show that decoding a pseudo-random sequence is a problematic of the kind ‘detect and decode'. The decoder detects the presence of the transmitted sequence and simultaneously estimates its initial state. In conventional detection theory, this corresponds to a GLRT detector that uses a decoder to estimate the unknown parameter which is the transmitted sequence. For pseudo-random sequences, the decoder implements an iterative message-passing algorithm. It uses a parity check matrix to define the decoding graph on which the algorithm applies. Each parity check equation has a weight t, corresponding to the number of variables in the equation.Parity check equations are thus an essential component of the decoder. The decoding procedure is known to be sensitive to the weight t of the parity check equations. For m-sequences, the number of parity check equations is already known. It is given by the number of codewords of weight t of the corresponding Hamming dual code. For Gold sequences, the number of parity check equations of weight t = 3 and 4 has already been evaluated by Kasami. In this thesis we provide an analytical expression for the number of parity check equations of weight t = 5 when the degree of the generator polynomial r is odd. Knowing this number is important because there is no parity check equation of weight t < 5 when r is odd. This enumeration is also used to provide an estimation of the least degree of parity check equations of weight t.We have then addressed the problem of selecting the parity check equations used by the decoder. We observed the probability of false alarm is very sensitive to this selection. It is explained by the presence or absence of absorbing sets which block the convergence of the decoder when it is fed only with noise. These sets are known to be responsible for error floor of LDPC codes. We give a method to identify these sets according to the parity check equations used by the decoder. The probability of false alarm can increase dramatically if these absorbing sets are destroyed. Then we propose an algorithm for selecting these parity check equations. It relies on the minimization of the number of cycles of length 6 and 8. Simulation show that the algorithm allows to improve significantly the probability of false alarm and the average acquisition time.Eventually, we propose 2 algorithms for the detection of the scrambling codes used in the uplink of UMTS-FDD and CDMA2000 systems. They highlights a new vulnerability of DSSS transmission systems. It is now conceivable to detect these transmission if the sequence's generator is known
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Lesmanne, Emeline. "Approche photonique de la détection multispectrale". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAY097/document.

Texto completo da fonte
Resumo:
Cette thèse a pour objet l'étude des surfaces sélectives en fréquence comme filtres pour l'imagerie multispectrale infrarouge. Les surfaces sélectives en fréquence en transmission sont composées d'une couche métallique percée d'ouvertures périodiques résonantes. La longueur d'onde de résonance et le gabarit du filtre (transmission, largeur à mi-hauteur) dépendent de paramètres géométriques latéraux, ce qui permet d'envisager la conception de matrices multispectrales de pixels. Un modèle théorique utilisant la théorie temporelle des modes couplés sera utilisé pour mettre en évidence les mécanismes du fonctionnement de ces structures dans le domaine de l'infrarouge (λ=1-12 µm), où les métaux sont absorbants. Dans le cadre de cette théorie, des taux de pertes radiatifs et par absorption métallique seront calculés et commentés. Des simulations en FDTD (Finite Difference Time Domain) seront effectuées pour comparaison avec le modèle. De plus, des empilements prenant en compte les contraintes technologiques seront simulés et analysés et permettront de définir les composantes d'un empilement optimal en terme de géométrie et de paramètres matériau (choix des indices optiques). La tolérance à l'angle d'incidence de ces filtres sera également étudiée
This thesis investigates frequency selective surfaces as filters for infrared multispectral imaging. Frequency selective surfaces for the transmission of light are made of a metallic layer etched with periodic resonant apertures. The resonance wavelength and the filter's parameters (transmission, full width at half maximum) depend on lateral geometrical parameters, facilitating the design and integration of filters on the focal plane array of the detector. A theoretical model using the temporal coupled mode theory will be used to highlight key parameters of the physics of these structures at infrared wavelengths (λ=1-12 µm), where metals are absorbing. Radiative and absorptive loss rates will be calculated and commented. FDTD (Finite Difference Time Domain) simulations will be made and compared with the model. Furthermore, optical stacks taking into account technological constraints will be simulated and analyzed and will allow us to define an optimal optical stack, considering geometrical and material parameters (choice of optical indexes). The filters' angular tolerance will be considered
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Mansour, Elio. "Détection d’évènements dans des environnements connectés". Thesis, Pau, 2019. http://www.theses.fr/2019PAUU3017/document.

Texto completo da fonte
Resumo:
L’intérêt croissant pour les environnements connectés (bâtiments, villes, usines intelligents) etl’évolution des réseaux de capteurs, technologies de gestion/communication de données ont ouvertla voie à des applications intéressantes et utiles qui aident les utilisateurs dans leurs tâchesquotidiennes (augmenter la productivité dans une usine, réduire la consommation d’énergie).Cependant, diverses améliorations sont encore nécessaires. Par exemple, comment améliorer lareprésentation de ces environnements complexes, dynamiques et hétérogènes. En outre, commentfaciliter l’interaction entre les utilisateurs et leurs environnements connectés et comment fournir desoutils de surveillance et de gestion de tels environnements.Dans cette thèse, nous nous concentrons sur quatre défis principaux: (i) représenter un ensemblediversifié de composants et d’éléments liés à l’environnement et à son réseau de capteurs; (ii) fournirun langage de requête qui gère les interactions utilisateur/environnement connecté (pour la définitionde l’environnement, la gestion de données, la définition d’événements); (iii) faire face à la dynamiquede l’environnement et à son évolution dans le temps; et (iv) proposer un mécanisme générique dedétection d’événements pour mieux surveiller l’environnement.Pour ce faire, nous présentons d’abord un modèle de données basé sur une ontologie qui représentedes environnements et réseaux de capteurs hybrides. Couvrant ainsi divers capteurs (statique, mobile),environnements (infrastructures, équipements) et données (scalaires, multimédia). Ensuite, nousintroduisons un langage de requête que l’on pourrait utiliser pour diverses tâches (définirl’environnement connecté, la recherche d’informations, la définition d’événements, la gestion dedonnées). De plus, afin de suivre les changements d’environnement, nous fournissons un optimiseurde requêtes qui permet aux requêtes soumises de gérer la dynamique de l’environnement avant leurexécution. Enfin, nous proposons un noyau de détection d’événement qui prend en entrée lesdéfinitions d’événement et détecte les événements ciblés.Nous regroupons les modules susmentionnés dans un framework global pour la détectiond’événements dans des environnements connectés. Notre proposition est générique, extensible, etpourrait être utilisée avec différents environnements connectés tels que des bâtiments, des villes. .
The rising interest in smart connected environments (e.g., smart buildings, cities, factories) and theevolution of sensors, data management/communication technologies have paved the way forinteresting and useful applications that help users in their every day tasks (e.g. increasing comfort,reducing energy consumption). However, various improvements are still required. For instance, howto enhance the representation of such complex, dynamic, and heterogeneous environments.Moreover, how to facilitate the interaction between users and their connected environments, and howto provide tools for environment monitoring and management.In this thesis, we focus on four main challenges: (i) representing a diverse set of components andelements related to the environment and its sensor network; (ii) providing a query language thathandles user/connected environment interactions (e.g., environment definition, data management,event definition); (iii) coping with the dynamicity of the environment and its evolution over time; and(iv) proposing a generic event detection mechanism for improved environment monitoring.To do so, we first present an ontology-based data model that represents hybrid environments/sensornetworks. Thus covering diverse sensors (e.g., static, mobile), environments (e.g., infrastructures,devices), and data (e.g., scalar, multimedia). Then, we introduce a query language that one might usefor various tasks (e.g., defining the connected environment, information retrieval, event definition,data management). Furthermore, to keep up with the environment changes we provide a queryoptimizer that allows the submitted queries to cope with the dynamicity of the environment prior totheir execution. Finally, we propose an event detection core that takes event definitions as input anddetects the targeted events.We group the aforementioned modules in one global framework for event detection in connectedenvironments. Our proposal is generic, extensible, and could be used with different connectedenvironments such as buildings, cities. .
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

David, Ciprian Petru. "Détection d'hétérogénéités linéaires dans les textures directionnelles : application à la détection de failles en sismique de réflexion". Thesis, Bordeaux 1, 2008. http://www.theses.fr/2008BOR13714/document.

Texto completo da fonte
Resumo:
Détection d’hétérogénéités linéaires dans les textures directionnelles – application à la détection de failles en sismique de réflexion: les méthodes développées concernent la classe particulière de textures directionnelles. Dans un premier chapitre, nous rappelons la notion de texture, le concept de contour et le contexte applicatif concernant l’imagerie sismique. Le deuxième chapitre a pour objet l’analyse des différentes contributions que l’on peut trouver dans la littérature concernant la détection de contours dans le contexte des images texturées: les approches qui relèvent du domaine de la géophysique et les méthodes proposées par la communauté des traiteurs d’image pour la détection de contours. Le troisième chapitre regroupe nos propositions: une approche basée sur une un critère géométrique, une variante récursive robuste et une extension alliant mesure 2D et diffusion 3D. Ces propositions sont validées par une analyse quantitative par rapport aux méthodes existantes
Linear disparity detection in directional textures – application to fault detection in seismic images: the developed approaches deal with the particular family of directional textures. In the first chapter the notion of texture and the concept of contour are introduced. Also, a detailed presentation of the application concerning seismic imagery is presented in the first chapter. The object of the second chapter is the analysis of the different contributions concerning edge and contour detection in textured images found in the literature: the approaches used in the field of geophysics and the approaches proposed by the image processing community. The third chapter regroups our contributions: a geometric criterion based approach, a recursive robust extension of the geometric approach and a 3D recursive robust extension combining a 2D measure and a 3D diffusion technique. Apart the qualitative comparisons, these contributions are validated by a quantitative analysis in comparison with the existing methods
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Aberkane, Arezki. "Détection de contours dans les images CFA". Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10222/document.

Texto completo da fonte
Resumo:
Cette thèse est consacrée à la détection des contours à partir d'images acquises par des caméras couleur mono-capteur. Dans ces dispositifs, le capteur est recouvert d'une mosaïque de filtres chromatiques (Color Filter Array, ou CFA) et forme une image (dite <> ou CFA) qui ne comporte qu'une seule composante couleur par pixel. Une procédure de dématriçage est classiquement appliquée à cette image pour estimer les deux composantes couleur manquantes en chaque pixel et obtenir une image couleur. Cependant, les artéfacts générés par le dématriçage peuvent altérer les performances des méthodes d'analyse bas-niveau des images. Ceci nous amène à éviter le dématriçage pour la détection des contours. Dans une approche de type gradient, nous proposons d'estimer les dérivées partielles soit en calculant les dérivées partielles dans les trois plans couleur (approche vectorielle), soit en estimant une luminance adaptée à la détection des contours (approche scalaire). L'état de l'art met en évidence que l'exploitation directe de l'image brute a été peu abordée et que les approches développées dans cette thèse sont originales. Pour l'approche vectorielle, nous proposons une adaptation de l'implantation récursive du filtre de Deriche au treillis du CFA. Pour l'approche luminance, nous utilisons un filtre optimal qui lisse et dérive conjointement les données brutes. Nous évaluons les performances des méthodes développées sur une base d'images synthétiques dont la vérité terrain est connue. Nous montrons ainsi que la détection des contours à partir des données brutes peut être satisfaisante tout en étant peu coûteuse en temps de calcul
This thesis is devoted to edge detection from the raw image acquired by single-sensor cameras. Such cameras are fitted with Bayer Color Filter Array (CFA, generally Bayer one) and deliver raw CFA image, in which each pixel is characterized by only one out of the three colour components (red, green, or blue). A demosaicing procedure is necessary to estimate the other two missing colour components at each pixel, so as to obtain a colour image. This however produces artefacts that may affect the performance of low-level processing tasks applied to such estimated images. We propose to avoid demosaicing to compute partial derivatives for edge detection. Simple differentiation kernels, Deriche filters or shifted Deriche filters can be used either in a vector or a scalar approache. The vector approach computes partial derivatives for the three channels and the scalar approach first estimates a luminance image, then computes derivatives. The partial CFA derivatives are then used to compute Di Zenzo gradient for edge detection. We assess the performance of our methods on a large dataset of synthetic images with available edge ground truth. We show that CFA-based approaches may provide as accurate edge detection results as colour vector-based ones at much reduced computation cost
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Palisse, Aurélien. "Analyse et détection de logiciels de rançon". Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S003/document.

Texto completo da fonte
Resumo:
La thèse s'intéresse aux logiciels de rançon, présente une plateforme d'analyse automatique et propose des contre-mesures. Nos contre-mesures sont conçues pour être temps réel et déployées sur une machine, c'est-à-dire ''End-Hosts''. En 2013 les logiciels de rançon font de nouveau parler d'eux, pour finalement devenir une des menaces les plus sérieuses à partir de 2015. Un état de l'art détaillé des contre-mesures existantes est fourni. On peut ainsi situer les contributions de cette thèse par rapport à la littérature. Nous présentons également une plateforme d'analyse automatique de logiciels malveillants composée de machines nues. L'objectif est de ne pas altérer le comportement des échantillons analysés. Une première contre-mesure basée sur l'utilisation d'une librairie cryptographique par les logiciels de rançon est proposée. Celle-ci peut être facilement contournée. Nous proposons donc une seconde contre-mesure générique et agnostique. Cette fois, des indicateurs de compromission sont utilisés pour analyser le comportement des processus sur le système de fichiers. Nous détaillons comment de manière empirique nous avons paramétré cette contre-mesure pour la rendre~: utilisable et efficace. Un des challenges de cette thèse étant de faire concilier performance, taux de détection et un faible taux de faux positifs. Enfin, les résultats d'une expérience utilisateur sont présentés. Cette expérience analyse le comportement des utilisateurs face à une menace. En dernière partie, nous proposons des améliorations à nos contributions mais aussi des pistes à explorer
This phD thesis takes a look at ransomware, presents an autonomous malware analysis platform and proposes countermeasures against these types of attacks. Our countermeasures are real-time and are deployed on a machine (i.e., end-hosts). In 2013, the ransomware become a hot subject of discussion again, before becoming one of the biggest cyberthreats beginning of 2015. A detailed state of the art for existing countermeasures is included in this thesis. This state of the art will help evaluate the contribution of this thesis in regards to the existing current publications. We will also present an autonomous malware analysis platform composed of bare-metal machines. Our aim is to avoid altering the behaviour of analysed samples. A first countermeasure based on the use of a cryptographic library is proposed, however it can easily be bypassed. It is why we propose a second generic and agnostic countermeasure. This time, compromission indicators are used to analyse the behaviour of process on the file system. We explain how we configured this countermeasure in an empiric way to make it useable and effective. One of the challenge of this thesis is to collate performance, detection rate and a small amount of false positive. To finish, results from a user experience are presented. This experience analyses the user's behaviour when faced with a threat. In the final part, I propose ways to enhance our contributions but also other avenues that could be explored
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Caubet, Fabien. "Détection d’un objet immergé dans un fluide". Thesis, Pau, 2012. http://www.theses.fr/2012PAUU3006/document.

Texto completo da fonte
Resumo:
Cette thèse s’inscrit dans le domaine des mathématiques appelé optimisation de formes. Plus précisément, nous étudions ici un problème inverse de détection à l’aide du calcul de forme et de l’analyse asymptotique. L’objectif est de localiser un objet immergé dans un fluide visqueux, incompressible et stationnaire. Les questions principales qui ont motivé ce travail sont les suivantes :– peut-on détecter un objet immergé dans un fluide à partir d’une mesure effectuée à la surface ?– peut-on reconstruire numériquement cet objet, i.e. approcher sa position et sa forme, à partir de cette mesure ?– peut-on connaître le nombre d’objets présents dans le fluide en utilisant cette mesure ?Les résultats obtenus sont décrits dans les cinq chapitres de cette thèse :– le premier met en place un cadre mathématique pour démontrer l’existence des dérivées de forme d’ordre un et deux pour les problèmes de détection d’inclusions ;– le deuxième analyse le problème de détection à l’aide de l’optimisation géométrique de forme : un résultat d’identifiabilité est montré, le gradient de forme de plusieurs types de fonctionnelles de forme est caractérisé et l’instabilité de ce problème inverse est enfin démontrée ;– le chapitre 3 utilise nos résultats théoriques pour reconstruire numériquement des objets immergés dans un fluide à l’aide d’un algorithme de gradient de forme ;– le chapitre 4 analyse la localisation de petites inclusions dans un fluide à l’aide de l’optimisation topologique de forme : le gradient topologique d’une fonctionnelle de forme de Kohn-Vogelius est caractérisé ;– le dernier chapitre utilise cette dernière expression théorique pour déterminer numériquement le nombre et la localisation de petits obstacles immergés dans un fluide à l’aide d’un algorithme de gradient topologique
This dissertation takes place in the mathematic field called shape optimization. More precisely, we focus on a detecting inverse problem using shape calculus and asymptotic analysis. The aim is to localize an object immersed in a viscous, incompressible and stationary fluid. This work was motivated by the following main questions:– can we localize an obstacle immersed in a fluid from a boundary measurement?– can we reconstruct numerically this object, i.e. be close to its localization and its shape, from this measure?– can we know how many objects are included in the fluid using this measure?The results are described in the five chapters of the thesis:– the first one gives a mathematical framework in order to prove the existence of the shape derivatives oforder one and two in the frame of the detection of inclusions;– the second one analyzes the detection problem using geometric shape optimization: an identifiabilityresult is proved, the shape gradient of several shape functionals is characterized and the instability of thisinverse problem is proved;– the chapter 3 uses our theoretical results in order to reconstruct numerically some objets immersed in a fluid using a shape gradient algorithm;– the fourth chapter analyzes the detection of small inclusions in a fluid using the topological shape optimization : the topological gradient of a Kohn-Vogelius shape functional is characterized;– the last chapter uses this theoretical expression in order to determine numerically the number and the location of some small obstacles immersed in a fluid using a topological gradient algorithm
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Wang, Yan. "Détection des changements à partir de photographies". Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30069/document.

Texto completo da fonte
Resumo:
Les travaux de cette thèse concernent la détection des changements dans des séries chronologiques de photographies de paysages prises depuis le sol. Ce contexte de comparaison d'images successives est celui que rencontrent les géographes de l'environnement qui ont recours aux observatoires photographiques du paysage. Ces outils d'analyse et d'aide à la décision sont des bases de données de photographies constituées selon une méthodologie stricte de rephotographie de la même scène, à des pas de temps réguliers. Le nombre de clichés est parfois très important, et l'analyse humaine fastidieuse et relativement imprécise, aussi un outil automatisant la comparaison de photos de paysage deux à deux pour mettre en évidence les changements serait une aide considérable dans l'exploitation des observatoires photographiques du paysage. Bien entendu, les variations dans l'éclairement, la saisonnalité, l'heure du jour, produisent fatalement des clichés entièrement différents à l'échelle du pixel. Notre objectif était donc de concevoir un système robuste face à ces changements mineurs, mais capable de détecter les changements pertinents de l'environnement. De nombreux travaux autour de la détection des changements ont été effectués pour des images provenant de satellites. Mais l'utilisation d'appareils photographiques numériques classiques depuis le sol pose des problèmes spécifiques comme la limitation du nombre de bandes spectrales et la forte variation de profondeur dans une même image qui induit des apparences différentes des mêmes catégories d'objets en fonction de leurs positions dans la scène. Dans un premier temps, nous avons exploré la voie de la détection automatique des changements. Nous avons proposé une méthode reposant sur le recalage et la sur-segmentation des images en superpixels. Ces derniers sont ensuite décrits par leur niveau de gris moyen ainsi que par leur texture au travers d'une représentation sous la forme d'histogrammes de textons. La distance de Mahalanobis entre ces descripteurs permet de comparer les superpixels correspondants entre deux images prises à des dates différentes. Nous avons évalué les performances de cette approche sur des images de l'observatoire photographique du paysage constitué lors de la construction de l'autoroute A89. Parmi les méthodes de segmentation utilisées pour produire les superpixels, les expérimentations que nous avons menées ont mis en évidence le bon comportement de la méthode de segmentation d'Achanta. La pertinence d'un changement étant fortement liée à l'application visée, nous avons exploré dans un second temps une piste faisant intervenir l'utilisateur. Nous avons proposé une méthode interactive de détection des changements reposant sur une phase d'apprentissage. Afin de détecter les changements entre deux images, l'utilisateur désigne, grâce à un outil de sélection, des échantillons constitués d'ensembles de pixels correspondant à des zones de changement et à des zones d'absence de changement. Chaque couple de pixels correspondants, c'est-à-dire situés au même endroit dans les deux images, est décrit par un vecteur de 16 valeurs principalement calculées à partir de l'image des dissemblances. Cette dernière est obtenue en mesurant, pour chaque couple de pixels correspondants, la dissemblance des niveaux de gris de leurs voisinages. Les échantillons désignés par l'utilisateur permettent de constituer des données d'apprentissage qui sont utilisées pour entraîner un classifieur. Parmi les méthodes de classification évaluées, les résultats expérimentaux montrent que les forêts d'arbres décisionnels donnent les meilleurs résultats sur les séries photographiques que nous avons utilisées
This work deals with change detection from chronological series of photographs acquired from the ground. This context of consecutive images comparison is the one encountered in the field of integrated geography where photographic landscape observatories are widely used. These tools for analysis and decision-making consist of databases of photographic images obtained by strictly rephotographing the same scene at regular time intervals. With a large number of images, the human analysis is tedious and inaccurate. So a tool for automatically comparing pairs of landscape photographs in order to highlight changes would be a great help for exploiting photographic landscape observatories. Obviously, lighting variations, seasonality, time of day induce completely different images at the pixel level. Our goal is to design a system which would be robust to these insignificant changes and able to detect relevant changes of the scene. Numerous studies have been conducted on change detection from satellite images. But the utilization of classic digital cameras from the ground raise some specific problems like the limitation of the spectral band number and the strong variation of the depth in a same image which induces various appearance of the same object categories depending on their position in the scene. In the first part of our work, we investigate the track of automatic change detection. We propose a method lying on the registration and the over-segmentation of the images into superpixels. Then we describe each superpixel by its texture using texton histogram and its gray-level mean. A distance measure, such as Mahalanobis distance, allows to compare corresponding superpixels between two images acquired at different dates. We evaluate the performance of the proposed approach on images taken from the photographic landscape observatory produced during the construction of the French A89 highway. Among the image segmentation methods we have tested for superpixel extraction, our experiments show the relatively good behavior of Achanta segmentation method. The relevance of a change is strongly related to the intended application, we thus investigate a second track involving a user intervention. We propose an interactive change detection method based on a learning step. In order to detect changes between two images, the user designates with a selection tool some samples consisting of pixel sets in "changed" and "unchanged" areas. Each corresponding pixel pair, i.e., located at the same coordinates in the two images, is described by a 16-dimensional feature vector mainly calculated from the dissimilarity image. The latter is computed by measuring, for each corresponding pixel pair, the dissimilarity of the gray-levels of the neighbors of the two pixels. Samples selected by the user are used as learning data to train a classifier. Among the classification methods we have tried, experimental results indicate that random forests give the better results for the tested image series
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Katz, Gil. "Détection binaire distribuée sous contraintes de communication". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC001/document.

Texto completo da fonte
Resumo:
Ces dernières années, l'intérêt scientifique porté aux différents aspects des systèmes autonomes est en pleine croissance. Des voitures autonomes jusqu'à l'Internet des objets, il est clair que la capacité de systèmes à prendre des décision de manière autonome devient cruciale. De plus, ces systèmes opéreront avec des ressources limitées. Dans cette thèse, ces systèmes sont étudiés sous l'aspect de la théorie de l'information, dans l'espoir qu'une compréhension fondamentale de leurs limites et de leurs utilisations pourrait aider leur conception par les futures ingénieurs.Dans ce travail, divers problèmes de décision binaire distribuée et collaborative sont considérés. Deux participants doivent "déclarer" la mesure de probabilité de deux variables aléatoires, distribuées conjointement par un processus sans mémoire et désignées par $vct{X}^n=(X_1,dots,X_n)$ et $vct{Y}^n=(Y_1,dots,Y_n)$. Cette décision et prise entre deux mesures de probabilité possibles sur un alphabet fini, désignés $P_{XY}$ et $P_{bar{X}bar{Y}}$. Les prélèvements marginaux des variables aléatoires, $vct{X}^n$ et $vct{Y}^n$ sont supposés à être disponibles aux différents sites .Il est permis aux participants d'échanger des quantités limitées d'information sur un canal parfait avec un contraint de débit maximal. Durant cette thèse, la nature de cette communication varie. La communication unidirectionnelle est considérée d'abord, suivie par la considération de communication bidirectionnelle, qui permet des échanges interactifs entre les participants
In recents years, interest has been growing in research of different autonomous systems. From the self-dring car to the Internet of Things (IoT), it is clear that the ability of automated systems to make autonomous decisions in a timely manner is crucial in the 21st century. These systems will often operate under stricts constains over their resources. In this thesis, an information-theoric approach is taken to this problem, in hope that a fundamental understanding of the limitations and perspectives of such systems can help future engineers in designing them.Throughout this thesis, collaborative distributed binary decision problems are considered. Two statisticians are required to declare the correct probability measure of two jointly distributed memoryless process, denoted by $vct{X}^n=(X_1,dots,X_n)$ and $vct{Y}^n=(Y_1,dots,Y_n)$, out of two possible probability measures on finite alphabets, namely $P_{XY}$ and $P_{bar{X}bar{Y}}$. The marginal samples given by $vct{X}^n$ and $vct{Y}^n$ are assumed to be available at different locations.The statisticians are allowed to exchange limited amounts of data over a perfect channel with a maximum-rate constraint. Throughout the thesis, the nature of communication varies. First, only unidirectional communication is allowed. Using its own observations, the receiver of this communication is required to first identify the legitimacy of its sender by declaring the joint distribution of the process, and then depending on such authentication it generates an adequate reconstruction of the observations satisfying an average per-letter distortion. Bidirectional communication is subsequently considered, in a scenario that allows interactive communication between the participants
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Favard, Alexandre. "Multicapteurs intégrés pour la détection des BTEX". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0123/document.

Texto completo da fonte
Resumo:
La qualité de l’air extérieur (QAE) a fait l’objet d’une législation dès 1996 avec la loi LAURE. Depuis 2008, la directive européenne 2008/50/CE a instauré des obligations de mesure et de seuils à ne pas dépasser pour certains polluants à l’échelle européenne. Selon de nombreuses données toxicologiques et épidémiologiques, la pollution de l’air est à l’origine d’insuffisances respiratoires, d’asthme, de maladies cardiovasculaires et de cancers.Les composés organiques volatils (COV) et notamment le benzène, le toluène, l’ethylbenzène et les xylènes (les composés BTEX) sont des polluants avérés et participent grandement à la dégradation de la qualité de l’air intérieur et extérieur. Ce travail de thèse a concerné la réalisation d’un multicapteur de gaz à base d’oxyde métallique pour la détection de traces de BTEX dans le cadre du projet SMARTY (SMart AiR qualiTY). Un système de caractérisation électrique complet a été conçu et mise au point pour la détection de très faibles concentrations de BTEX (le ppb). Après une étude bibliographique, plusieurs matériaux ont été sélectionnés (WO3, ZnO, SnO2). Les caractérisations électriques des couches sensibles sélectionnées ont été effectuées sous air sec et sous différents taux d’humidité en présence de BTEX et de gaz interférents (NO2, CO2). Le WO3 a montré les meilleures performances en présence d’humidité et a été choisi pour le transfert de technologie qui accompagne les nouveaux transducteurs brevetés AMU. Le multicapteur à base de WO3 a montré une détection limite de 1 ppb sous 50% d’humidité relative et a permis de détecter et de quantifier de manière efficace les BTEX
Outdoor air quality is subjected to the law LAURE since 1996. In 2008, the european directive 2008/50/EC introduced measurement requirements and thresholds that should not be exceeded for certain pollutants on a european scale. According to several toxicological and epidemiological studies, air pollution causes respiratory failure, asthma, cardiovascular diseases and cancers. In Europe, air pollution is responsible for more than 300 000 early deaths a year.Volatile organic compounds (VOCs), particularly benzene, toluene, ethylbenzene and xylenes (BTEX compounds) are proven pollutants and play a major role in the degradation of indoor and outdoor air quality. This thesis is dedicated to the development of a metal oxide based multi-gas sensor for the detection of traces of BTEX within the framework of the SMARTY project (SMart AiR qualiTY). A complete electrical characterization system was designed and implemented for the detection of sub-ppm concentrations of BTEX.Based on the state-of-art, several materials were selected (WO3, ZnO, SnO2). The electrical characterizations of the selected sensitive layers were carried out under dry air and under different humidity levels in the presence of BTEX and interfering gases (NO2, CO2). Tungsten oxide (WO3) exhibits the best performance in the presence of moisture and is chosen for the technology transfer that accompanies the new patented AMU transducers. The WO3-based multi-sensor has a lower limit of detection (LOD) of 1 ppb at 50% relative humidity and effectively detects and quantifies BTEX
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Derbas, Nadia. "Contributions à la détection de concepts et d'événements dans les documents vidéos". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM035/document.

Texto completo da fonte
Resumo:
L'explosion de la quantité de documents multimédias, suite à l'essor des technologies numériques, a rendu leur indexation très coûteuse et manuellement impossible. Par conséquent, le besoin de disposer de systèmes d'indexation capables d'analyser, de stocker et de retrouver les documents multimédias automatiquement, et en se basant sur leur contenu (audio, visuel), s'est fait ressentir dans de nombreux domaines applicatifs. Cependant, les techniques d'indexation actuelles rencontrent encore des problèmes de faisabilité ou de qualité. Leur performance reste très limitée et est dépendante de plusieurs facteurs comme la variabilité et la quantité de données à traiter. En effet, les systèmes d'indexation cherchent à reconnaître des concepts statiques, comme des objets (vélo, chaise,...), ou des événements (mariage, manifestation,...). Ces systèmes se heurtent donc au problème de variabilité de formes, de positions, de poses, d'illuminations, d'orientations des objets. Le passage à l'échelle pour pouvoir traiter de très grands volumes de données tout en respectant des contraintes de temps de calcul et de stockage est également une contrainte.Dans cette thèse, nous nous intéressons à l'amélioration de la performance globale de ces systèmes d'indexation de documents multimédias par le contenu. Pour cela nous abordons le problème sous différents angles et apportons quatre contributions à divers stades du processus d'indexation. Nous proposons tout d'abord une nouvelle méthode de fusion "doublement précoce " entre différentes modalités ou différentes sources d'informations afin d'exploiter au mieux la corrélation entre les modalités. Cette méthode est ensuite appliquée à la détection de scènes violentes dans les films. Nous développons ensuite une méthode faiblement supervisée pour la localisation des concepts basiques (comme les objets) dans les images qui pourra être utilisé plus tard comme un descripteur et une information supplémentaire pour la détection de concepts plus complexes (comme des événements). Nous traitons également la problématique de réduction du bruit généré par des annotations ambiguës sur les données d'apprentissage en proposant deux méthodes: une génération de nouvelles annotations au niveau des plans et une méthode de pondération des plans. Enfin, nous avons mis en place une méthode d'optimisation des représentations du contenu multimédia qui combine une réduction de dimension basée sur une ACP et des transformations non linéaires.Les quatre contributions sont testées et évaluées sur les collections de données faisant référence dans le domaine, comme TRECVid ou MediaEval. Elles ont participé au bon classement de nos soumissions dans ces campagnes
A consequence of the rise of digital technology is that the quantity of available collections of multimedia documents is permanently and strongly increasing. The indexing of these documents became both very costly and impossible to do manually. In order to be able to analyze, classify and search multimedia documents, indexing systems have been defined. However, most of these systems suffer quality or practicability issues. Their performance is limited and depends on the data volume and data variability. Indexing systems analyze multimedia documents, looking for static concepts (bicycle, chair,...), or events (wedding, protest,...). Therefore, the variability in shapes, positions, lighting or orientation of objects hinders the process. Another aspect is that systems must be scalable. They should be able to handle big data while using reasonable amount of computing time and memory.The aim of this thesis is to improve the general performance of content-based multimedia indexing systems. Four main contributions are brought in this thesis for improving different stages of the indexing process. The first one is an "early-early fusion method" that merges different information sources in order to extract their deep correlations. This method is used for violent scenes detection in movies. The second contribution is a weakly supervised method for basic concept (objects) localization in images. This can be used afterwards as a new descriptor to help detecting complex concepts (events). The third contribution tackles the noise reduction problem on ambiguously annotated data. Two methods are proposed: a shot annotation generator, and a shot weighing method. The last contribution is a generic descriptor optimization method, based on PCA and non-linear transforms.These four contributions are tested and evaluated using reference data collections, including TRECVid and MediaEval. These contributions helped our submissions achieving very good rankings in those evaluation campaigns
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Zitzmann, Cathel. "Détection statistique d'information cachée dans des images naturelles". Thesis, Troyes, 2013. http://www.theses.fr/2013TROY0012/document.

Texto completo da fonte
Resumo:
La nécessité de communiquer de façon sécurisée n’est pas chose nouvelle : depuis l’antiquité des méthodes existent afin de dissimuler une communication. La cryptographie a permis de rendre un message inintelligible en le chiffrant, la stéganographie quant à elle permet de dissimuler le fait même qu’un message est échangé. Cette thèse s’inscrit dans le cadre du projet "Recherche d’Informations Cachées" financé par l’Agence Nationale de la Recherche, l’Université de Technologie de Troyes a travaillé sur la modélisation mathématique d’une image naturelle et à la mise en place de détecteurs d’informations cachées dans les images. Ce mémoire propose d’étudier la stéganalyse dans les images naturelles du point de vue de la décision statistique paramétrique. Dans les images JPEG, un détecteur basé sur la modélisation des coefficients DCT quantifiés est proposé et les calculs des probabilités du détecteur sont établis théoriquement. De plus, une étude du nombre moyen d’effondrements apparaissant lors de l’insertion avec les algorithmes F3 et F4 est proposée. Enfin, dans le cadre des images non compressées, les tests proposés sont optimaux sous certaines contraintes, une des difficultés surmontées étant le caractère quantifié des données
The need of secure communication is not something new: from ancient, methods exist to conceal communication. Cryptography helped make unintelligible message using encryption, steganography can hide the fact that a message is exchanged.This thesis is part of the project "Hidden Information Research" funded by the National Research Agency, Troyes University of Technology worked on the mathematical modeling of a natural image and creating detectors of hidden information in digital pictures.This thesis proposes to study the steganalysis in natural images in terms of parametric statistical decision. In JPEG images, a detector based on the modeling of quantized DCT coefficients is proposed and calculations of probabilities of the detector are established theoretically. In addition, a study of the number of shrinkage occurring during embedding by F3 and F4 algorithms is proposed. Finally, for the uncompressed images, the proposed tests are optimal under certain constraints, a difficulty overcome is the data quantization
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Koucham, Oualid. "Détection d'intrusions pour les systèmes de contrôle industriels". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT090/document.

Texto completo da fonte
Resumo:
L’objectif de ce travail de thèse est le développement de techniques de détection d’intrusions et de corrélation d’alertes spécifiques aux systèmes de contrôle industriels (ICS). Cet intérêt est justifié par l’émergence de menaces informatiques visant les ICS, et la nécessité de détecter des attaques ciblées dont le but est de violer les spécifications sur le comportement correct du processus physique.Dans la première partie de nos travaux, nous nous sommes intéressés à l’inférence automatique de spécifications pour les systèmes de contrôle séquentiels et ce à des fins de détection d’intrusions. La particularité des systèmes séquentiels réside dans leur logique de contrôle opérant par étapes discrètes. La détection d’intrusions au sein de ces systèmes a été peu étudiée malgré leur omniprésence dans plusieurs domaines d’application. Dans notre approche, nous avons adopté le formalisme de la logique temporelle linéaire (LTL) et métrique (MTL) permettant de représenter des propriétés temporelles d’ordre qualitatif et quantitatif sur l’état des actionneurs et des capteurs. Un algorithme d’inférence de propriétés a été développé afin d’automatiser la génération des propriétés à partir de motifs de spécifications couvrant les contraintes les plus communes. Cette approche vise à pallier le nombre conséquent de propriétés redondantes inférées par les approches actuelles.Dans la deuxième partie de nos travaux, nous cherchons à combiner l’approche de détection d’intrusions développée dans le premier axe avec des approches de détection d’intrusions classiques. Pour ce faire, nous explorons une approche de corrélation tenant compte des spécificités des systèmes industriels en deux points: (i) l’enrichissement et le prétraitement d’alertes venant de domaines différents (cyber et physique), et (ii) la mise au point d’une politique de sélection d’alertes tenant compte du contexte d’exécution du processus physique. Le premier point part du constat que, dans un système industriel, les alertes qui sont remontées au corrélateur sont caractérisées par des attributs hétérogènes (attributs propres aux domaines cyber et physique). Cependant, les approches de corrélation classiques présupposent une certaine homogénéité entre les alertes. Afin d’y remédier, nous développons une approche d’enrichissement des alertes du domaine physique par des attributs du domaine cyber sur la base d’informations relatives aux protocoles supportés par les contrôleurs et à la distribution des variables du processus au sein des contrôleurs. Le deuxième point concerne le développement d’une politique de sélection d’alertes qui adapte dynamiquement les fenêtres de sélection des alertes selon l’évolution des sous-processus.Les résultats de l’évaluation de nos approches de détection et de corrélation montrent des performances améliorées sur la base de métriques telles que le nombre de propriétés inférées, le taux de réduction des alertes et la complétude des corrélations
The objective of this thesis is to develop intrusion detection and alert correlation techniques geared towards industrial control systems (ICS). Our interest is driven by the recent surge in cybersecurity incidents targeting ICS, and the necessity to detect targeted attacks which induce incorrect behavior at the level of the physical process.In the first part of this work, we develop an approach to automatically infer specifications over the sequential behavior of ICS. In particular, we rely on specification language formalisms such as linear temporal logic (LTL) and metric temporal logic (MTL) to express temporal properties over the state of the actuators and sensors. We develop an algorithm to automatically infer specifications from a set of specification patterns covering the most recurring properties. In particular, our approach aims at reducing the number of redundant and unfalsifiable properties generated by the existing approaches. To do so, we add a pre-selection stage which allows to restrict the search for valid properties over non redundant portions of the execution traces. We evaluate our approach on a complex physical process steered by several controllers under process oriented attacks. Our results show that a significant reduction in the number of inferred properties is possible while achieving high detection rates.In the second part of this work, we attempt to combine the physical domain intrusion detection approach developed in the first part with more classical cyber domain intrusion detection approaches. In particular, we develop an alert correlation approach which takes into account some specificities of ICS. First, we explore an alert enrichment approach that allows to map physical domain alerts into the cyber domain. This is motivated by the observation that alertscoming from different domains are characterized by heterogeneous attributes which makes any direct comparison of the alerts difficult. Instead, we enrich the physical domain alerts with cyber domain attributes given knowledge about the protocols supported by the controllers and the memory mapping of process variables within the controllers.In this work, we also explore ICS-specific alert selection policies. An alert selection policy defines which alerts will be selected for comparison by the correlator. Classical approaches often rely on sliding, fixed size, temporal windows as a basis for their selection policy. Instead, we argue that given the complex interdependencies between physical subprocesses, agreeing on analert window size is challenging. Instead, we adopt selection policies that adapt to the state of the physical process by dynamically adjusting the size of the alert windows given the state of the subprocesses within the physical process. Our evaluation results show that our correlator achieves better correlation metrics in comparison with classical temporal based approaches
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Farhat, Ahmad. "Détection, localisation et estimation de défauts : application véhicule". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT056/document.

Texto completo da fonte
Resumo:
Dans la nécessité de développer des véhicules sûrs, confortables, économiques et à faible impact environnemental, les voitures sont de plus en plus équipées d'organes qui emploient des capteurs, actionneurs et systèmes de commande automatiques.Or ces systèmes, critiques pour la sécurité et le confort des passagers, peuvent mal-fonctionner en présence d'une défaillance (défaut).Dans le cadre du diagnostic à bord, plusieurs approches à base de modèle sont développées dans ce travail afin de détecter, localiser et estimer un défaut capteur ou actionneur, et pour détecter la perte de stabilité du véhicule.Ces méthodes reposent sur une synthèse robuste pour les systèmes incertains à commutation.Elles sont validées en simulation avec le logiciel CarSim, et sur les données réelles de véhicule dans le cadre du projet INOVE
Modern vehicles are increasingly equipped with new mechanisms to improve safety, comfort and ecological impact. These active systems employ sensors, actuators and automatic control systems. However, in case of failure of one these components, the consequences for the vehicle and the passengers safety could be dramatic. In order to ensure a higher level of reliability within on board diagnosis, new methodologies for sensor or actuator fault detection, location and estimation are proposed. These model based approaches are extended for robust synthesis for switched uncertain systems. In addition, a method for detecting critical stability situation is presented. The validation of the different methods is illustrated with simulations using CarSim, and application on real vehicle data within the INOVE project
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Dadouchi, Florian. "Détection robuste de signaux acoustiques de mammifères marins". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU059/document.

Texto completo da fonte
Resumo:
Les océans subissent des pressions d'origine anthropique particulièrement fortes comme la surpêche, la pollution physico-chimique, et le bruit rayonné par les activités industrielles et militaires. Cette thèse se place dans un contexte de compréhension de l'impact du bruit rayonné dans les océans sur les mammifères marins. L'acoustique passive joue donc un rôle fondamental dans ce problème. Ce travail aborde la tâche de détection de signatures acoustiques de mammifères marins dans le spectrogramme. Cette tâche est difficile pour deux raisons : 1. le bruit océanique a une structure complexe (non-stationnaire, coloré), 2. les signaux de mammifères marins sont inconnus et possèdent eux aussi une structure complexe (non-stationnaires bande étroite et/ou impulsionnels). Le problème doit donc être résolu de manière locale en temps-fréquence, et ne pas faire d'hypothèse a priori sur le signal. Des détecteurs statistiques basés uniquement sur la connaissance des statistiques du bruit dans le spectrogramme existent, mais souffrent deux lacunes : 1. leurs performances en terme de probabilité de fausse alarme/ probabilité de détection se dégradent fortement à faible rapport signal à bruit, et 2. ils ne sont pas capables de séparer les signaux à bande étroite des signaux impulsionnels. Ce travail apporte des pistes de réflexion sur ces problèmes.L'originalité de ce travail de thèse repose dans la formulation d'un test d'hypothèse binaire prenant explicitement en compte l'organisation spatiale des pics temps-fréquence. Nous introduisons une méthode d'Analyse de la Densité des Fausses Alarmes (FADA) qui permet de discriminer les régions temps-fréquence abritant le signal de celles n'abritant que du bruit. Plus précisément,le nombre de fausses alarmes dans une région du plan est d'abord modélisé par une loi binomiale, puis par une loi binomiale corrélée, afin de prendre en considération la redondance du spectrogramme. Le test d'hypothèse binaire est résolu par une approche de Neyman-Pearson. Nous démontrons numériquement la pertinence de cette approche et nous la validons sur données réelles de mammifères marins disposant d'une grande variété de signaux et de conditions de bruit. En particulier, nous illustrons la capacité de FADA à discriminer efficacement le signal du bruit en milieu fortement impulsionnel
The oceans experience heavy anthropogenic pressure due to overfishing, physico-chemical pollution, and noise radiated by industrial and military activities. This work focuses on the use of passive acoustic monitoring of the oceans, as a tool to understand the impact of radiated noise on marine ecosystems, and particularly on marine mammals. This work tackles the task of detection of acoustical signals of marine mammals using the spectrogram. This task is uneasy for two reasons : 1. the ocean noise structure is complex (non-stationary and colored) and 2. the signals of interest are unknown and also shows a complex structure (non-stationary narrow band and/or impulsive). The problem therefore must be solved locally without making a priori hypothesis on the signal. Statistical detectors only based on the local analysis of the noise spectrogram coefficients are available, making them suitable for this problem. However, these detectors suffer two disadvantages : 1. the trade-offs false alarm probability/ detection probability that are available for low signal tonoise ratio are not satisfactory and 2. the separation between narrow-band and impulsive signals is not possible. This work brings some answers to these problems.The main contribution of this work is to formulate a binary hypothesis test taking explicitly in account the spatial organization of time-frequency peaks. We introduce the False Alarm Density Analysis (FADA) framework that efficiently discriminates time-frequency regions hosting signal from the ones hosting noise only. In particular the number of false alarms in regions of the binary spectrogram is first modeled by a binomial distribution, and then by a correlated binomial distribution to take in account the spectrogram redundancy. The binary hypothesis test is solved using a Neyman-Pearson criterion.We demonstrate the relevance of this approach on simulated data and validate the FADA detector on a wide variety of real signals. In particular we show the capability of the proposed method to efficiently detect signals in highly impulsive environment
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Le, Bot Olivier. "Détection, localisation, caractérisation de transitoires acoustiques sous-marins". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU028/document.

Texto completo da fonte
Resumo:
Le milieu marin est insonifié par une grand variété de sources acoustiques, qui peuventêtre monitorées par des enregistreurs acoustiques passifs autonomes. Parmi les sons enregistrés, ontrouve un grand nombre de signaux transitoires (signaux éphémères de durée courte), auxquelsappartiennent notamment les signaux impulsionnels que nous étudions dans cette thèse. Les signauximpulsionnels ont des propriétés spécifiques, telles que leur durée très courte (<1ms), leur faiblenombre d’oscillations, leur forte directivité, qui les rendent difficiles à étudier avec les outils detraitement du signal traditionnels (transformée de Fourier, autocorrélation, etc.).Dans un premier temps, nous nous intéressons à la détection des sources qui émettent des sériesd’impulsions rythmées (dauphins, cachalots, bélugas). Cette détection, s’appuie uniquement surles temps d’arrivée des impulsions reçues, pour effectuer une analyse du rythme au moyen d’uneautocorrélation complexe, et construire une représentation temps-rythme, permettant : i) de détecterles rythmes, ii) de connaître les temps de début et fin des émissions rythmées, iii) de connaître lavaleur du rythme et son évolution.Dans un second temps, nous étudions le potentiel d’une technique appelée analyse par récurrence desphases, pour caractériser les formes d’onde des impulsions. Après avoir présenté le cadre général decette méthode d’analyse, nous l’utilisons dans trois chaînes de traitement répondant à chacune destâches suivantes : i) détection des transitoires, ii) caractérisation et reconnaissance des transitoires,iii) estimation des différences des temps d’arrivée des transitoires sur deux capteurs.Toutes les méthodes développées dans cette étude ont été testées et validées sur des données simuléeset sur des données réelles acquises en mer
The underwater environment is insonified by a wide variety of acoustic sourcesthat can be monitored by autonomous passive acoustic recorders. A large number of the recordedsounds are transient signals (short-finite duration signals), among which the pulse signals that westudy in this thesis. Pulse signals have specific properties, such as a very short duration (<1ms), fewoscillations, a high directivity, which make them difficult to study by classical signal processing tools(Fourier transform, autocorrelation).In the first part of this study, we develop a method to detect sound sources emitting rhythmic pulsetrains (dolphins, sperm whales, beluga whales). This detector uses only the time of arrival of pulses atthe hydrophone to perform a rhythm analysis based on a complex autocorrelation and a time-rhythmrepresentation. This allows : i) to detect rhythmic pulse trains, ii) to know the beginning and endingtimes of pulse trains, iii) to know the value of the rhythm.In the second part of this thesis, we study the potential of a method called Recurrence Plot Analysis tocharacterize waveforms of pulse signals. After a general presentation of this method we develop threesignal processing architectures based on it, to perform the following tasks : i) transient detection, ii)transient characterization and pattern recognition, iii) estimation of time difference of arrival of thetransient on two hydrophones.All the methods developped in this thesis are validated on simulated and real data recorded at sea
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Hadjerci, Oussama. "Détection automatique du nerf dans les images échographiques". Thesis, Orléans, 2017. http://www.theses.fr/2017ORLE2006/document.

Texto completo da fonte
Resumo:
L’anesthésie loco-régionale présente une alternative intéressante à l’anesthésie générale dans de nombreuses interventions chirurgicales. L’atout majeur de cette technique est qu’elle réduit grandement les scores de douleurs et améliore par la même la mobilité post-opératoire. L’anesthésie locorégionale écho-guidée (UGRA) devient aujourd’hui, la méthode de référence dans le domaine de l’anesthésie, offrant de nombreux avantages par rapport aux autres méthodes comme la neurostimulation. Cependant, cette technique nécessite en contrepartie un apprentissage spécifique afin d’éviter des complications sévères liées à une erreur de localisation visuelle du nerf dans les images échographiques. L’objectif de cette thèse est de faciliter et de sécuriser la pratique de l’anesthésie loco-régionale écho-guidée. Dans un premier temps, nous avons proposé une méthode de détection du nerf mettant en oeuvre un algorithme qui suite à un prétraitement à partir de filtres fréquentielles, réalise une analyse de texture par apprentissage. Dans ce cadre, deux nouvelles approches ont été explorées : l’une concerne la caractérisation du nerf qui s’appuie sur la prise en compte du bruit présent dans une image ultrasonore, bruit ayant été au préalable atténué partiellement. L’autre propose une technique de sélection des caractéristiques mettant en avant celles qui sont les moins redondantes et les plus pertinentes. Dans un second temps, après étude fine du comportement variable de la morphologie du nerf tout au long d’une séquence d’images ultrasonores, nous avons développé un modèle dynamique ayant comme paramètres des informations en lien avec la cohérence temporelle de la position, de la forme et la confiance de classification des ROI potentielles afin de générer une segmentation robuste. Il est proposé également dans cette partie, un nouveau modèle de forme prenant en compte un ensemble d’intervalles de points de repères du contour, permettant ainsi de s’adapter aux variations de la forme du nerf dans le temps
Regional anesthesia presents an interesting alternative or complementary act to general anesthesia in many surgical procedures. It reduces pain scores, improves postoperative mobility and facilitates earlier hospital discharge. Ultrasound-Guided Regional Anesthesia (UGRA) has been gaining importance in the last few years, offering numerous advantages over alternative methods of nerve localization (neurostimulation or paraesthesia). However, nerve detection is one of the most difficult tasks that anesthetists can encounter in the UGRA procedure. The context of the present work is to provide practitioners with a method to facilitate and secure the practice of UGRA. However, automatic detection and segmentation in ultrasound images is still a challenging problem in many medical applications. This work addresses two main issues. The first one, we propose an algorithm for nerve detection and segmentation in ultrasound images, this method is composed of a pre-processing, texture analysis and machine learning steps. In this part of work, we explore two new approaches ; one to characterize the nerve and the second for selecting the minimum redundant and maximum relevant features. The second one, we studied the nerve detection in consecutive ultrasound frames. We have demonstrated that the development of an algorithm based on the temporal coherence of the position, the shape and the confidence measure of the classification, allows to generate a robust segmentation. In this work, we also propose a new model of shape based on a set of intervals landmarks able to adapt to the nerve shape under a morphological variations
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Milutinovic, Miléna. "Immobilisation d'hydrogel redox pour la détection par électrochimiluminescence". Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14411/document.

Texto completo da fonte
Resumo:
Ce travail de thèse a pour objectif l’étude de l’électrochimiluminescence (ECL) et son application pour le développement de nouvelles techniques analytiques. De par son importante sensibilité, l’ECL est une technique performante pour des applications telles que les diagnostics cliniques ou la chimie environnementale (présence d’agents contaminants dans l’eau ou la nourriture). L’immobilisation du luminophore ECL est réalisée généralement sur une phase solide. Cette étape constitue une phase essentielle pour obtenir une méthode d’immobilisation rapide, simple, flexible et efficace de ces luminophores ECL, tout en permettant une utilisation pour des systèmes variés. La première partie de ce travail présente l’optimisation de la déposition électrochimique de films de métallopolymère de ruthénium et son application pour la détection enzymatique. Un film d'épaisseur micrométrique de cet hydrogel redox a été préparé par voltamétrie cyclique. Cet hydrogel immobilisé a permis la détection d’un substrat modèle (le glucose) en utilisant l'enzyme glucose déshydrogénase. La seconde partie se concentre sur le développement d’une nouvelle méthode de photodéposition d’un polymère. Celle-ci permet l’immobilisation de centres actifs sur des régions sélectives. En utilisant les techniques de photolithographie, les figures du masque sont projetées sur la surface des électrodes. Cela permet la réalisation de spots micrométriques dont la taille, forme et épaisseur sont modulables. Les propriétés électrochimiques des films nanométriques obtenus sont comparables à ceux obtenues par électrodéposition. De même, les spectres ECL réalisés avec polymères immobilisés par ces deux stratégies sont identiques. Ces résultats montrent que les états excités induits lors de l’ECL sont identiques avec les deux techniques d’immobilisation. Le développement d'un tel procédé constitue une alternative prometteus pour la réalisation de réseaux de spots ECL différenciés et permettant la détection multipléxée par imagerie ECL. Dans la troisième partie de ce travail, nous avons associé la spectroélectrochimie et l'imagerie ECL pour contribuer à l’étude des mécanismes ECL au niveau d'une bille micrométrique fonctionnalisée par des complexes de ruthénium. En combinant microscopie de fluorescence et imagerie ECL, la distribution des sites électroactifs et des sites ECL a pu être mise en évidence. A partir de cette étude, nous pouvons clarifier les mécanismes conduisant à l'émission ECL au niveau de ces billes fonctionnalisées
The main goal of this thesis was to study electrogenerated chemiluminescence (ECL) and its application in development of new analytical techniques. Due to its high sensitivity, ECL presents a powerful method for applications in clinical diagnostic and environmental chemistry (presence of contaminants in water or food). The immobilisation of an ECL luminophore is usually performed on a solid phase. This step is an essential point to obtain a technique for fast, simple, flexible and effective immobilisation of ECL luminophores with possibility of applications in various configurations. The first part of this work presents the optimisation of the electrochemical deposition of a ruthenium metallopolymer and its application in enzymatic detection. A redox hydrogel film with micrometric thickness was prepared using cyclic voltammetry. This immobilised hydrogel allows the detection of model substrate (glucose) using enzyme glucose dehydrogenase. The second part of this thesis is focused on the development of a new photodeposition method for the ECL polymer immobilisation. This method allows region-selective immobilisation of active centres. Using photolithographic methods, the figures from the mask are projected on the electrode surface. This allows the formation of micrometric spots which size, shape and thickness is modulated. Electrochemical properties of obtained nanometric films are comparable with those of electrodeposited films. Also, ECL spectra recorded with both immobilisation strategies are identical. It shows that the ECL excited state is the same. The obtained photopatterns were imaged using ECL. The development of such process presents an alternative for realisation of different ECL spot arrays and allows multiplexed detection by ECL imaging. In the third part of this work we have associated spectroelectrochemistry and ECL imaging to study the ECL mechanisms at the level of a single microbead, functionalised with ruthenium complex. Combining fluorescence microscopy and ECL imaging, the distribution of electroactive and ECL sites have been highlighted. From this study we can clarify the mechanism that leads to ECL emission at the level of functionalised beads
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Peyrard, Lisa. "Cyclotrivératrylènes fluorescents pour la détection d’ammoniums d’intérêt biologique". Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14700/document.

Texto completo da fonte
Resumo:
Le développement de sondes moléculaires fluorescentes pour le suivi ex vivo de phénomènes biologiques (communication nerveuse, par exemple) est en plein essor. Dans cette optique, des dérivés fluorescents de cyclotrivératrylènes (CTV), cavitands propices à la complexation de petites molécules organiques, ont été synthétisés. La stratégie utilisée consiste à introduire des groupements électro-donneurs et électro-attracteurs conjugués sur chaque unité aromatique du CTV afin d’avoir des systèmes de type « push-pull ». L’extension de la conjugaison entre les groupements électro-attracteurs et électro-donneurs a été envisagée afin d’améliorer les propriétés spectroscopiques des sondes. Des réactions de couplage organométallique de Sonogashira, ainsi que des cycloadditions alcynes-azotures catalysées par le cuivre (CuAAc), ont été conduites sur le squelette CTV dans ce but. La caractérisation spectroscopique des différentes sondes fluorescentes développées a été réalisée en milieu organique et en conditions physiologiques, pour celles dont la solubilité le permettait. L’étude des propriétés de reconnaissance de ces dernières, pour des ammoniums d’intérêt biologique (tels que les neurotransmetteurs, acétylcholine, dopamine et dérivés) en conditions physiologiques, a également été menée par spectrofluorimétrie, ainsi que par d’autres techniques (RMN, calorimétrie). La formation d’assemblages moléculaires en milieu aqueux a également été mise en évidence (expériences de diffusion dynamique de la lumière, microscopie électronique en transmission), pour certaines sondes lors de ce travail
The development of fluorescent probes for the ex vivo detection of biological phenomena (neuronal communication, for example) presents a growing interest. In this context, fluorescent cyclotriveratrylene (CTV) derivatives have been developed, as these cavitands are known to complex small organic molecules. The strategy used to get interesting spectroscopic properties, was to introduce conjugated electron-donating and electron-withdrawing groups on each aromatic unit of the CTV (leading to “push-pull” systems). To improve the spectroscopic properties of the probes, the conjugation between the electron-donating and the electron-withdrawing groups was extended. Hence, the Sonogashira organometalic coupling reaction and the copper catalyzed cycloaddition directly on CTV skeleton were used. The spectroscopic characterization of the new fluorescent probes synthesized was done, in organic solvent but also in physiological conditions when the solubility permits it. The recognition studies for biological ammoniums, such as neurotransmitters (acetylcholine, dopamine, and derivatives) were performed in physiological conditions by spectrofluorimetry but also other methods (like MNR or micro-calorimetry). The formation of molecular assemblies was also observed (by dynamic light scattering and transmission electron microscopy) during this work with some of the probes
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Balique, Fanny. "Détection et impact potentiel des tobamovirus chez l'homme". Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM5034/document.

Texto completo da fonte
Resumo:
Un paradigme actuel en virologie est que les virus de plantes ne peuvent pas affecter les animaux vertébrés et ne sont pas pathogènes pour l'homme. Cependant, plusieurs éléments remettent en question ce paradigme. L'objectif de cette Thèse a été d'étudier si les tobamovirus peuvent être pathogènes chez l'homme. Ce manuscrit comprend :1) une revue de la littérature portant sur la présence et l'impact potentiel des virus de plantes chez les animaux dont l'homme. 2) une étude sur l'exposition humaine aux tobamovirus et les effets possibles Dans la région de Marseille, nous avons montré la présence du PMMoV dans 7.2% des selles de patients et dans 57 % des produits alimentaires à base de piment. De plus, la présence du PMMoV dans les selles de patients a pu être corrélée des signes cliniques. De plus, nous avons montré que le TMV infectieux était présent dans le tabac de toutes les cigarettes testées mais aussi dans 45 % des salives de fumeurs testées. 3) une étude in vivo. Suite à une inoculation intra-trachéal des souris avec du TMV, nous avons constaté que le virus persiste jusqu'à 14 jours dans le tissu pulmonaire et les macrophages pulmonaires. De plus, nous avons détecté du TMV dans le cytoplasme des macrophages murins jusqu'à 15 jours après inoculation. 4) une étude sur le mode de transmission du TMV à l'homme. Le TMV détecté dans la salive des fumeurs ne serait pas véhiculé par la fumée de cigarette, mais par contact avec du tabac infecté. Nos résultats suggèrent que la frontière entre virus de plantes et virus d'animaux n'est pas aussi stricte qu'il est communément admis et incitent à réévaluer l'éventuelle pathogénicité des phytovirus pour l'homme
A current paradigm in virology is that plant viruses cannot affect vertebrates and are not pathogenic for humans. However, several recent findings challenge this paradigm. The aim of this thesis was to investigate whether tobamoviruses may be pathogenic in humans. This manuscript contains: 1) A review of the literature of the reasons why plant viruses may cross the border from plants to vertebrates and the possible impact of plant viruses in animals including humans. 2) A study on exposure to tobamovirus and possible effects of these viruses for humans. In the Marseille geographical area, we showed the presence PMMoV in 7.2% of stools from patients tested and in 57% of food products containing hot peppers. In addition, the presence of PMMoV in the stools of patients could be significantly correlated with clinical symptoms. Then, we showed that infectious TMV was present in the tobacco of all cigarettes tested and TMV RNA was detected in 45% of smokers' saliva tested. 3) In vivo study: mice intra-tracheal inoculation with TMV. The results showed the persistence until 14 days of viruses in the lung tissue and in lung alveolar macrophages of mice. In addition, we detected TMV in the cytoplasm of murine macrophages up to 15 days after inoculation. 4) A study of TMV transmission to humans through cigarette smoking. TMV does not seem to be vehicled by cigarette smoke to smoker's saliva but by direct contact with infected tobacco. Our results suggest that the boundary between plant viruses and animal viruses is not as strict as it is commonly accepted and prompt to reassess the potential pathogenicity of these plant viruses for humans
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Frabolot, Ferdinand. "Optimisation de forme avec détection automatique de paramètres". Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2182/document.

Texto completo da fonte
Resumo:
L’objectif de ce travail de thèse est de pouvoir intégrer totalement l’optimisation de forme des raidisseurs de capot dans un processus de conception industrielle et cela afin d’optimiser la forme et la distribution des raidisseurs dans un contexte multi-objectif (voire multi-disciplinaire) d’une structure 3D surfacique. Pour ce faire, nous avons tout d’abord établi un aperçu de l’état de l’art dans l’optimisation de forme des structures en classifiant les différentes méthodes de paramétrage de forme, en trois catégories ; les méthodes basées sur la géométrie (telle la paramétrisation d’un modèle de type CAO), les méthodes basées sur une grille fixe (telles que les méthodes d’optimisation topologique) et les méthodes basées sur le maillage (telles que les méthodes de régularisation du maillage). Toutefois, aucune de ces méthodes ne satisfait pleinement aux objectifs posés. Nous introduisons ainsi dans cette thèse la méthode FEM-CsG : Finite Element Mesh - Constructive surface Geometry. Imprégnée d’un fort contexte industriel, cette méthode propose une réponse à des contraintes telles que la possibilité de représenter la solution optimale par un ensemble de paramètres CAO, la possibilité d’adapter le modèle EF à l’analyse souhaitée et la garantie d’une représentation géométrique et d’un maillage robuste. En proposant d’intégrer des formes élémentaires paramétrées et prémaillées issues d’une bibliothèque de formes dans une structure coque 3D maillée par l’utilisation des variables issues de la CAO, la méthode FEM-CsG permet une évolution constante de la topologie guidée par l’optimisation. Ainsi, même si la topologie est modifiée la forme résultante reste conforme avec une représentation CAO par construction, correspondant davantage à la réalité des optimisations réalisées en avant-projet. La méthode FEM-CsG a été validée sur deux études de cas, de complexité variable, permettant de mettre en avant la robustesse de cette dernière. Ainsi, avec un choix intelligent et cohérent des variables de formes, les problèmes d’optimisation peuvent avec un nombre restreint de variables explorer un nombre important de topologies ou de formes. Les changements de topologies s’effectuent de manière continue, validant ainsi la méthode à tout type d’analyse souhaitée
The objective of this thesis work is to be able to completely integrate shape optimization of car inner hood stiffeners in a complex industrial process, in order to fully optimize the shape and distribution of the stiffeners in a multi-objective approach (or even multi-disciplinary) of a 3D surfacic structure. To this end, we established, at the outset, an insight of the state-of-the-art in shape optimization of structures by classifying the different shape parametrizations in three distinct categories : geometry-based methods (a shape parametrization such as a CAD model), grid-based methods (such as topology optimization methods) and mesh-based methods (such as morphing methods or mesh regulation). However, none of these methods fully satisfies the set objectives. Thus, we will introduce in this work the FEM-CsG method : Finite Element Mesh - Constructive surface Geometry. Bolstered by its strong industrial context, this method offers a response to such constraints, i.e. the possibility to represent the optimal solution by a system of CAD parameters, the possibility to adapt the FE model to the wanted analysis and the guarantee of a robust geometrical representation and mesh stability. We offer to incorporate premeshed parameterized elementary forms into a 3D sheet meshed structures. Hence, these forms are arising from a CAD parameterized elementary form library. Furthermore, the FEM-CsG method uses a set of operators acting on the mesh allowing a constant evolution of the topology guided by optimization. Therefore, even if the topology may vary, the resulting shapes comply with CAD representations by construction, a solution better reflecting the reality of optimizations performed during the preliminary development stage. The FEM-CsG method has been validated on two simple case studies in order to bring forward its reliability. Thus, with an intelligent and coherent choice of the design variables, shape optimization issues may, with a restrictive number of variables, explore an important number of shapes and topologies. Topology changes are accomplished in a continuous manner, therefore validating the FEM-CsG method to any desired analysis
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Braik, William. "Détection d'évènements complexes dans les flux d'évènements massifs". Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0596/document.

Texto completo da fonte
Resumo:
La détection d’évènements complexes dans les flux d’évènements est un domaine qui a récemment fait surface dans le ecommerce. Notre partenaire industriel Cdiscount, parmi les sites ecommerce les plus importants en France, vise à identifier en temps réel des scénarios de navigation afin d’analyser le comportement des clients. Les objectifs principaux sont la performance et la mise à l’échelle : les scénarios de navigation doivent être détectés en moins de quelques secondes, alorsque des millions de clients visitent le site chaque jour, générant ainsi un flux d’évènements massif.Dans cette thèse, nous présentons Auros, un système permettant l’identification efficace et à grande échelle de scénarios de navigation conçu pour le eCommerce. Ce système s’appuie sur un langage dédié pour l’expression des scénarios à identifier. Les règles de détection définies sont ensuite compilées en automates déterministes, qui sont exécutés au sein d’une plateforme Big Data adaptée au traitement de flux. Notre évaluation montre qu’Auros répond aux exigences formulées par Cdiscount, en étant capable de traiter plus de 10,000 évènements par seconde, avec une latence de détection inférieure à une seconde
Pattern detection over streams of events is gaining more and more attention, especially in the field of eCommerce. Our industrial partner Cdiscount, which is one of the largest eCommerce companies in France, aims to use pattern detection for real-time customer behavior analysis. The main challenges to consider are efficiency and scalability, as the detection of customer behaviors must be achieved within a few seconds, while millions of unique customers visit the website every day,thus producing a large event stream. In this thesis, we present Auros, a system for large-scale an defficient pattern detection for eCommerce. It relies on a domain-specific language to define behavior patterns. Patterns are then compiled into deterministic finite automata, which are run on a BigData streaming platform. Our evaluation shows that our approach is efficient and scalable, and fits the requirements of Cdiscount
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Laithier, Virginie. "Microsystème fluidique de détection de gaz pour l'environnement". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4308/document.

Texto completo da fonte
Resumo:
Les travaux menés durant cette thèse ont abouti à la fabrication d'un microsystème fluidique de détection de gaz innovant portatif, bas coût et incluant un pompage thermique. Le microcapteur de gaz utilisé est inséré dans un microcanal. Un chauffage intégré permet au microcapteur de bien fonctionner. Il permet aussi la création du phénomène de thermal creep qui est à l'origine de l'écoulement du gaz à détecter le long du canal vers le microcapteur. Le gradient de température le long du canal et les dimensions sont des paramètres essentiels de l'étude.Des simulations microfluidiques et thermiques ont permis de définir les dimensions du microcanal ainsi que les matériaux les plus adéquats. Deux types de microsystèmes ont ensuite été réalisés. Le dispositif de chauffage intégré a été calibré afin d'étudier le gradient thermique réel. Une étude des performances du microcapteur sous ammoniac a été réalisée. Nous avons pu notamment déterminer la température optimale de détection. Puis des tests dans une cellule de détection ont été réalisés avec le microsystème complet
My thesis work led to develop an innovative fluidic microsystem for gas detection. It is portable, cheap and has an integrated thermal pumping. The gas microsensor used is inserted into a microchannel. Its integrated heater allows the well detection. It also allows the creation of thermal creep phenomenon, which is at the origin of the gas flow along the channel which will be detected by the microsensor. The choices of both microchannel dimensions and the temperature gradient are the most important parameters. Thus, microfluidic and thermal simulations were performed to define the microchannel dimensions and the most suitable materials natures. Two microsystems were processed with clean room technologies. The integrated heater was calibrated to study the real thermal gradient. A study of the performance of the microsensor was performed under ammonia. We could include determining the optimal temperature sensing. Then the microsystem was studed using in a special detection cell
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Kock, Guillaume. "Étude et réalisation de gyromètres à détection thermique". Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS043/document.

Texto completo da fonte
Resumo:
Ce travail de thèse porte sur l’étude et la réalisation de micro-capteurs dédiés à la mesure de vitesse angulaire par des principes basés sur des échanges thermiques. Deux types de gyromètres ont été développés dont la principale différence est liée au principe qui permet la mise en mouvement du gaz : convection forcée pour l’un et expansion thermique pour l’autre. Le principe est basé sur la modification par la force de Coriolis des échanges thermiques dans un fluide chauffé localement lorsque le dispositif est soumis à une vitesse de rotation. L’utilisation d’un fluide comme masse sismique est en rupture avec les concepts de gyromètres dits traditionnels. Cet avantage a pour conséquence la possibilité d’une utilisation dans des conditions environnementales sévères telles que de fortes accélérations (> 10 000 g) et de fortes vibrations. Les objectifs de ce travail consistent à étudier, à développer et à caractériser ces deux types de gyromètres. Pour cela, des études numériques ont été menées afin de mieux appréhender les phénomènes physiques et thermiques mis en jeu dans la cavité. On a pu aussi étudier l’effet des paramètres thermo-physiques du fluide, des différentes dimensions géométriques et de la vitesse d’écoulement du gaz sur la sensibilité et l’étendue de mesure. Par ailleurs, des prototypes des deux types de gyromètres ont été réalisés puis caractérisés. Les résultats sont très encourageants et les principes validés, mais leur confrontation avec ceux de la simulation montre que des améliorations sont à apporter sur le modèle numérique
This PhD thesis deals with both study and fabrication of micro-sensors dedicated to the measurement of angular velocity, these devices are based on heat exchanges. Two types of gyroscopes have been developed, one using a jet of gas being deflected by the rotation, the other one using thermal expansion of a gas. Under rotation, heat transfers in a locally heated fluid is modified by the Coriolis force and induces a change in temperature distribution. Using a fluid as seismic mass enhances performances in terms shock (> 10 000g) and vibration resistances compared with standard mechanical gyroscopes.The aim of this work has been to study, develop and characterize these two gyroscopes. For this purpose, numerical studies have been carried out in order to improve our understanding of physical and thermal phenomena involved in the device. Effects of thermo-physical parameters, sensor size and gas flow velocity on both sensitivity and measuring range were analyzed.On the other hand, prototypes of both gyroscopes were manufactured and characterized. The proof of concept has been validated and encouraging results have been found. Comparison of measure and simulation have shown that improvements have to be made on the numerical model
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Roudiere, Gilles. "Détection d'attaques sur les équipements d'accès à Internet". Thesis, Toulouse, INSA, 2018. http://www.theses.fr/2018ISAT0017/document.

Texto completo da fonte
Resumo:
Les anomalies réseaux, et en particulier les attaques par déni de service distribuées, restent une menace considérable pour les acteurs de l'Internet. La détection de ces anomalies requiert des outils adaptés, capables non seulement d'opérer une détection correcte, mais aussi de répondre aux nombreuses contraintes liées à un fonctionnement dans un contexte industriel. Entre autres, la capacité d'un détecteur à opérer de manière autonome, ainsi qu'à fonctionner sur du trafic échantillonné sont des critères importants. Au contraire des approches supervisées ou par signatures, la détection non-supervisée des attaques ne requiert aucune forme de connaissance préalable sur les propriétés du trafic ou des anomalies. Cette approche repose sur une caractérisation autonome du trafic en production, et ne nécessite l'intervention de l'administrateur qu'à postériori, lorsqu’une déviation du trafic habituel est détectée. Le problème avec de telle approches reste que construire une telle caractérisation est algorithmiquement complexe, et peut donc nécessiter des ressources de calculs conséquentes. Cette exigence, notamment lorsque la détection doit fonctionner sur des équipements réseaux aux charges fonctionnelles déjà lourdes, est dissuasive quant à l'adoption de telles approches. Ce constat nous amène à proposer un nouvel algorithme de détection non-supervisé plus économe en ressources de calcul, visant en priorité les attaques par déni de service distribuées. Sa détection repose sur la création à intervalles réguliers d'instantanés du trafic, et produit des résultats simples à interpréter, aidant le diagnostic de l'administrateur. Nous évaluons les performances de notre algorithme sur deux jeux de données pour vérifier à la fois sa capacité à détecter correctement les anomalies sans lever de faux-positifs et sa capacité à fonctionner en temps réel avec des ressources de calcul limitées, ainsi que sur du trafic échantillonné. Les résultats obtenus sont comparés à ceux de deux autres détecteurs, FastNetMon et UNADA
Network anomalies, and specifically distributed denial of services attacks, are still an important threat to the Internet stakeholders. Detecting such anomalies requires dedicated tools, not only able to perform an accurate detection but also to meet the several constraints due to an industrial operation. Such constraints include, amongst others, the ability to run autonomously or to operate on sampled traffic. Unlike supervised or signature-based approaches, unsupervised detection do not require any kind of knowledge database on the monitored traffic. Such approaches rely on an autonomous characterization of the traffic in production. They require the intervention of the network administrator a posteriori, when it detects a deviation from the usual shape of the traffic. The main problem with unsupervised detection relies on the fact that building such characterization is complex, which might require significant amounts of computing resources. This requirement might be deterrent, especially when the detection should run on network devices that already have a significant workload. As a consequence, we propose a new unsupervised detection algorithm that aims at reducing the computing power required to run the detection. Its detection focuses on distributed denial of service attacks. Its processing is based upon the creation, at a regular interval, of traffic snapshots, which helps the diagnosis of detected anomalies. We evaluate the performances of the detector over two datasets to check its ability to accurately detect anomalies and to operate, in real time, with limited computing power resources. We also evaluate its performances over sampled traffic. The results we obtained are compared with those obtained with FastNetMon and UNADA
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Thierry, Aurélien. "Désassemblage et détection de logiciels malveillants auto-modifiants". Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0011/document.

Texto completo da fonte
Resumo:
Cette thèse porte en premier lieu sur l'analyse et le désassemblage de programmes malveillants utilisant certaines techniques d'obscurcissement telles que l'auto-modification et le chevauchement de code. Les programmes malveillants trouvés dans la pratique utilisent massivement l'auto-modification pour cacher leur code utile à un analyste. Nous proposons une technique d'analyse hybride qui utilise une trace d'exécution déterminée par analyse dynamique. Cette analyse découpe le programme auto-modifiant en plusieurs sous-parties non auto-modifiantes que nous pouvons alors étudier par analyse statique en utilisant la trace comme guide. Cette seconde analyse contourne d'autres techniques de protection comme le chevauchement de code afin de reconstruire le graphe de flot de contrôle du binaire analysé. Nous étudions également un détecteur de programmes malveillants, fonctionnant par analyse morphologique : il compare les graphes de flot de contrôle d'un programme à analyser à ceux de programmes connus comme malveillants. Nous proposons une formalisation de ce problème de comparaison de graphes, des algorithmes permettant de le résoudre efficacement et détaillons des cas concrets d'application à la détection de similarités logicielles
This dissertation explores tactics for analysis and disassembly of malwares using some obfuscation techniques such as self-modification and code overlapping. Most malwares found in the wild use self-modification in order to hide their payload from an analyst. We propose an hybrid analysis which uses an execution trace derived from a dynamic analysis. This analysis cuts the self-modifying binary into several non self-modifying parts that we can examine through a static analysis using the trace as a guide. This second analysis circumvents more protection techniques such as code overlapping in order to recover the control flow graph of the studied binary. Moreover we review a morphological malware detector which compares the control flow graph of the studied binary against those of known malwares. We provide a formalization of this graph comparison problem along with efficient algorithms that solve it and a use case in the software similarity field
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Surre, Jérémy. "Détection précoce de la sensibilité bactérienne aux antibiotiques". Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCB078/document.

Texto completo da fonte
Resumo:
Suite à la découverte des antibiotiques, les succès thérapeutiques ont laissé présager un avenir où les maladies infectieuses d’origine bactérienne seraient éradiquées. Cependant, en moins d’un siècle, l’utilisation massive des antibiotiques à large spectre a conduit à l’émergence de résistances réduisant ainsi les options thérapeutiques. Mon projet de recherche vise à comprendre les altérations métaboliques et morphologiques bactériennes induites précocement par les antibiotiques et à contribuer au développement de tests diagnostiques rapides et fiables pour favoriser la mise en place d’antibiothérapies plus ciblées. Grâce au suivi des modifications des divers paramètres métaboliques et morphologiques des bactéries après traitement aux antibiotiques, nous avons montré l’intérêt des marqueurs de viabilité tels que le DiBAC4(3), le TOPRO®-3 ou encore l’Alexa FluorTM Hydrazide pour la détection rapide (<3h) de la sensibilité des bactéries aux antibiotiques. Nous avons notamment montré, pour la première fois, que la carbonylation des protéines, qui est induite dans des conditions de stress oxydatif et de vieillissement cellulaire, est un marqueur précoce universel de la sensibilité aux antibiotiques bactéricides. Suite à cette première partie de l’étude, nous avons souhaité comprendre les mécanismes mis en jeu par les bactéries en réponse au stress létal causé pas les antibiotiques. Au cours de nos expériences, il a été observé que lorsque les conditions ne permettaient plus la survie de l’organisme, un signal de fluorescence intrinsèquement lié à la bactérie permettait de prédire l’issue fatale après seulement 2 heures d’incubation avec l’antibiotique. En effet, suite à un traitement avec un antibiotique bactéricide ciblant la synthèse du peptidoglycane bactérien (ampicilline), nous avons observé une fluorescence maximale des cellules à la dose d’antibiotique correspondant à la Concentration Minimale Inhibitrice (CMI). L’augmentation de la fluorescence des cellules bactériennes a aussi été observé lors du traitement létal avec un agent biocide (hypochlorite de sodium). Cependant, ce phénomène n’est plus observable avec des antibiotiques bactériostatiques ou bactéricides qui inhibent la synthèse protéique indiquant l’importance d’un métabolisme bactérien actif. Les corrélations de propriétés spectrales nous ont permis de suspecter les molécules de flavines comme étant responsables du phénomène d’autofluorescence observé. De plus, nous avons montré une suractivation de la voie de biosynthèse des cofacteurs de type flavines et des flavoprotéines en présence d’ampicilline. Finalement, nous avons effectué des expériences de tri et de survie cellulaire de populations bactériennes traitées à l’ampicilline. Nos résultats ont montré que les cellules très fluorescentes ont une survie moyenne 5 fois supérieure aux cellules peu fluorescentes. Ceci suggère que le signal de fluorescence observé est une réponse cellulaire médiée par les composés flavonoïdes pour tenter de survivre au traitement antibiotique. Des travaux exploratoires suggèrent que le phénomène étudié chez les bactéries est conservé chez les levures et chez les cellules humaines. Ces résultats ouvrent de nouvelles perspectives dans la compréhension de la physiologie bactérienne, l’étude de la réponse bactérienne face à un stress exogène et la surveillance rapide de la viabilité des cellules
Following the discovery of antibiotics, the therapeutic successes foreshadowed a future where infectious diseases of bacterial origin would be eradicated. However, in less than a century, the massive use of broad-spectrum antibiotics led to the emergence of resistance thus reducing therapeutic options. My research project aims to understand early bacterial metabolic and morphological changes induced by antibiotics and to contribute to the development of rapid and reliable diagnostic tests to promote the implementation of more targeted antibiotic treatments. By monitoring changes in various metabolic and morphological parameters of bacteria after antibiotic treatment, we have shown the interest of viability markers such as DiBAC4(3), TOPRO®-3 or Alexa FluorTM Hydrazide for rapid detection (<3h) of bacterial susceptibility to antibiotics. In particular, we have shown for the first time that protein carbonylation, which is induced under conditions of oxidative stress and cellular aging, is a universal early marker of bactericidal antibiotic susceptibility. Following this first part of the study, we wanted to understand the mechanisms involved in bacterial response to lethal stress caused by antibiotics. Following this first part of the study, we wanted to understand the bacterial mechanisms involved in response to lethal stress caused by antibiotics. In our experiments, it was observed that when the conditions no longer allowed the organism survival, a fluorescence signal intrinsically linked to the bacterium allowed to predict the fatal outcome after only 2 hours of incubation. Indeed, following a treatment with a bactericidal antibiotic targeting the synthesis of bacterial peptidoglycan (ampicillin), we observed a maximum fluorescence of the cells at the dose of antibiotic corresponding to the Minimum Inhibitory Concentration (MIC). The fluorescence increase of bacterial cells was also observed during the lethal treatment with a biocidal agent (sodium hypochlorite). However, this phenomenon is no longer observable with bacteriostatic or bactericidal antibiotics that inhibit protein synthesis indicating active bacterial metabolism importance. The correlations of spectral properties allowed us to suspect the flavin molecules as responsible for the observed autofluorescence phenomenon. In addition, we showed an overactivation of the biosynthesis pathway of flavin-type cofactors and flavoproteins occurring during ampicillin treatment. Finally, we performed cell sorting and cell survival experiments of ampicillin-treated bacterial populations. Our results showed that highly fluorescent cells have an average survival 5 times higher than low fluorescent cells. This suggests that the fluorescence signal observed is a cellular response mediated by flavonoid compounds in an attempt to survive to antibiotic treatment. Exploratory work suggests that the phenomenon studied in bacteria is conserved among yeasts and human cells. These results open new perspectives in bacterial physiology understanding, the study of bacterial response to exogenous stress and the rapid monitoring of cell viability
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Edouard, Amosse. "Détection et analyse d’événement dans les messages courts". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4079/document.

Texto completo da fonte
Resumo:
Les réseaux sociaux ont transformé le Web d'un mode lecture, où les utilisateurs pouvaient seulement consommer les informations, à un mode interactif leur permettant de les créer, partager et commenter. Un défi majeur du traitement d'information dans les médias sociaux est lié à la taille réduite des contenus, leur nature informelle et le manque d'informations contextuelles. D'un autre côté, le web contient des bases de connaissances structurées à partir de concepts d'ontologies, utilisables pour enrichir ces contenus. Cette thèse explore le potentiel d'utiliser les bases de connaissances du Web de données, afin de détecter, classifier et suivre des événements dans les médias sociaux, particulièrement Twitter. On a abordé 3 questions de recherche : i) Comment extraire et classifier les messages qui rapportent des événements ? ii) Comment identifier des événements précis ? iii) Étant donné un événement, comment construire un fil d'actualité représentant les différents sous-événements ? Les travaux de la thèse ont contribué à élaborer des méthodes pour la généralisation des entités nommées par des concepts d'ontologies pour mitiger le sur-apprentissage dans les modèles supervisés ; une adaptation de la théorie des graphes pour modéliser les relations entre les entités et les autres termes et ainsi caractériser des événements pertinents ; l'utilisation des ontologies de domaines et les bases de connaissances dédiées, pour modéliser les relations entre les caractéristiques et les acteurs des événements. Nous démontrons que l'enrichissement sémantique des entités par des informations du Web de données améliore la performance des modèles d'apprentissages supervisés et non supervisés
In the latest years, the Web has shifted from a read-only medium where most users could only consume information to an interactive medium allowing every user to create, share and comment information. The downside of social media as an information source is that often the texts are short, informal and lack contextual information. On the other hand, the Web also contains structured Knowledge Bases (KBs) that could be used to enrich the user-generated content. This dissertation investigates the potential of exploiting information from the Linked Open Data KBs to detect, classify and track events on social media, in particular Twitter. More specifically, we address 3 research questions: i) How to extract and classify messages related to events? ii) How to cluster events into fine-grained categories? and 3) Given an event, to what extent user-generated contents on social medias can contribute in the creation of a timeline of sub-events? We provide methods that rely on Linked Open Data KBs to enrich the context of social media content; we show that supervised models can achieve good generalisation capabilities through semantic linking, thus mitigating overfitting; we rely on graph theory to model the relationships between NEs and the other terms in tweets in order to cluster fine-grained events. Finally, we use in-domain ontologies and local gazetteers to identify relationships between actors involved in the same event, to create a timeline of sub-events. We show that enriching the NEs in the text with information provided by LOD KBs improves the performance of both supervised and unsupervised machine learning models
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Truong, Charles. "Détection de ruptures multiples – application aux signaux physiologiques". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLN030/document.

Texto completo da fonte
Resumo:
Ce travail s’intéresse au problème de détection de ruptures multiples dans des signaux physiologiques (univariés ou multivariés). Ce type de signaux comprend par exemple les électrocardiogrammes (ECG), électroencéphalogrammes (EEG), les mesures inertielles (accélérations, vitesses de rotation, etc.). L’objectif de cette thèse est de fournir des algorithmes de détection de ruptures capables (i) de gérer de long signaux, (ii) d’être appliqués dans de nombreux scénarios réels, et (iii) d’intégrer la connaissance d’experts médicaux. Par ailleurs, les méthodes totalement automatiques, qui peuvent être utilisées dans un cadre clinique, font l’objet d’une attention particulière. Dans cette optique, des procédures robustes de détection et des stratégies supervisées de calibration sont décrites, et une librairie Python open-source et documentée, est mise en ligne.La première contribution de cette thèse est un algorithme sous-optimal de détection de ruptures, capable de s’adapter à des contraintes sur temps de calcul, tout en conservant la robustesse des procédures optimales. Cet algorithme est séquentiel et alterne entre les deux étapes suivantes : une rupture est détectée, puis retranchée du signal grâce à une projection. Dans le cadre de sauts de moyenne, la consistance asymptotique des instants estimés de ruptures est démontrée. Nous prouvons également que cette stratégie gloutonne peut facilement être étendue à d’autres types de ruptures, à l’aide d’espaces de Hilbert à noyau reproduisant. Grâce à cette approche, des hypothèses fortes sur le modèle génératif des données ne sont pas nécessaires pour gérer des signaux physiologiques. Les expériences numériques effectuées sur des séries temporelles réelles montrent que ces méthodes gloutonnes sont plus précises que les méthodes sous-optimales standards et plus rapides que les algorithmes optimaux.La seconde contribution de cette thèse comprend deux algorithmes supervisés de calibration automatique. Ils utilisent tous les deux des exemples annotés, ce qui dans notre contexte correspond à des signaux segmentés. La première approche apprend le paramètre de lissage pour la détection pénalisée d’un nombre inconnu de ruptures. La seconde procédure apprend une transformation non-paramétrique de l’espace de représentation, qui améliore les performances de détection. Ces deux approches supervisées produisent des algorithmes finement calibrés, capables de reproduire la stratégie de segmentation d’un expert. Des résultats numériques montrent que les algorithmes supervisés surpassent les algorithmes non-supervisés, particulièrement dans le cas des signaux physiologiques, où la notion de rupture dépend fortement du phénomène physiologique d’intérêt.Toutes les contributions algorithmiques de cette thèse sont dans "ruptures", une librairie Python open-source, disponible en ligne. Entièrement documentée, "ruptures" dispose également une interface consistante pour toutes les méthodes
This work addresses the problem of detecting multiple change points in (univariate or multivariate) physiological signals. Well-known examples of such signals include electrocardiogram (ECG), electroencephalogram (EEG), inertial measurements (acceleration, angular velocities, etc.). The objective of this thesis is to provide change point detection algorithms that (i) can handle long signals, (ii) can be applied on a wide range of real-world scenarios, and (iii) can incorporate the knowledge of medical experts. In particular, a greater emphasis is placed on fully automatic procedures which can be used in daily clinical practice. To that end, robust detection methods as well as supervised calibration strategies are described, and a documented open-source Python package is released.The first contribution of this thesis is a sub-optimal change point detection algorithm that can accommodate time complexity constraints while retaining most of the robustness of optimal procedures. This algorithm is sequential and alternates between the two following steps: a change point is estimated then its contribution to the signal is projected out. In the context of mean-shifts, asymptotic consistency of estimated change points is obtained. We prove that this greedy strategy can easily be extended to other types of changes, by using reproducing kernel Hilbert spaces. Thanks this novel approach, physiological signals can be handled without making assumption of the generative model of the data. Experiments on real-world signals show that those approaches are more accurate than standard sub-optimal algorithms and faster than optimal algorithms.The second contribution of this thesis consists in two supervised algorithms for automatic calibration. Both rely on labeled examples, which in our context, consist in segmented signals. The first approach learns the smoothing parameter for the penalized detection of an unknown number of changes. The second procedure learns a non-parametric transformation of the representation space, that improves detection performance. Both supervised procedures yield finely tuned detection algorithms that are able to replicate the segmentation strategy of an expert. Results show that those supervised algorithms outperform unsupervised algorithms, especially in the case of physiological signals, where the notion of change heavily depends on the physiological phenomenon of interest.All algorithmic contributions of this thesis can be found in ``ruptures'', an open-source Python library, available online. Thoroughly documented, ``ruptures'' also comes with a consistent interface for all methods
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Marcadon, Frédéric. "Détection et modélisation de binaires sismiques avec Kepler". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS080/document.

Texto completo da fonte
Resumo:
Le satellite spatial Kepler a détecté des oscillations de type solaire parmi plusieurs centaines d'étoiles, permettant la détermination de leurs propriétés physiques à l'aide de l’astérosismologie. Les modèles d'évolution stellaire et les lois d'échelle employés pour déterminer les paramètres tels que la masse, le rayon et l'âge nécessitent toutefois une calibration adaptée. Dans ce contexte, l'utilisation des systèmes binaires présentant des oscillations de type solaires pour les deux étoiles semble particulièrement appropriée. Au cours de cette thèse, nous avons procédé à un travail de détection de ces binaires sismiques parmi les données de Kepler ainsi qu'au développement des outils nécessaires à leur analyse. Bien que la découverte d'une nouvelle binaire sismique semblait très peu probable, nous avons pu rapporter pour la toute première fois la détection d'oscillations de type solaire associées aux deux étoiles les plus brillantes d'un système triple, à savoir HD 188753. À partir de la modélisation, nous avons déterminé des âges semblables pour les deux étoiles détectées en astérosismologie, comme attendu en raison de leur origine commune. Par ailleurs, nous avons entrepris la première analyse orbitale de ce système hiérarchique dans le but d'obtenir une estimation directe des masses et de la parallaxe. Finalement, l'exemple de HD 188753 illustre notre capacité à détecter et à modéliser chacune des étoiles d'un système binaire ou multiple tout en réalisant l'analyse orbitale de celui-ci. Les différents outils développés au cours de cette thèse seront intensivement utilisés dans le cadre des futures missions TESS et PLATO
The Kepler space telescope detected solar-like oscillations in several hundreds of stars, providing a way to determine their physical properties using asteroseismology. However, the stellar evolutionary models and scaling relations employed to determine parameters such as the mass, the radius and the age require a proper calibration. In this context, the use of seismic binaries showing solar-like oscillations in both stars is especially suitable. During this thesis, we have worked towards the detection of such seismic binaries from the Kepler database and developed the necessary tools to study them. Although the discovery of a new seismic binary was very unlikely, we were able to report for the first time the detection of solar-like oscillations in the two brightest stars of a triple stellar system, namely HD 188753. Using stellar modelling, we found compatible ages for the two stars derived from asteroseismology, as expected from their common origin. In addition, we performed the first orbital analysis of this hierarchical system in order to derive a direct estimate of masses and parallax. Finally, the example of HD 188753 shows our capability to detect and model each of the stars of a binary or multiple system and to perform the orbital analysis of this one. The various tools developed during this thesis will be extensively used in the context of the future missions TESS and PLATO
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Maire, Florian. "Détection et classification de cibles multispectrales dans l'infrarouge". Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0007/document.

Texto completo da fonte
Resumo:
Les dispositifs de protection de sites sensibles doivent permettre de détecter des menaces potentielles suffisamment à l’avance pour pouvoir mettre en place une stratégie de défense. Dans cette optique, les méthodes de détection et de reconnaissance d’aéronefs se basant sur des images infrarouge multispectrales doivent être adaptées à des images faiblement résolues et être robustes à la variabilité spectrale et spatiale des cibles. Nous mettons au point dans cette thèse, des méthodes statistiques de détection et de reconnaissance d’aéronefs satisfaisant ces contraintes. Tout d’abord, nous spécifions une méthode de détection d’anomalies pour des images multispectrales, combinant un calcul de vraisemblance spectrale avec une étude sur les ensembles de niveaux de la transformée de Mahalanobis de l’image. Cette méthode ne nécessite aucune information a priori sur les aéronefs et nous permet d’identifier les images contenant des cibles. Ces images sont ensuite considérées comme des réalisations d’un modèle statistique d’observations fluctuant spectralement et spatialement autour de formes caractéristiques inconnues. L’estimation des paramètres de ce modèle est réalisée par une nouvelle méthodologie d’apprentissage séquentiel non supervisé pour des modèles à données manquantes que nous avons développée. La mise au point de ce modèle nous permet in fine de proposer une méthode de reconnaissance de cibles basée sur l’estimateur du maximum de vraisemblance a posteriori. Les résultats encourageants, tant en détection qu’en classification, justifient l’intérêt du développement de dispositifs permettant l’acquisition d’images multispectrales. Ces méthodes nous ont également permis d’identifier les regroupements de bandes spectrales optimales pour la détection et la reconnaissance d’aéronefs faiblement résolus en infrarouge
Surveillance systems should be able to detect potential threats far ahead in order to put forward a defence strategy. In this context, detection and recognition methods making use of multispectral infrared images should cope with low resolution signals and handle both spectral and spatial variability of the targets. We introduce in this PhD thesis a novel statistical methodology to perform aircraft detection and classification which take into account these constraints. We first propose an anomaly detection method designed for multispectral images, which combines a spectral likelihood measure and a level set study of the image Mahalanobis transform. This technique allows to identify images which feature an anomaly without any prior knowledge on the target. In a second time, these images are used as realizations of a statistical model in which the observations are described as random spectral and spatial deformation of prototype shapes. The model inference, and in particular the prototype shape estimation, is achieved through a novel unsupervised sequential learning algorithm designed for missing data models. This model allows to propose a classification algorithm based on maximum a posteriori probability Promising results in detection as well as in classification, justify the growing interest surrounding the development of multispectral imaging devices. These methods have also allowed us to identify the optimal infrared spectral band regroupments regarding the low resolution aircraft IRS detection and classification
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Goix, Nicolas. "Apprentissage automatique et extrêmes pour la détection d'anomalies". Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0072/document.

Texto completo da fonte
Resumo:
La détection d'anomalies est tout d'abord une étape utile de pré-traitement des données pour entraîner un algorithme d'apprentissage statistique. C'est aussi une composante importante d'une grande variété d'applications concrètes, allant de la finance, de l'assurance à la biologie computationnelle en passant par la santé, les télécommunications ou les sciences environnementales. La détection d'anomalies est aussi de plus en plus utile au monde contemporain, où il est nécessaire de surveiller et de diagnostiquer un nombre croissant de systèmes autonomes. La recherche en détection d'anomalies inclut la création d'algorithmes efficaces accompagnée d'une étude théorique, mais pose aussi la question de l'évaluation de tels algorithmes, particulièrement lorsque l'on ne dispose pas de données labellisées -- comme dans une multitude de contextes industriels. En d'autres termes, l'élaboration du modèle et son étude théorique, mais aussi la sélection du modèle. Dans cette thèse, nous abordons ces deux aspects. Tout d'abord, nous introduisons un critère alternatif au critère masse-volume existant, pour mesurer les performances d'une fonction de score. Puis nous nous intéressons aux régions extrêmes, qui sont d'un intérêt particulier en détection d'anomalies, pour diminuer le taux de fausse alarme. Enfin, nous proposons deux méthodes heuristiques, l'une pour évaluer les performances d'algorithmes de détection d'anomalies en grande dimension, l'autre pour étendre l'usage des forets aléatoires à la classification à une classe
Anomaly detection is not only a useful preprocessing step for training machine learning algorithms. It is also a crucial component of many real-world applications, from various fields like finance, insurance, telecommunication, computational biology, health or environmental sciences. Anomaly detection is also more and more relevant in the modern world, as an increasing number of autonomous systems need to be monitored and diagnosed. Important research areas in anomaly detection include the design of efficient algorithms and their theoretical study but also the evaluation of such algorithms, in particular when no labeled data is available -- as in lots of industrial setups. In other words, model design and study, and model selection. In this thesis, we focus on both of these aspects. We first propose a criterion for measuring the performance of any anomaly detection algorithm. Then we focus on extreme regions, which are of particular interest in anomaly detection, to obtain lower false alarm rates. Eventually, two heuristic methods are proposed, the first one to evaluate anomaly detection algorithms in the case of high dimensional data, the other to extend the use of random forests to the one-class setting
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Verdier, Loïc. "Détection de structures par combinaison des données Planck et BOSS et détection simultanée d’amas de galaxies dans les données Planck et ROSAT". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS192/document.

Texto completo da fonte
Resumo:
Issus de l'effondrement gravitationnel des fluctuations de matière primordiales, les amas de galaxies sont constitués d'un halo de matière noire, d'un plasma de baryon ou « gaz chaud » et de galaxies. Le comptage des amas apporte des contraintes fortes sur la cosmologie.Mon travail consiste à améliorer la détection de la composante de gaz chaud des amas, à la fois pour des structures proches et lointaines. Ce gaz chaud est détectable dans les cartes du satellite Planck par effet Sunyaev-Zel'dovich et dans les cartes du satellite ROSAT par rayonnement de freinage.La première partie de cette thèse consiste à détecter du gaz chaud dans les cartes de Planck à la position des quasars de l'expérience BOSS, donc dans des structures lointaines.Le signal est dominé par une émission de type poussière. J'ai donc élaboré un filtre capable d'extraire un signal de gaz chaud sous-dominant et de le séparer de l'émission de poussière. Le signal de gaz chaud obtenu par cette approche est significatif pour les structures à redshift z >2.5.La seconde partie de cette thèse, la détection simultanée, est dédiée à la construction d'un filtre capable d'extraire des amas (à z<1.5) individuellement dans les données ROSAT et adapté à la statistique du bruit. Ce filtre est en outre conçu dans la perspective d'être combiné avec le filtre utilisé pour détecter les amas dans les données Planck. L'objectif final étant d'obtenir plus d'amas moins massifs
Originating from the gravitational collapse of the primordial fluctuations of matter, galaxy clusters are the mixture of a dark matter halo, a baryonic plasma also called « hot gas » and several galaxies. Cluster counts provide stringent constraints on cosmology.Improving the detection of the hot gas component in nearby or distant structures is the main goal of my work. We can detect this hot gas in the Planck satellite maps thanks to the Sunyaev-Zel'dovich effect and in the ROSAT satellite maps by bremsstrahlung.The first part of my thesis is dedicated to the detection of hot gas in Planck maps at the positions of BOSS quasars, so in distant structures.Dust-like emission dominates our signal. I developped a new filter in order to separate the possible sub-dominant hot gas emision from the dust one. I get a significnt hot gas signal for structures with redshift z >2.5.In the second part of the thesis, the simultaneous detection, I build a filter suited for extracting clusters (z<1.5) individually in the ROSAT data respecting the noise statitistics. This filter is also designed to be combined with the filter used for detecting clusters in Planck maps. Increasing the number of less massive clusters will be the final goal
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Omar, Abdelaziz. "Détection ultrasensible de molécules d'intérêts atmosphériques dans l'infrarouge lointain". Thesis, Littoral, 2016. http://www.theses.fr/2016DUNK0430/document.

Texto completo da fonte
Resumo:
La détection des polluants à l'état de trace est un enjeu important pour la surveillance de la qualité de l'air. La spectroscopie THz, permettant de sonder des régions spectrales riches en absorption moléculaire, est une technique appropriée pour une mesure de la pollution atmosphérique. Ce travail de thèse a consisté à développer et caractériser un spectromètre ultrasensible pour mesurer des molécules d'intérêt atmosphérique. On a mis en place un spectromètre THz utilisant une chaîne de multiplication de fréquence émettant jusqu'à 900 GHz. La sensibilité de détection a été optimisée et caractérisée. En collaboration avec l'IEMN, un spectromètre THz utilisant comme source un analyseur de réseau vectoriel émettant jusqu'à 500 GHz a été mis en place et caractérisé. On a démontré le potentiel de la spectroscopie THz à surveiller en temps réel l'évolution des concentrations de polluants gazeux lors d'une réaction chimique et à en déduire les constantes cinétiques. Le suivi des transitions rotationnelles du H2CO et CO d'une réaction de photolyze du formaldéhyde, a permis de déterminer les constantes cinétiques de réaction. La détection des radicaux est un défi en raison de leur forte réactivité. On a adapté la configuration de notre spectromètre afin d'optimiser la sensibilité et d'étudier la réaction de photolyse de l'acétaldéhyde utilisant la "photoactivation" par mercure. On a utilisé la modulation de fréquence et la modulation à effet Zeeman afin d'étudier le HCO. On a optimisé la sensibilité, quantifié HCO et mesuré plus de 200 raies d'absorption. Une étude spectroscopique du HCO est entamée afin d'optimiser les paramètres des bases de données internationales
QThe detection of trace pollutants is an important issue for monitoring air quality. Terahertz spectroscopy, used to probe spectral regions rich in molecular absorption, is an appropriate technique for measuring atmospheric pollution. This work of thesis consisted in developing and characterizing an ultrasensitive spectrometer to measure molecules of atmospheric interest. A terahertz spectrometer was mounted using a frequency multiplication chain emitting up to 900 GHz. The detection sensitivity has been optimized and characterized. In collaboration with the IEMN, a terahertz spectrometer using a vector network analyzer transmitting up to 500 GHz as a source, has been set up and characterized. The potential of terahertz spectroscopy has been demonstrated to monitor in real time the evolution of concentrations of gaseous pollutants during a chemical reaction and to deduce the kinetic rates. Following the rotational transitions of H2CO and CO of a photolysis reaction of formaldehyde, kinetic reaction rates were determined. Detection of radicals is a challenge because of their high reactivity. The configuration of our spectrometer was adapted to optimize sensitivity and to study the photolysis reaction of acetaldehyde using "Photosensitization" by mercury. Frequency modulation and Zeeman effect modulation were used to study HCO. The sensitivity was optimized, quantified HCO and measured over 200 absorption lines. A spectroscopy study of HCO is initiated in order to optimize the parameters of the international data bases
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Cosin, Charlotte. "Troubles de l'humeur post-AVC, caractérisation et détection précoce". Thesis, Paris, EPHE, 2016. http://www.theses.fr/2016EPHE3051/document.

Texto completo da fonte
Resumo:
L'AVC est la seconde cause de décès et la première cause de handicaps acquis chez l’adulte dans le monde. Au cours des vingt dernières années le traitement en phase aigüe de l'AVC s’est considérablement amélioré. La mortalité post-AVC a alors commencé à diminuer et la proportion de patients survivants avec un handicap léger ou modéré a augmenté. Le suivi à long terme de ces patients a permis de mettre en évidence, chez une proportion importante d’entre-eux, la survenue d’une forte détresse psychologique. Ces troubles de l’humeur réduisent considérablement la qualité de vie post- AVC. La prise en charge principalement axée sur les déficits moteurs, sensoriels ou de langage, commence alors à s’orienter vers la prise en charge psychiatrique des patients. Ces complications restent cependant insuffisamment comprises et leur prise en charge demeure insatisfaisante. Dans ce contexte, l’objectif de ce travail de thèse a été de mieux décrire les troubles de l’humeur post-AVC et de mettre en évidence, grâce à des outils de mesure objectifs, l’existence de facteurs de risques de leur survenue. 91 patients ont été suivis durant un an et ont répondu à des évaluations cognitives, de l’humeur, du sommeil et/ou du langage. Les résultats obtenus ont permis d’identifier certaines variables impliquées dans la survenue ou l’évolution de certains troubles post-AVC, par exemple la fragmentation du sommeil avec l’apathie ou la prosodie affective avec la dépression. Les lésions cérébelleuses semblent également liées à la survenus des troubles de l’humeur post-AVC. Ces résultats s’inscrivent dans une dynamique de recherche de plus en plus importante concernant les troubles de l’humeur post-AVC
Stroke is the second leading cause of death and the leading cause of acquired disability in adults worldwide. Over the last twenty years, treatment in the acute phase of stroke has improved considerably. As a result, post-stroke mortality began to decline and the proportion of surviving patients with mild or moderate disabilities has increased. The long-term monitoring of this category of patients allowed to highlight, in a significant proportion of them, the occurrence of high psychological distress. These mood disorders significantly reduce post-stroke quality of life and, therefore, the assumption that put primary emphasis on the motor deficits, sensory or language now begins to move towards the psychological care of patients. These complications are however still insufficiently understood and their management remains unsatisfactory.In this context, the objective of this PhD was to better describe these post-stroke mood disorders and highlight, through objective measurement tools, the existence of risk factors for their occurrence. 91 patients were followed during one year after stroke and were evaluated on cognitive assessments, mood state evaluation, sleep recording and language recording. The results allowed us to better understand the involvement of some variables in the occurrence or progression of some mood disorders, for example sleep fragmentation and post-stroke apathy or affective prosody and post-stroke depression. Cerebellar lesions also appear to be related to the occurrence of post-stroke mood disorders. These results are part of the increasing research on post-stroke mood disorders
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Aubert, Pierre. "Calcul haute performance pour la détection de rayon Gamma". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLV058/document.

Texto completo da fonte
Resumo:
La nouvelle génération d'expériences de physique produira une quantité de données sans précédent. Cette augmentation du flux de données cause des bouleversements techniques à tous les niveaux, comme le stockage des données, leur analyse, leur dissémination et leur préservation.Le projet CTA sera le plus grand observatoire d'astronomie gamma au sol à partir de 2021. Il produira plusieurs centaines de Péta-octets de données jusqu'en 2030 qui devront être analysées, stockée, compressées, et réanalysées tous les ans.Ce travail montre comment optimiser de telles analyses de physique avec les techniques de l'informatique hautes performances par le biais d'un générateur de format de données efficace, d'optimisation bas niveau de l'utilisation du pipeline CPU et de la vectorisation des algorithmes existants, un algorithme de compression rapide d'entiers et finalement une nouvelle analyse de données basée sur une méthode de comparaison d'image optimisée
The new generation research experiments will introduce huge data surge to a continuously increasing data production by current experiments. This increasing data rate causes upheavals at many levels, such as data storage, analysis, diffusion and conservation.The CTA project will become the utmost observatory of gamma astronomy on the ground from 2021. It will generate hundreds Peta-Bytes of data by 2030 and will have to be stored, compressed and analyzed each year.This work address the problems of data analysis optimization using high performance computing techniques via an efficient data format generator, very low level programming to optimize the CPU pipeline and vectorization of existing algorithms, introduces a fast compression algorithm for integers and finally exposes a new analysis algorithm based on efficient pictures comparison
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Jin, Lijing. "Détection des interactions photon-photon dans un circuit supraconducteur". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAY002/document.

Texto completo da fonte
Resumo:
Les circuits quantiques supraconducteurs sont étudiés dans de nombreux laboratoires. Ces recherches ont pour objectif de pouvoir construire et coupler plusieurs bits quantiques supraconducteurs pour le traitement de l'information quantique. La description théorique de ces circuits repose sur la dynamique couplée des différences de phase supraconductrice aux jonctions Josephson et des degrés de liberté associés à l’environnement électromagnétique. Cette dynamique non-linéaire a été très étudiée dans le régime classique. Les effets quantiques ont été abordés par des théories de perturbation supposant que certains degrés de liberté sont thermalisés. En revanche, il existe peu de résultats sur la dynamique quantique couplée dans un régime non perturbatif. Le but du projet de thèse sera de décrire le crossover entre les régimes classique et quantique dans le cas d’une jonction Josephson en série avec un résonateur électromagnétique. Pour cela, le candidat étudiera les équations maîtresses pour ce système par des méthodes analytiques et numériques. L’objectif à plus long terme sera de comprendre comment générer et manipuler des photons grâce au contrôle électrique résolu en temps de ces circuits
Superconducting quantum circuits are currently investigated in many labs. An important goal of this research is to build and couple several superconducting quantum bits for quantum information processing. The theoretical description of these circuits is based on the coupled dynamics of the superconducting phase differences at the Josephson junctions and the degrees of freedom of the surrounding electromagnetic environment. This nonlinear dynamics has been much studied in the classical regime. Quantum effects have been considered by perturbative methods, assuming that some degrees of freedom are thermalized. In contrast, the coupled quantum dynamics was largely unexplored in a non-perturbative regime. The goal of the trainee will be to describe the crossover between the classical and quantum regimes in the case of a single Josephson junction coupled to an electromagnetic resonator. For this, the candidate will study the master equations for this system with analytical and numerical methods. In the long term, the aim will be to understand how to generate and manipulate photons thanks to time-resolved electric control of the circuit
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Nguyen, Thi Khanh Hong. "Conception faible consommation d'un système de détection de chute". Thesis, Nice, 2015. http://www.theses.fr/2015NICE4093/document.

Texto completo da fonte
Resumo:
De nos jours, la détection de chute est un défi pour la santé, notamment pour la surveillance des personnes âgées. Le but de cette thèse est de concevoir un système de détection de chute basée sur une surveillance par caméra et d’étudier les aspects algorithmiques et architecturaux. Notre système se compose de quatre modules : la segmentation d’objet, le filtrage, l’extraction de caractéristiques et la reconnaissance qui permettent en plus de la détection de chute d’identifier leur type afin de définir un niveau d’alerte. En premier lieu, différents algorithmes ont été étudiés et comparés comme le Background Subtraction-Neural Network; le Background Subtraction-Template Matching (BGS-TM); le Background Subtraction-Hidden Markov Model ; et le Gaussian Mixture Model. Le BGS/TM présentant le meilleur taux de reconnaissance a alors été retenu. Une nouvelle base de donnée DTU-HBU a été construite et classifiée selon différentes actions : chute, non-chute (assis, couché, rampant, etc.) selon trois angles de caméra (face, côtés et de biais). Le second objectif fut de définir une méthode de conception permettant de sélectionner les architectures présentant la meilleure performance. Un premier travail fut de définir des modèles de la consommation et du temps d’exécution pour différentes cibles (processeur, FPGA). A titre d’exemple, la plateforme ZYNQ a été considérée. Les modèles proposés présentent un taux erreur inférieur à 3,5%. Une méthodologie de conception DSE basée sur deux techniques de parallélisme (Intra-task et inter-task) et couplant le taux de reconnaissance (ACC) a été définie. Les résultats obtenus montrent que l’ACC atteint 98,3% pour une énergie de 29,5 mJ/f
Nowadays, fall detection is a major challenge in the public health care domain, especially for the elderly living alone and rehabilitants in hospitals. This thesis presents an exploration for a Fall Detection System based on camera under an algorithmic and architectural point of view. Our system includes four modules: Object Segmentation, Filter, Feature Extraction and Recognition and give an urgent alarm for detecting different kinds of fall. Firstly, different algorithms for the Fall Detection System are proposed and compared the efficiency among Background Subtraction-Neural Network, Background Subtraction-Template Matching (BGS/TM), Background Subtraction-Hidden Markov Model, and Gaussian Mixture Model. Therefore, the selected BGS/TM with 91.67% (Recall), 100% (Precision) and 95.65% (Accuracy) will be implemented on ZYNQ platform. Moreover, a DUT-HBU database which is classified with different actions: fall, non-fall in three camera directions is used to evaluate the efficiency of this system. Secondly, the aim is to explore low cost architectures for this system, new power consumption and execution time models for processor core and FPGA are defined according to the different configurations of architecture and applications. The error rates of the proposed models don’t exceed 3.5%. The models are then extended to hardware/software architectures to explore low cost architecture by defining a suitable Design Space Exploration methodology. Two techniques for parallelization which are based on intra-task and inter-task static scheduling are applied with the aim to enhance the accuracy and the power consumption of this system reaches 98.3% with energy per frame of 29.5mJ/f
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Offranc, Olivier. "Composants pour la génération et la détection d’impulsions térahertz". Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10051/document.

Texto completo da fonte
Resumo:
Le domaine de fréquences térahertz fait la liaison entre le monde des transistors et des lasers. Malgré les nombreuses applications possibles, il n’existe pas, à l’heure actuelle, de source térahertz compacte fonctionnant à température ambiante. De même, pour la détection d’impulsions térahertz, il n’existe pas vraiment de systèmes satisfaisants pour des applications en télécommunication. Nous avons étudié et caractérisé la croissance du GaAsSb épitaxié à basse température (GaAsSb- BT) afin d’obtenir un matériau résistif à temps de vie court pour l’élaboration de photocommutateurs. À partir de ce matériau, des antennes photocondutrices pour la génération d’impulsions térahertz ont été réalisées. Les premiers résultats obtenus sont encourageants bien que légèrement moins performants que le GaAs-BT et pourraient être améliorés en optimisant la croissance du GaAsSb-BT. En complément, nous avons réalisé des photodiodes à transport unipolaire (UTC-PD) en GaAsSb dont la réponse est similaire à celle des UTC-PD en InGaAs. L’intégration monolithique d’une UTC-PD en GaAsSb avec une antenne térahertz large bande a permis la génération d’une onde térahertz d’environ 300GHz, démontrant ainsi la faisabilité d’un tel dispositif pour la génération d’ondes térahertz. Pour la détection d’impulsions térahertz, nous avons conçu et simulé un monostable à base de diode à effet tunnel résonnant. Ce circuit est composé d’éléments passifs comme l’inductance pour fixer la durée de l’impulsion en sortie du monostable. La fréquence de résonance de cette inductance semble être la principale limitation pour la détection d’impulsions térahertz
The terahertz frequency range makes the connection between the world of transistors and lasers. Despite the many potential applications, today there is not compact terahertz source operating at room temperature. Similarly, for detection of terahertz pulses, there is not really satisfying systems for telecommunication applications. We studied and characterized low temperature growth GaAsSb (LT-GaAsSb) to obtain a resistive material with short life time for the development of photoswitches. From this material, photoconductive antennas were made for the generation of terahertz pulses. The first results are encouraging although less efficient than the LT-GaAs and could be improved by optimizing the growth of LT-GaAsSb. In addition, we made uni-travelling carrier photodiodes (UTC-PD) in GaAsSb whose response is similar to the UTC-PD in InGaAs. The monolithic integration of UTC-PD in GaAsSb with a broadband terahertz antenna enabled the generation of terahertz waves around 300GHz, thus demonstrating the feasibility of such a device for generating terahertz waves. For detection of terahertz pulses, we have designed and simulated a monostable based on resonant tunneling diode. This circuit is composed of passive elements such as an inductor to determine the width of the output pulse of the monostable. The resonant frequency of the inductor appears to be the main limitation for the detection of terahertz pulses
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Brodovitch, Alexandre. "Détection et première analyse d'antigènes par les lymphocytes T". Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4050/document.

Texto completo da fonte
Resumo:
Les lymphocytes T (LT) doivent analyser efficacement un nombre important de cellules présentatrices d'antigène (CPA) afin de détecter un antigène spécifique et d'initier une réponse immunitaire adaptée. La reconnaissance par le récepteur des cellules T (TCR) d'un peptide spécifique associé au complexe majeur d'histocompatibilité (pMHC) doit donc être extrêmement sensible et rapide. Alors que les voies de signalisation en aval du TCR sont largement étudiées, la cinétique de la discrimination des ligands par le TCR et de l'activation initiale du LT reste mal connue. Des surfaces solides recouvertes de ligands du TCR nous ont permis d'étudier les événements cellulaires initiés par la détection d'un antigène. L'utilisation de la microscopie a fluorescence par réflexion totale interne (TIRFM) et la microscopie interférentielle (IRM) nous a permis de montrer que l'interaction initiale entre surface et LT est attribuable à des microvillosités mobiles. La stimulation du TCR active en quelques secondes un mouvement de rétraction de ces microvillosités. Ces mouvements actifs sont régulés par l'activation de la PLC- γ1 et sont dépendants des myosines (IIA, Ic et Ig), de la cofiline et de l'ezrine. Après cette phase d'analyse de l'environnement extracellulaire, la stimulation du TCR entraîne l'étalement rapide et actif de la cellule. L'amplitude et la vitesse d'étalement reflètent l'efficacité activatrice du ligand reconnu par le TCR. En moins de 5 minutes différents pMHC, ayant des propriétés biophysiques proches, sont donc discriminés par les LT et capables d'induire une première réponse cellulaire spécifique
T lymphocytes need to efficiently probe a large number of antigen-presenting cell (APC) in order to detect an agonist antigen and to initiate an effective immune response. Therefore, engagement of the T-cell receptor (TCR) by peptide-bound major histocompatibility complex (pMHC) is a highly sensitive and rapid process. While signaling pathways downstream the TCR are extensively studied, little is known about antigen discrimination kinetic and initial T-cell response.Model planar surfaces coated with TCR ligand allowed us to study cellular events initiated by antigen detection. Using TIRFM (total internal reflexion microscopy) and IRM (interference reflexion microscopy) we showed that T-cell initial contacts with the surface were mediated by mobile microvilli. TCR engagement triggers a pulling motion of T cell surface microvilli within seconds. Active microvilli movements are dependent on PLC-γ1 activation and on the presence of myosins (IIA, Ic and Ig) as well as cofilin and ezrin. After this extracellular environment probing period, TCR stimulation triggered a rapid and active cell spreading. Cell spreading amplitude and speed reflect the ligand activating efficacity. In less than 5 minutes pMHC with different biophysical properties were discriminated by T-cells and triggered a first specific cellular response
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Bortolamiol, Tifania. "Nanotubes de carbone biparois : fonctionnalisation et détection in vitro". Thesis, Toulouse, INPT, 2015. http://www.theses.fr/2015INPT0040/document.

Texto completo da fonte
Resumo:
Depuis plusieurs années, les nanotubes de carbones (NTCs) présentent un important potentiel dans le secteur des applications biomédicales (imagerie médicale, vectorisation de médicaments, etc.). Toutes ces applications impliquent des modifications au niveau de la paroi des NTCs par le biais de fonctionnalisations chimiques afin de pouvoir y greffer des molécules d’intérêt. Il existe deux principales voies de fonctionnalisation impliquant différents types d’interactions et des changements plus ou moins conséquents au niveau des NTCs. D’une part, la fonctionnalisation covalente, la plus largement utilisée, conduit à la formation de liaisons covalentes stables mais modifie en même temps la structure et donc les propriétés intrinsèques des NTCs. D’autre part, les NTCs peuvent être fonctionnalisés de manière non-covalente, c’est-à-dire par le biais d’interactions faibles (interactions hydrophobes, π- π stacking, interactions ioniques, etc.), ce qui n’affecte pas la structure des NTCs. Les objectifs de cette thèse ont été, dans un premier temps, de déterminer le meilleur processus de purification des nanotubes de carbone biparois (DWNTs) synthétisés par CCVD au CIRIMAT afin d’en éliminer toutes traces de nanoparticules métalliques mais surtout d'espèces carbonées indésirables (carbone désorganisé), le but étant de partir d’un échantillon oxydé le plus pur possible et dans lequel le carbone n'est présent que sous forme de NTCs. Ainsi, toute éventuelle compétition entre les différentes espèces carbonées, pouvant rendre impossible toute conclusion claire, est évitée. Les DWNTs ont été choisis comme structure idéale pour représenter à la fois les NTCs mono-paroi (morphologie similaire) et les NTCs multi-parois de manière générale. Les protocoles de fonctionnalisations covalente et non-covalente des DWNTs purifiés ont été mis au point dans un deuxième temps. Le choix des molécules d’intérêt à greffer s’est porté principalement sur des fluorophores (isothiocyanate de fluorescéine FITC ; Cy5 ; une streptocyanine uniquement fluorescente par liaison covalente), permettant ainsi une visualisation directe de la fonctionnalisation. La détermination des taux de greffage, réalisée grâce à différentes techniques de caractérisation, a soulevé les questions de la stabilité dans le temps de la fonctionnalisation non-covalente et de la quantité réellement greffée de façon covalente sur les NTCs lorsque cette voie est choisie. Enfin, les DWNTs ainsi fonctionnalisés ont été par la suite incubés en présence de plusieurs types de cellules afin de tester leur détection in vitro et la stabilité de la fonctionnalisation dans ce type d'environnement. La co-localisation des DWNTs fluorescents au niveau des cellules a été rendue possible par le croisement des résultats obtenus par les microscopies confocales de fluorescence et Raman
For many years now, carbon nanotubes (CNTs) show an important potential for biomedical applications (medical imaging, targeted drug delivery, tissue engineering, cancer treatment). All these applications involve modifications of the CNTs walls, through chemical functionalisation, in order to make possible the attachment of molecules of interest. There are two main approaches for functionalisation, involving different interactions and more or less substantial changes in CNTs. On the one hand, the most widely used is the covalent functionalisation that leads to stable covalent bonds but also modifies the structure and thus the inherent properties of CNTs. On the other hand, CNTs can be functionalised by a non-covalent way, that is, through weak interactions (hydrophobic interactions, π- π stacking, ionic interactions, etc.), which do not affect the structure of CNTs. The goals of this thesis were, in a first phase, to determine the best purification strategy for double-walled carbon nanotubes (DWNTs), synthesized by a Catalytic Chemical Vapour Deposition process developed at the CIRIMAT, in order to remove all traces of metal nanoparticles but especially of unwanted carbonaceous species (disorganised carbon); the aim was to start from the cleanest oxidised sample in which CNTs are the only form of carbon, in order to avoid any competition between different carbon species, making then impossible to get a clear conclusion. DWNTs were selected as an ideal structure which would represent both single-walled CNTs (similar morphology) and multi-walled CNTs in general. The protocols of covalent and non-covalent functionalisations of purified DWNTs were developed in a second stage. The choice of the molecules of interest to graft mainly fell on fluorophores (fluorescein isothiocyanate FITC; Cy5; a streptocyanine only fluorescent when it is covalently attached), thus allowing a direct observation of the functionalisation. Grafting ratios could be determined thanks to the combination of several characterisation techniques, which raised some questions on the stability with time of the non-covalent functionalisation, and on what is really covalently grafted on the CNTs when this way is chosen. Finally, such functionalised DWNTs were incubated with several types of cells to test their in vitro detection and the functionalisation stability in this kind of environment. Co-localisation of fluorescent DWNTs in the cells was achieved by comparison of the results obtained from confocal fluorescence and confocal Raman microscopies
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Exurville, Ingrid. "Détection non destructive de modification malveillante de circuits intégrés". Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0800/document.

Texto completo da fonte
Resumo:
L'exportation et la mutualisation des industries de fabrication des circuits intégrés impliquent de nombreuses interrogations concernant l'intégrité des circuits fabriqués. On se retrouve alors confronté au problème d'insertion d'une fonctionnalité dissimulée pouvant agir de façon cachée : on parle de Cheval de Troie Matériel (CTM). En raison de la complexité d'un circuit intégré, repérer ce genre de modification se révèle particulièrement difficile. Le travail proposé dans ce manuscrit s'oriente vers une technique de détection non destructrice de CTM. L’approche consiste à utiliser les temps de calculs internes du système étudié comme canal permettant de détecter des CTM. Dans ces travaux, un modèle décrivant les temps de calcul est défini. Il prend notamment en compte deux paramètres importants que sont les conditions expérimentales et les variations de procédés.Des attaques en faute par glitchs d’horloge basée sur la violation de contraintes temporelles permettent de mesurer des temps de calcul internes. Des cartes fiables sont utilisées pour servir de référence. Après avoir validé la pertinence de ce canal d’étude concernant l’obtention d’informations sur le comportement interne du circuit cible, on procède à des détections expérimentales de CTM insérés à deux niveaux d’abstraction (niveau RTL et après l'étape de placement/routage). Des traitements avec prise en compte des variations de procédés permettent d'identifier si les cartes testées sont infectées par un CTM
The globalization of integrated circuits fabrication involves several questions about the integrity of the fabricated circuits. Malicious modifications called Hardware Trojans (HT) can be introduced during the circuit production process. Due to the complexity of an integrated circuit, it is really difficult to find this kind of alterations.This work focuses on a non-destructive method of HT detection. We use the paths delays of the studied design as a channel to detect HT. A model to describe paths delays is defined. It takes into account two important parameters which are the experimental conditions and the process variations.Faults attacks by clock glitches based on timing constraints violations have been performed to measure data paths delays. Reliable circuits are used for reference. After validating the relevance of this channel to get information on the internal behavior of the targeted design, experimental detections of HT inserted on two different abstraction levels (RTL and after place and route) were achieved. Process variations are taken into consideration in the studies to detect if the tested circuits are infected
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Yakoubi, Zied. "Détection et évaluation des communautés dans les réseaux complexes". Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132045/document.

Texto completo da fonte
Resumo:
Dans le contexte des réseaux complexes, cette thèse s’inscrit dans deux axes : (1) Méthodologiede la détection de communautés et (2) Evaluation de la qualité des algorithmes de détection de communautés. Dans le premier axe, nous nous intéressons en particulier aux approches fondées sur les Leaders (sommets autour desquels s’agrègent les communautés). Premièrement, nous proposons un enrichissement de la méthodologie LICOD qui permet d’évaluer les différentes stratégies des algorithmes fondés sur les leaders, en intégrant différentes mesures dans toutes les étapes de l’algorithme. Deuxièmement, nous proposons une extension de LICOD, appelée it-LICOD. Cette extension introduit une étape d’auto-validation de l’ensemble des leaders. Les résultats expérimentaux de it-LICOD sur les réseaux réels et artificiels sont bons par rapport à LICOD et compétitifs par rapport aux autres méthodes. Troisièmement, nous proposons une mesure de centralité semi-locale, appelée TopoCent, pour remédier au problème de la non-pertinence des mesures locales et de la complexité de calcul élevée des mesures globales. Nous montrons expérimentalement que LICOD est souvent plus performant avec TopoCent qu’avec les autres mesures de centralité. Dans le deuxième axe, nous proposons deux méthodes orientées-tâche, CLE et PLE, afin d’évaluer les algorithmes de détection de communautés. Nous supposons que la qualité de la solution des algorithmes peut être estimée en les confrontant à d’autres tâches que la détection de communautés en elle-même. Dans la méthode CLE nous utilisons comme tâche la classification non-supervisée et les algorithmes sont évalués sur des graphes générés à partir des jeux de données numériques. On bénéficie dans ce cas de la disponibilité de la vérité de terrain (les regroupements) de plusieurs jeux de données numériques. En ce qui concerne la méthode PLE, la qualité des algorithmes est mesurée par rapport à leurs contributions dans une tâche de prévision de liens. L’expérimentation des méthodes CLE et PLE donne de nouveaux éclairages sur les performances des algorithmes de détection de communautés
In this thesis we focus, on one hand, on community detection in complex networks, and on the other hand, on the evaluation of community detection algorithms. In the first axis, we are particularly interested in Leaders driven community detection algorithms. First, we propose an enrichment of LICOD : a framework for building different leaders-driven algorithms. We instantiate different implementations of the provided hotspots. Second, we propose an extension of LICOD, we call it-LICOD. This extension introduces a self-validation step of all identified leaders. Experimental results of it-LICOD on real and artificial networks show that it outperform the initial LICOD approach. Obtained results are also competitive with those of other state-of-the art methods. Thirdly, we propose a semi-local centrality measure, called TopoCent, that address the problem of the irrelevance of local measures and high computational complexity of globalmeasures. We experimentally show that LICOD is often more efficient with TopoCent than with the other classical centrality measures. In the second axis, we propose two task-based community evaluation methods : CLE and PLE. We examine he hypothesis that the quality of community detection algorithms can be estimated by comparing obtained results in the context of other relevent tasks. The CLE approach, we use a data clustering task as a reference. The PLE method apply a link prediction task. We show that the experimentation of CLE and PLE methods gives new insights into the performance of community detection algorithms
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia