Literatura académica sobre el tema "Apprentissage adverse"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Apprentissage adverse".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Apprentissage adverse"

1

Fillières-Riveau, Gauthier, Jean-Marie Favreau, Vincent Barra y Guillaume Touya. "Génération de cartes tactiles photoréalistes pour personnes déficientes visuelles par apprentissage profond". Revue Internationale de Géomatique 30, n.º 1-2 (enero de 2020): 105–26. http://dx.doi.org/10.3166/rig.2020.00104.

Texto completo
Resumen
Les cartes tactiles photoréalistes sont un des outils mobilisés par les personnes en situation de déficience visuelle pour appréhender leur environnement urbain proche, notamment dans le cadre de la mobilité, pour la traversée de carrefours par exemple. Ces cartes sont aujourd’hui principalement fabriquées artisanalement. Dans cet article, nous proposons une approche permettant de produire une segmentation sémantique d’une imagerie aérienne de précision, étape centrale de cette fabrication. Les différents éléments d’intérêt tels que trottoirs, passages piétons, ou îlots centraux sont ainsi localisés et tracés dans l’espace urbain. Nous présentons en particulier comment l’augmentation de cette imagerie par des données vectorielles issues d’OpenStreetMap permet d’obtenir par une technique d’apprentissage profond (réseau adverse génératif conditionnel) des résultats significatifs. Après avoir présenté les enjeux de ce travail et un état de l’art des techniques existantes, nous détaillons l’approche proposée, et nous étudions les résultats obtenus, en comparant en particulier les segmentations obtenues sans et avec enrichissement par données vectorielles. Les résultats sont très prometteurs.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Apprentissage adverse"

1

Viti, Mario. "Automated prediction of major adverse cardiovascular events". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG084.

Texto completo
Resumen
Dans ce projet de recherche financé en contrat CIFRE avec GE Healthcare, on cherche a prédire les épisodes cardio-vasculaire adverses majeurs (ECAM), c’est à dire typiquement les embolies et les anévrismes dans l’aorte et les artères coronaires, qui donnent lieu a une respectivement à une interruption catastrophique du flux sanguin vers le coeur et donc un infarctus, ou à une hémorragie interne. Les deux types d’épisodes sont extrêmement graves. Lorsqu’un patient est hospitalisé pour une alerte reliée à ces épisodes, il va subir un examen scanner X, injecté ou non, plus ou moins invasif. Un objectif majeur de cette recherche est d’utiliser au mieux l’information obtenue sous forme d’images 3D ainsi que l’historique du patient pour éviter de soumettre le patient à des examens inutiles, invasifs ou dangereux, tout en garantissant le meilleur résultat clinique. Les méthodologies proposées reposeront sur des techniques d’analyse et traitement d’image, de vision par ordinateur et d’imagerie médicale qui seront développée en partenariat entre GE Healthcare et le laboratoire Centre de Vision Numérique (CVN) de CentraleSupélec
This research project is expected to be financed by a CIFRE scholarship in collaboration between GE Healthcare and CentraleSupelec. We are seeking to predict Major Adverse Cardiovascular Events (MACE). These are typically embolism and aneurisms in the aorta and the coronary arteries, that give rise respectively to interrupted blood flow to the heart and so a risk of infarctus, or major hemorrhage. Both are life-threatening. When a patient is brought to hospital for an alert (angina, etc), they will undergo an X-ray CAT scan, which can be more or less invasive. A major objective of this research is to utilize as well as possible the available information in the form of 3D images together with patient history and other data, in order to avoid needless, invasive, irradiating or dangerous exams, while simultaneously guaranteeing optimal care and the best possible clinical outcome. The proposed methodologies include image analysis, image processing, computer vision and medical imaging procedures and methods, that will be developed in partnership between GE Healthcare and the CVN lab of CENTRALE SUPELEC
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Bellón, Molina Víctor. "Prédiction personalisée des effets secondaires indésirables de médicaments". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM023/document.

Texto completo
Resumen
Les effets indésirables médicamenteux (EIM) ont des répercussions considérables tant sur la santé que sur l'économie. De 1,9% à 2,3% des patients hospitalisés en sont victimes, et leur coût a récemment été estimé aux alentours de 400 millions d'euros pour la seule Allemagne. De plus, les EIM sont fréquemment la cause du retrait d'un médicament du marché, conduisant à des pertes pour l'industrie pharmaceutique se chiffrant parfois en millions d'euros.De multiples études suggèrent que des facteurs génétiques jouent un rôle non négligeable dans la réponse des patients à leur traitement. Cette réponse comprend non seulement les effets thérapeutiques attendus, mais aussi les effets secondaires potentiels. C'est un phénomène complexe, et nous nous tournons vers l'apprentissage statistique pour proposer de nouveaux outils permettant de mieux le comprendre.Nous étudions différents problèmes liés à la prédiction de la réponse d'un patient à son traitement à partir de son profil génétique. Pour ce faire, nous nous plaçons dans le cadre de l'apprentissage statistique multitâche, qui consiste à combiner les données disponibles pour plusieurs problèmes liés afin de les résoudre simultanément.Nous proposons un nouveau modèle linéaire de prédiction multitâche qui s'appuie sur des descripteurs des tâches pour sélectionner les variables pertinentes et améliorer les prédictions obtenues par les algorithmes de l'état de l'art. Enfin, nous étudions comment améliorer la stabilité des variables sélectionnées, afin d'obtenir des modèles interprétables
Adverse drug reaction (ADR) is a serious concern that has important health and economical repercussions. Between 1.9%-2.3% of the hospitalized patients suffer from ADR, and the annual cost of ADR have been estimated to be of 400 million euros in Germany alone. Furthermore, ADRs can cause the withdrawal of a drug from the market, which can cause up to millions of dollars of losses to the pharmaceutical industry.Multiple studies suggest that genetic factors may play a role in the response of the patients to their treatment. This covers not only the response in terms of the intended main effect, but also % according toin terms of potential side effects. The complexity of predicting drug response suggests that machine learning could bring new tools and techniques for understanding ADR.In this doctoral thesis, we study different problems related to drug response prediction, based on the genetic characteristics of patients.We frame them through multitask machine learning frameworks, which combine all data available for related problems in order to solve them at the same time.We propose a novel model for multitask linear prediction that uses task descriptors to select relevant features and make predictions with better performance as state-of-the-art algorithms. Finally, we study strategies for increasing the stability of the selected features, in order to improve interpretability for biological applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Grari, Vincent. "Adversarial mitigation to reduce unwanted biases in machine learning". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS096.

Texto completo
Resumen
Ces dernières années, on a assisté à une augmentation spectaculaire de l’intérêt académique et sociétal pour l’apprentissage automatique équitable. En conséquence, des travaux significatifs ont été réalisés pour inclure des contraintes d’équité dans les algorithmes d’apprentissage automatique. Le but principal est de s’assurer que les prédictions des modèles ne dépendent d’aucun attribut sensible comme le genre ou l’origine d’une personne par exemple. Bien que cette notion d’indépendance soit incontestable dans un contexte général, elle peut théoriquement être définie de manière totalement différente selon la façon dont on voit l’équité. Par conséquent, de nombreux articles récents abordent ce défi en utilisant leurs "propres" objectifs et notions d’équité. Les objectifs sont catégorisés en deux familles différentes : L’équité individuelle et l’équité de groupe. Cette thèse donne d’une part, une vue d’ensemble des méthodologies appliquées dans ces différentes familles afin d’encourager les bonnes pratiques. Ensuite, nous identifions et complétons les lacunes en présentant de nouvelles métriques et des algorithmes de machine learning équitables qui sont plus appropriés pour des contextes spécifiques
The past few years have seen a dramatic rise of academic and societal interest in fair machine learning. As a result, significant work has been done to include fairness constraints in the training objective of machine learning algorithms. Its primary purpose is to ensure that model predictions do not depend on any sensitive attribute as gender or race, for example. Although this notion of independence is incontestable in a general context, it can theoretically be defined in many different ways depending on how one sees fairness. As a result, many recent papers tackle this challenge by using their "own" objectives and notions of fairness. Objectives can be categorized in two different families: Individual and Group fairness. This thesis gives an overview of the methodologies applied in these different families in order to encourage good practices. Then, we identify and complete gaps by presenting new metrics and new Fair-ML algorithms that are more appropriate for specific contexts
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Bouvard, Matthieu. "3 essais en finance d'entreprise". Toulouse 1, 2009. http://www.theses.fr/2009TOU10032.

Texto completo
Resumen
Cette thèse est composée de trois essais. Un premier essai s intéresse au lien entre frictions sur les marchés de capitaux et acquisition d information par des entrepreneurs. Je montre qu un problème d anti-sélection entre entrepreneurs et investisseurs peut modifier les incitations des premiers à investir dans l acquisition de compétences ou d expérience. Il existe deux régimes inefficients. Lorsque les investisseurs sont a priori pessimistes, l accès au financement est restreint aux entrepreneurs expérimentés, il y a peu de projets financés et ils sont en moyenne très profitables. Lorsque les investisseurs sont a priori optimistes, tous les entrepreneurs ont accès à un financement, le nombre de projets financés est élevé, et leur profitabilité moyenne est faible. Ces effets suggèrent un mécanisme d amplification des cycles économiques. Un deuxième essai modélise le financement de projets innovants comme un problème d investissement séquentiel. Un premier investissement génère un flux d information sur la profitabilité d un deuxième investissement. L entrepreneur a ex ante une information privée sur la profitabilité du projet, ce qui crée un problème d anti-sélection pour les investisseurs. Les contrats optimaux peuvent être implémentés en utilisant des stocks-options bloquées et un "golden parachute". Ils incluent également le timing du deuxième investissement qui est utilisé comme un instrument pour signaler la qualité du projet. Ce mécanisme crée une distorsion dans le processus d apprentissage : le deuxième investissement a lieu trop tôt ou trop tard par rapport à l optimum de premier ordre. Le financement interne affecte le timing du deuxième investissement. Le modèle génère des prédictions empiriques sur le relation entre la sensibilité à la performance du contrat de rémunération de l entrepreneur et la politique d investissement de la firme. Un troisième essai s intéresse aux agences de certification ou de notation dont la rémunération dépend des intérêts potentiellement conflictuels des acheteurs (investisseurs) et des vendeurs (émetteurs de titres). En délivrant une information plus précise, les agences augmentent la participation des acheteurs mais peuvent également dissuader les vendeurs de participer. En effet, ces derniers prennent également en compte la probabilité d obtenir une note positive. Dans un jeu dynamique, nous examinons comment la tentative d établir une réputation vis-a-vis des deux côtés du marché affecte la production d information. Nous montrons que le souci de réputation peut avoir un effet ambigu. Lorsque la fiabilité perçue des notations est faible, la réputation a un effet de discipline et la précision des notations s améliore. Lorsque la fiabilité perçue est élevée, les agences deviennent laxistes pour augmenter leurs revenus futurs. Cet effet ne nécessite pas que la rémunération de l agence soit contingente à la notation
The first essay shows that adverse selection on the capital market affects incentives of entrepreneurs to engage in information acquisition through education or experience. The second essay models innovation financing as a sequential investment problem. Adverse selection on the capital market distorts investment timing and creates inertia. Optimal contracts can be implemented through stock options with a vesting period and severance payments. The third essay studies ratings or certification agencies and shows that reputational concerns have an ambiguous effect. When the perceived reliability of ratings is deficient, reputation has a disciplining effect and the precision of reports improves. However, agencies with a good reputation are too lenient
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Dahmane, Khouloud. "Analyse d'images par méthode de Deep Learning appliquée au contexte routier en conditions météorologiques dégradées". Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC020.

Texto completo
Resumen
De nos jours, les systèmes de vision sont de plus en plus utilisés dans le contexte routier. Ils permettent ainsi d'assurer la sécurité et faciliter la mobilité. Ces systèmes de vision sont généralement affectés par la dégradation des conditions météorologiques en présence de brouillard ou de pluie forte, phénomènes limitant la visibilité et réduisant ainsi la qualité des images. Afin d'optimiser les performances des systèmes de vision, il est nécessaire de disposer d'un système de détection fiable de ces conditions météorologiques défavorables.Il existe des capteurs météorologiques dédiés à la mesure physique, mais ils sont coûteux. Ce problème peut être résolu en utilisant les caméras qui sont déjà installées sur les routes. Ces dernières peuvent remplir simultanément deux fonctions : l'acquisition d'images pour les applications de surveillance et la mesure physique des conditions météorologiques au lieu des capteurs dédiés. Suite au grand succès des réseaux de neurones convolutifs (CNN) dans la classification et la reconnaissance d'images, nous avons utilisé une méthode d'apprentissage profond pour étudier le problème de la classification météorologique. L'objectif de notre étude est de chercher dans un premier temps à mettre au point un classifieur du temps, qui permet de discriminer entre temps « normal », brouillard et pluie. Dans un deuxième temps, une fois la classe connue, nous cherchons à développer un modèle de mesure de la distance de visibilité météorologique du brouillard. Rappelons que l'utilisation des CNN exige l'utilisation de bases de données d'apprentissage et de test. Pour cela, deux bases de données ont été utilisées, "Cerema-AWP database" (https://ceremadlcfmds.wixsite.com/cerema-databases), et la base "Cerema-AWH database", en cours d'acquisition depuis 2017 sur le site de la Fageole sur l'autoroute A75. Chaque image des deux bases est labellisée automatiquement grâce aux données météorologiques relevées sur le site permettant de caractériser diverses gammes de pluie et de brouillard. La base Cerema-AWH, qui a été mise en place dans le cadre de nos travaux, contient cinq sous-bases : conditions normales de jour, brouillard fort, brouillard faible, pluie forte et pluie faible. Les intensités de pluie varient de 0 mm/h à 70 mm/h et les visibilités météorologiques de brouillard varient entre 50m et 1800m. Parmi les réseaux de neurones connus et qui ont montré leur performance dans le domaine de la reconnaissance et la classification, nous pouvons citer LeNet, ResNet-152, Inception-v4 et DenseNet-121. Nous avons appliqué ces réseaux dans notre système de classification des conditions météorologiques dégradées. En premier lieu, une étude justificative de l'usage des réseaux de neurones convolutifs est effectuée. Elle étudie la nature de la donnée d'entrée et les hyperparamètres optimaux qu'il faut utiliser pour aboutir aux meilleurs résultats. Ensuite, une analyse des différentes composantes d'un réseau de neurones est menée en construisant une architecture instrumentale de réseau de neurones. La classification des conditions météorologiques avec les réseaux de neurones profonds a atteint un score de 83% pour une classification de cinq classes et 99% pour une classification de trois classes.Ensuite, une analyse sur les données d'entrée et de sortie a été faite permettant d'étudier l'impact du changement de scènes et celui du nombre de données d'entrée et du nombre de classes météorologiques sur le résultat de classification.Enfin, une méthode de transfert de bases de données a été appliquée. Cette méthode permet d'étudier la portabilité du système de classification des conditions météorologiques d'un site à un autre. Un score de classification de 63% a été obtenu en faisant un transfert entre une base publique et la base Cerema-AWH. (...)
Nowadays, vision systems are becoming more and more used in the road context. They ensure safety and facilitate mobility. These vision systems are generally affected by the degradation of weather conditions, like heavy fog or strong rain, phenomena limiting the visibility and thus reducing the quality of the images. In order to optimize the performance of the vision systems, it is necessary to have a reliable detection system for these adverse weather conditions.There are meteorological sensors dedicated to physical measurement, but they are expensive. Since cameras are already installed on the road, they can simultaneously perform two functions: image acquisition for surveillance applications and physical measurement of weather conditions instead of dedicated sensors. Following the great success of convolutional neural networks (CNN) in classification and image recognition, we used a deep learning method to study the problem of meteorological classification. The objective of our study is to first seek to develop a classifier of time, which discriminates between "normal" conditions, fog and rain. In a second step, once the class is known, we seek to develop a model for measuring meteorological visibility.The use of CNN requires the use of train and test databases. For this, two databases were used, "Cerema-AWP database" (https://ceremadlcfmds.wixsite.com/cerema-databases), and the "Cerema-AWH database", which has been acquired since 2017 on the Fageole site on the highway A75. Each image of the two bases is labeled automatically thanks to meteorological data collected on the site to characterize various levels of precipitation for rain and fog.The Cerema-AWH base, which was set up as part of our work, contains 5 sub-bases: normal day conditions, heavy fog, light fog, heavy rain and light rain. Rainfall intensities range from 0 mm/h to 70mm/h and fog weather visibilities range from 50m to 1800m. Among the known neural networks that have demonstrated their performance in the field of recognition and classification, we can cite LeNet, ResNet-152, Inception-v4 and DenseNet-121. We have applied these networks in our adverse weather classification system. We start by the study of the use of convolutional neural networks. The nature of the input data and the optimal hyper-parameters that must be used to achieve the best results. An analysis of the different components of a neural network is done by constructing an instrumental neural network architecture. The conclusions drawn from this analysis show that we must use deep neural networks. This type of network is able to classify five meteorological classes of Cerema-AWH base with a classification score of 83% and three meteorological classes with a score of 99%Then, an analysis of the input and output data was made to study the impact of scenes change, the input's data and the meteorological classes number on the classification result.Finally, a database transfer method is developed. We study the portability from one site to another of our adverse weather conditions classification system. A classification score of 63% by making a transfer between a public database and Cerema-AWH database is obtained.After the classification, the second step of our study is to measure the meteorological visibility of the fog. For this, we use a neural network that generates continuous values. Two fog variants were tested: light and heavy fog combined and heavy fog (road fog) only. The evaluation of the result is done using a correlation coefficient R² between the real values and the predicted values. We compare this coefficient with the correlation coefficient between the two sensors used to measure the weather visibility on site. Among the results obtained and more specifically for road fog, the correlation coefficient reaches a value of 0.74 which is close to the physical sensors value (0.76)
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Darwaish, Asim. "Adversary-aware machine learning models for malware detection systems". Electronic Thesis or Diss., Université Paris Cité, 2022. http://www.theses.fr/2022UNIP7283.

Texto completo
Resumen
La popularisation des smartphones et leur caractère indispensable les rendent aujourd'hui indéniables. Leur croissance exponentielle est également à l'origine de l'apparition de nombreux logiciels malveillants et fait trembler le prospère écosystème mobile. Parmi tous les systèmes d'exploitation des smartphones, Android est le plus ciblé par les auteurs de logiciels malveillants en raison de sa popularité, de sa disponibilité en tant que logiciel libre, et de sa capacité intrinsèque à accéder aux ressources internes. Les approches basées sur l'apprentissage automatique ont été déployées avec succès pour combattre les logiciels malveillants polymorphes et évolutifs. Au fur et à mesure que le classificateur devient populaire et largement adopté, l'intérêt d'échapper au classificateur augmente également. Les chercheurs et les adversaires se livrent à une course sans fin pour renforcer le système de détection des logiciels malveillants androïd et y échapper. Afin de lutter contre ces logiciels malveillants et de contrer les attaques adverses, nous proposons dans cette thèse un système de détection de logiciels malveillants android basé sur le codage d'images, un système qui a prouvé sa robustesse contre diverses attaques adverses. La plateforme proposée construit d'abord le système de détection des logiciels malveillants android en transformant intelligemment le fichier Android Application Packaging (APK) en une image RGB légère et en entraînant un réseau neuronal convolutif (CNN) pour la détection des logiciels malveillants et la classification des familles. Notre nouvelle méthode de transformation génère des modèles pour les APK bénins et malveillants plus faciles à classifier en images de couleur. Le système de détection ainsi conçu donne une excellente précision de 99,37% avec un Taux de Faux Négatifs (FNR) de 0,8% et un Taux de Faux Positifs (FPR) de 0,39% pour les anciennes et les nouvelles variantes de logiciels malveillants. Dans la deuxième phase, nous avons évalué la robustesse de notre système de détection de logiciels malveillants android basé sur l'image. Pour valider son efficacité contre les attaques adverses, nous avons créé trois nouveaux modèles d'attaques. Notre évaluation révèle que les systèmes de détection de logiciels malveillants basés sur l'apprentissage les plus récents sont faciles à contourner, avec un taux d'évasion de plus de 50 %. Cependant, le système que nous avons proposé construit un mécanisme robuste contre les perturbations adverses en utilisant son espace continu intrinsèque obtenu après la transformation intelligente des fichiers Dex et Manifest, ce qui rend le système de détection difficile à contourner
The exhilarating proliferation of smartphones and their indispensability to human life is inevitable. The exponential growth is also triggering widespread malware and stumbling the prosperous mobile ecosystem. Among all handheld devices, Android is the most targeted hive for malware authors due to its popularity, open-source availability, and intrinsic infirmity to access internal resources. Machine learning-based approaches have been successfully deployed to combat evolving and polymorphic malware campaigns. As the classifier becomes popular and widely adopted, the incentive to evade the classifier also increases. Researchers and adversaries are in a never-ending race to strengthen and evade the android malware detection system. To combat malware campaigns and counter adversarial attacks, we propose a robust image-based android malware detection system that has proven its robustness against various adversarial attacks. The proposed platform first constructs the android malware detection system by intelligently transforming the Android Application Packaging (APK) file into a lightweight RGB image and training a convolutional neural network (CNN) for malware detection and family classification. Our novel transformation method generates evident patterns for benign and malware APKs in color images, making the classification easier. The detection system yielded an excellent accuracy of 99.37% with a False Negative Rate (FNR) of 0.8% and a False Positive Rate (FPR) of 0.39% for legacy and new malware variants. In the second phase, we evaluate the robustness of our secured image-based android malware detection system. To validate its hardness and effectiveness against evasion, we have crafted three novel adversarial attack models. Our thorough evaluation reveals that state-of-the-art learning-based malware detection systems are easy to evade, with more than a 50% evasion rate. However, our proposed system builds a secure mechanism against adversarial perturbations using its intrinsic continuous space obtained after the intelligent transformation of Dex and Manifest files which makes the detection system strenuous to bypass
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Rodriguez, Colmeiro Ramiro German. "Towards Reduced Dose Positron Emission Tomography Imaging Using Sparse Sampling and Machine Learning". Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0015.

Texto completo
Resumen
Cette thèse étudie le problème de dose de radiation dans les études de Tomographie par Émission de Positons (PET). Trois aspects du PET-scan sont analysées. La première partie de cette thèse est dédiée à la technologie PET-scan. Deux techniques sont développées pour le PET-scan à faible dose : l’AR-PET. Une première stratégie de sélection et de placement de photomultiplicateurs est proposée, augmentant la résolution énergétique. Une technique de localisation d’impacts des photons gamma dans les cristaux solides de scintillation est développé. Cette technique est basée sur des réseaux de neurones artificiels et sur une acquisition unique de champ. Nous montrons qu’une augmentation de la sensibilité du détecteur est obtenue. Dans la deuxième partie de cette thèse, la reconstruction de l’image PET avec l’aide de maillages est étudiée. Un algorithme de reconstruction qui utilise une série de maillages 2D pour décrire la distribution 3D du radiotraceur est proposé, résultant en une diminution du nombre de points d’échantillonnage et rendant possible l’optimisation et la parallélisation des maillages. Enfin, la génération de l’image d’atténuation au moyen de réseaux de neurones artificiels profonds est explorée. L’apprentissage du réseau de neurones se fait à travers une transformation d’images PET FDG sans correction d’atténuation pour produire une image de tomodensitométrie (CT) synthétique. La conclusion des travaux de cette thèse pose la base pour l’usage de PET-scan à bas coût et a faible dose, via l’usage d’une image d’atténuation artificielle
This thesis explores the reduction of the patient radiation dose in screening Positron Emission Tomography (PET) studies. It analyses three aspects of PET imaging, which can reduce the patient dose: the data acquisition, the image reconstruction and the attenuation map generation. The first part of the thesis is dedicated to the PET scanner technology. Two optimization techniques are developed for a novel low-cost and low-dose scanner, the AR-PET scanner. First a photomultiplier selection and placement strategy is created, improving the energy resolution. The second work focuses on the localization of gamma events on solid scintillation crystals. The method is based on neural networks and a single flood acquisition, resulting in an increased detector’s sensitivity. In the second part, the PET image reconstruction on mesh support is studied. A mesh-based reconstruction algorithm is proposed which uses a series of 2D meshes to describe the 3D radiotracer distribution. It is shown that with this reconstruction strategy the number of sample points can be reduced without loosing accuracy and enabling parallel mesh optimization. Finally the attenuation map generation using deep neural networks is explored. A neural network is trained to learn the mapping from non attenuation corrected FDG PET images to a synthetic Computerized Tomography. With these approaches, this thesis lays a base for a low-cost and low-dose PET screening system, dispensing the need of a computed tomography image in exchange of an artificial attenuation map
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Seddik, Mohamed El Amine. "Random Matrix Theory for AI : From Theory to Practice". Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG010.

Texto completo
Resumen
De nos jours, l'IA repose en grande partie sur l'utilisation de données de grande taille et sur des méthodes d'apprentissage machine améliorées qui consistent à développer des algorithmes de classification et d'inférence en tirant parti de grands ensembles de données de grande taille. Ces grandes dimensions induisent de nombreux phénomènes contre-intuitifs, conduisant généralement à une mauvaise compréhension du comportement de nombreux algorithmes d'apprentissage machine souvent conçus avec des intuitions de petites dimensions de données. En tirant parti du cadre multidimensionnel (plutôt que d'en souffrir), la théorie des matrices aléatoires (RMT) est capable de prédire les performances de nombreux algorithmes non linéaires aussi complexes que certains réseaux de neurones aléatoires, ainsi que de nombreuses méthodes du noyau telles que les SVM, la classification semi-supervisée, l'analyse en composantes principales ou le regroupement spectral. Pour caractériser théoriquement les performances de ces algorithmes, le modèle de données sous-jacent est souvent un modèle de mélange gaussien (MMG) qui semble être une hypothèse forte étant donné la structure complexe des données réelles (par exemple, des images). En outre, la performance des algorithmes d'apprentissage automatique dépend du choix de la représentation des données (ou des caractéristiques) sur lesquelles ils sont appliqués. Encore une fois, considérer les représentations de données comme des vecteurs gaussiens semble être une hypothèse assez restrictive. S'appuyant sur la théorie des matrices aléatoires, cette thèse vise à aller au-delà de la simple hypothèse du MMG, en étudiant les outils classiques d'apprentissage machine sous l'hypothèse de vecteurs aléatoires concentrés qui généralisent les vecteurs Gaussiens. Cette hypothèse est particulièrement motivée par l'observation que l'on peut utiliser des modèles génératifs (par exemple, les GAN) pour concevoir des structures de données complexes et réalistes telles que des images, grâce à des transformations Lipschitzienne de vecteurs gaussiens. Cela suggère notamment que l'hypothèse de concentration sur les données mentionnée ci-dessus est un modèle approprié pour les données réelles et qui est tout aussi mathématiquement accessible que les MMG. Par conséquent, nous démontrons à travers cette thèse, en nous appuyant sur les GANs, l'intérêt de considérer le cadre des vecteurs concentrés comme un modèle pour les données réelles. En particulier, nous étudions le comportement des matrices de Gram aléatoires qui apparaissent au cœur de divers modèles linéaires, des matrices à noyau qui apparaissent dans les méthodes à noyau et également des méthodes de classification qui reposent sur une solution implicite (par exemple, la couche de Softmax dans les réseaux de neurones), avec des données aléatoires supposées concentrées. En particulier, la compréhension du comportement de ces matrices/méthodes, pour des données concentrées, nous permet de caractériser les performances (sur des données réelles si nous les assimilons à des vecteurs concentrés) de nombreux algorithmes d'apprentissage machine, tels que le clustering spectral, les SVM, l'analyse en composantes principales et l'apprentissage par transfert. L'analyse de ces méthodes pour des données concentrées donne le résultat surprenant qu'elles ont asymptotiquement le même comportement que pour les données de MMG. Ce résultat suggère fortement l'aspect d'universalité des grands classificateurs d'apprentissage machine par rapport à la distribution sous-jacente des données
AI nowadays relies largely on using large data and enhanced machine learning methods which consist in developing classification and inference algorithms leveraging large datasets of large sizes. These large dimensions induce many counter-intuitive phenomena, leading generally to a misunderstanding of the behavior of many machine learning algorithms often designed with small data dimension intuitions. By taking advantage of (rather than suffering from) the multidimensional setting, random matrix theory (RMT) is able to predict the performance of many non-linear algorithms as complex as some random neural networks as well as many kernel methods such as Support Vector Machines, semi-supervised classification, principal component analysis or spectral clustering. To characterize the performance of these algorithms theoretically, the underlying data model is often a Gaussian mixture model (GMM) which seems to be a strong assumption given the complex structure of real data (e.g., images). Furthermore, the performance of machine learning algorithms depends on the choice of data representation (or features) on which they are applied. Once again, considering data representations as Gaussian vectors seems to be quite a restrictive assumption. Relying on random matrix theory, this thesis aims at going beyond the simple GMM hypothesis, by studying classical machine learning tools under the hypothesis of Lipschitz-ally transformed Gaussian vectors also called concentrated random vectors, and which are more generic than Gaussian vectors. This hypothesis is particularly motivated by the observation that one can use generative models (e.g., GANs) to design complex and realistic data structures such as images, through Lipschitz-ally transformed Gaussian vectors. This notably suggests that making the aforementioned concentration assumption on data is a suitable model for real data and which is just as mathematically accessible as GMM models. Moreover, in terms of data representation, the concentration framework is compatible with one of the most widely used data representations in practice, namely deep neural nets (DNNs) representations, since they consist in a Lipschitz transformation of the input data (e.g., images). Therefore, we demonstrate through this thesis, leveraging on GANs, the interest of considering the framework of concentrated vectors as a model for real data. In particular, we study the behavior of random Gram matrices which appear at the core of various linear models, kernel matrices which appear in kernel methods and also classification methods which rely on an implicit solution (e.g., Softmax layer in neural networks), with concentrated random inputs. Indeed, these methods are at the heart of many classification, regression and clustering machine learning algorithms. In particular, understanding the behavior of these matrices/methods, for concentrated data, allows us to characterize the performances (on real data if we assimilate them to concentrated vectors) of many machine learning algorithms, such as spectral clustering, SVMs, principal component analysis and transfer learning. Analyzing these methods for concentrated data yields to the surprising result that they have asymptotically the same behavior as for GMM data (with the same first and second order statistics). This result strongly suggest the universality aspect of large machine learning classifiers w.r.t. the underlying data distribution
Los estilos APA, Harvard, Vancouver, ISO, etc.

Libros sobre el tema "Apprentissage adverse"

1

G, Sawyer Michael, ed. Medications for school-age children: Effects on learning and behavior. New York: Guilford Press, 1998.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía