Letteratura scientifica selezionata sul tema "Représentations robustes"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Représentations robustes".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Représentations robustes":

1

Laumond, Bénédicte. "La méthode expérimentale du jeu de cartes pour étudier les représentations pénales ordinaires en Allemagne et en France". Bulletin of Sociological Methodology/Bulletin de Méthodologie Sociologique 147-148, n. 1-2 (agosto 2020): 169–99. http://dx.doi.org/10.1177/0759106320939892.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Si les travaux s’interrogeant sur les perceptions ordinaires du pénal se sont historiquement intéressés à la technique de la vignette ( vignette research), ceux-ci ne reposent que rarement sur des dispositifs comparés et continuent de faire un large usage des questionnaires amputant l’analyse des représentations pénales profanes d’une exploration de leurs raisonnements. Afin de remédier à cette limite méthodologique, cet article présente une démarche expérimentale adossée à un jeu de cartes et menée en France et en Allemagne entre 2017 et 2019. Le jeu est composé de 23 cartes présentant des cas criminels fictifs et de 10 cartes-peines ; il est attendu des joueur/ses qu’ils/elles attribuent à chaque carte une peine tout en justifiant les choix effectués. Nous présenterons dans cet article les étapes de la conception et les conditions d’administration, dans un contexte franco-allemand, de ce jeu qui se caractérise par un dispositif relativement directif allié à un mode de passation souple inspiré des enquêtes non-directives. Cet article met en évidence la flexibilité du jeu de cartes qui interroge différents aspects du crime en mettant les enquêté.es en situation de faire. Nous montrons enfin la robustesse de ce dispositif méthodologique dans des études comparées pour faire émerger les spécificités nationales des représentations pénales.
2

Mainieri, Robin, Christophe Corona, Nicolas Eckert, Jérôme Lopez-Saez e Franck Bourrier. "Apports de la dendrogéomorphologie pour la connaissance de l’évolution de l’aléa rocheux dans les Préalpes françaises calcaires". Revue Française de Géotechnique, n. 163 (2020): 5. http://dx.doi.org/10.1051/geotech/2020014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis deux décennies, de nombreuses publications scientifiques ont mis en évidence les impacts du changement climatique sur la fréquence des chutes de pierres dans les parois englacées de haute altitude. À plus basse altitude, les inventaires rares et incomplets existants n’ont pas permis d’identifier un impact significatif de l’augmentation des températures. Dans ce travail, nous avons utilisé une approche dendrogéomorphologique, basée sur l’étude des perturbations dans les cernes de croissance des arbres, pour reconstituer l’activité passée des chutes de pierres sur deux versants forestiers des Préalpes françaises calcaires (massifs du Vercors et du Diois). Les incertitudes liées à la diminution du nombre d’arbres dans le temps ont été précisément quantifiées grâce à un inventaire forestier exhaustif et à une cartographie à haute résolution du peuplement forestier. En accord avec la littérature, la comparaison des reconstitutions dendrogéomorphologiques avec les réanalyses météorologiques SAFRAN montre que les précipitations estivales et les évènements pluvieux intenses sont les principaux facteurs qui conditionnent l’activité de l’aléa sur les deux sites. En revanche, aucun impact significatif des températures ou des cycles de gel–dégel n’a pu être détecté. À l’échelle décennale (60 dernières années), nous expliquons l’augmentation apparente de l’activité des chutes de pierres depuis 1959 dans le Vercors par la recolonisation forestière rapide de la parcelle étudiée au cours des dernières décennies et par une sur-représentation des jeunes arbres, plus sensibles aux impacts. Dans le massif du Diois, l’absence de tendance dans la reconstitution dendrogéomorphologique au cours des dernières décennies suggère que le réchauffement climatique n’a pas eu d’impact sur la fréquence de l’aléa à basse altitude. Cependant, le nombre réduit de sites et la robustesse limitée des analyses statistiques développées suggèrent que ces résultats doivent être interprétés avec prudence et devront nécessairement être répliqués dans le futur afin de conclure définitivement quant à l’absence de réponse au réchauffement de l’aléa rocheux dans les zones de basse altitude des préalpes calcaires.
3

PEYRAUD, J. L., e F. PHOCAS. "Dossier " Phénotypage des animaux d'élevage "". INRAE Productions Animales 27, n. 3 (25 agosto 2014): 179–1890. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3065.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Avant-propos La demande mondiale en produits d’origine animale est en forte expansion1 et l’élevage est l’une des activités agricoles les plus fortement créatrices d’emploi et de valeur ajoutée, tant au niveau de la production et des services qu’elle utilise, que des filières de produits animaux. Mais dans le même temps, l’élevage doit faire face à des enjeux sociétaux qui nécessitent des évolutions importantes dans les modes de production : besoin de compétitivité encore accru, méthodes d’élevage contestées vis-à-vis des atteintes à l’environnement, du respect du bien-être animal et de l’usage des médicaments. Il s’agit de réfléchir ces défis au niveau européen et mondial. Produire plus, mieux et à moindre coût doit contribuer à assurer la sécurité alimentaire mondiale et à répondre aux attentes européennes en termes de systèmes de production et de marchés très diversifiés. L’Europe a ici une responsabilité toute particulière car si elle ne peut pas nourrir le monde, il est de sa responsabilité, en tant que région où la demande sociale est aujourd’hui la plus élevée, de montrer comment concilier production et environnement. Outre les innovations et les adaptations des systèmes d’élevage (cf. Numéro spécial de la revue « Quelles innovations pour quels systèmes d’élevage ? », Ingrand S., Baumont R. (Eds). INRA Prod. Anim., 27, 2), les réponses passent aussi par la recherche d’animaux qui soient d’une part, plus efficients pour transformer leur ration et plus faciles à élever dans une large gamme de conditions climatiques et de systèmes d’élevage et, d’autre part, adaptables face à des aléas climatiques, sanitaires ou économiques tout en préservant la santé, le bien-être et la qualité des produits. Par le passé, la recherche de la maximisation des performances de production (ex : vitesse de croissance, quantité de lait par lactation…) a conduit à des animaux de plus en plus spécialisés. Dans la plupart des filières, cette maximisation s’est accompagnée d’une dégradation des autres aptitudes d’élevage, aujourd’hui source d’inefficience en élevage. La recherche d’une plus grande robustesse (définie comme la capacité pour un animal d’exprimer son potentiel de production dans une large gamme d’environnements sans pour autant compromettre sa santé et son bien-être) devient une priorité. Dans le même temps,l’accès à des techniques d’exploration fonctionnelle toujours plus performantes, les innovations en cours d’appropriation ou à venir dans le domaine de la génomique ouvrent des perspectives d’investigation nouvelles plus précises. Dans ce contexte d’évolution des demandes et des possibilités d’investigation, les projets de recherche en sciences animales doivent être plus systémiques, prédictifs et permettre d’établir des relations fonctionnelles de plus en plus fines entre le phénotype des animaux, leur génotype et le milieu dans lequel il s'exprime. Face au développement spectaculaire des connaissances sur le génome, il y a un manque criant de connaissances sur l’expression des phénotypes, connaissances qui devraient permettre de répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales : i) une sélection éclairée vers des objectifs majeurs pour améliorer l’efficience de la production et la robustesse des génotypes, et ii) un élevage de précision qui valorise la variabilité individuelle des animaux pour gagner en efficience et en résilience à l’échelle du troupeau, ou pour améliorer la conduite des animaux d’un génotype donné. En effet, d’un coté les progrès réalisés par la sélection génomique permettent aujourd’hui de repenser les critères de sélection et de les diversifier tout en raccourcissant les délais entre la définition des objectifs et l’amélioration effective des cheptels, mais cette sélection entraine de nouveaux besoins de phénotypage car elle nécessite la caractérisation d’unepopulation de référence. D’un autre coté, la connaissance plus fine de l’animal associée aux technologies en émergence de l’élevage de précision permettra de mieux piloter la conduite d’élevage pour améliorer l’efficience de l’alimentation ou de la reproduction par une approche individuelle à l’animal, ainsi que par la production d’alertes à destination de l’éleveur pour un diagnostic précoce des troubles permettant d’anticiper les ajustements requis. Le phénotypage est ainsi l’un des principaux défis que doit relever les recherches en production animale et a été reconnu comme tel par l’INRA. Deux types de phénotypage peuvent être envisagés : le phénotypage des caractères d’intérêt socio-économique et le phénotypage de caractères plus élémentaires. Les phénotypes d’intérêt socio-économique constituent la finalité recherchée. Ils résultent de mécanismes faisant appel à des régulations complexes, ils sont d’autant plus onéreux à mesurer qu’il s’agit de critères zootechniques qui doivent être observés sur des pas de temps longs. La recherche de phénotypes plus élémentaires et plus proches du mécanisme causal rend plus facile l’identification des gènes responsables. Ce phénotypage fin implique de réaliser des mesures particulièrement approfondies et à des échelles élémentaires (au niveau moléculaire, cellulaire, tissulaire…) des caractéristiques biologiques de l’animal qui expliquent un phénotype complexe observé à l’échelle de l’animal. Le phénotypage à haut débit signifie qu’une méthode de mesure des phénotypes fiable, automatisable et rapide est établie de sorte que le processus de mesure permette de générer un grand nombre de données dans un laps de temps court. Le haut débit peut s’appliquer au phénotypage fin tout comme à celui des caractères d’intérêt zootechnique. Les contributions significatives qui pourront être attendues d’un phénotypage animal fin et à haut débit concernent la biologie prédictive, à savoir la prédiction des performances à partir de caractères simples observables précocement, nécessaire notamment à la gestion des produits, à la conduite de l’élevage et à la sélection animale. Ce dossier propose le fruit d’une réflexion globale des chercheurs de l’INRA sur les perspectives qu’offre le phénotypage des animaux pour répondre aux enjeux des productions animales. Cette réflexion a eu pour objectif de définir les grands enjeux de connaissance autour du phénotypage animal et de faire émerger les questions de recherches prioritaires, transversales ou spécifiques aux différentes filières animales ainsi que les verrous techniques qui sont soulevés. Cette réflexion a été conduite par un groupe de douze chercheurs2 des départements de « Génétique Animale », « Physiologie Animale et Systèmes d’Elevage » et « Santé Animale » travaillant dans des disciplines et sur des espèces variées, missionné par la Direction Scientifique Agriculture de l’INRA. La réflexion de ce groupe s’est appuyée sur celle d’un collectif plus large de chercheurs INRA travaillant sur les animaux d’élevage par le biais d’un séminaire organisé en mai 2013 ainsi que par la rédaction partagée des articles de ce dossier. L’amélioration de la robustesse des animaux d’élevage étant un objectif central, le premier article de ce dossier développe une approche systémique de la robustesse des animaux d’élevage pour répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales pour la sélection et pour la conduite de l’élevage. Les recherches sur le phénotypage doivent être accompagnées d’une ontologie générique c’est-à-dire d’une représentation et d’un langage communs pour partager les données et les connaissances, ainsi que l’explicite le second article de ce numéro. L’objet des trois synthèses suivantes est de mettre en perspective les fronts de science (phénotypage du microbiote intestinal), les enjeux de connaissance et les verrous techniques encore à lever pour permettre des productions animales de qualité (phénotypage de la qualité des produits) et en quantité (phénotypage de l’efficacité alimentaire), à moindres coûts économique et environnemental. 1 Selon la FAO et l’OCDE, la progression de la consommation de protéines d’origine animale sur la planète devrait se poursuivre au rythme de + 2 à + 3%/an au cours de cette décennie. Sur la période 2000-2050, la consommation totale des viandes devrait progresser de l’ordre de + 70% pour une population en augmentation de + 20%. Selon les mêmes sources et pour la même période la consommation de lait et produits laitiers dans les pays émergents devrait passer de 45 à 78 kg par habitant.
4

Barney, Darin David. "Push-button Populism: The Reform Party and the Real World of Teledemocracy". Canadian Journal of Communication 21, n. 3 (1 marzo 1996). http://dx.doi.org/10.22230/cjc.1996v21n3a956.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Abstract: The past decade in Canadian politics has been marked by a growth in citizen dissatisfaction with traditional methods of political representation and the development of sophisticated communications technologies promising increased grass-roots participation in policymaking. In a series of recent teledemocratic exercises, the Reform Party of Canada has positioned itself at the centre of these trends. This paper examines the democratic quality of Reform's use of these technologies to date and suggests that a performative analysis of these events reveals their deeper ideological character. Finally, it is argued that a performative focus on their deliberative potential might help to inform a more robust democratic application of these technologies. Résumé: La dernière décennie de la politique canadienne a été marquée et d'un mécontentement croissant de la part des citoyens qui récusent les méthodes traditionelles de la représentation politique, et d'une croissance des techniques avancées de la communication qui promettent une participation populaire plus étendue dans la création des statuts. En prônant une série récente d'exercises "télédemocratiques", le Parti Réform du Canada s'est positionné au centre de ces tendances. Cet essai examine la qualité démocratique de l'usage du PRC de ces techniques jusqu'à présent, et suggère qu'une analyse performative de ces évènements révèle leur caractère idéologique plus profond. Finalement, nous proposons qu'un regard performatif sur leur potentielle délibérative pourrait contribuer à la création d'une application démocratique plus robuste de ces techniques.

Tesi sul tema "Représentations robustes":

1

Morchid, Mohamed. "Représentations robustes de documents bruités dans des espaces homogènes". Thesis, Avignon, 2014. http://www.theses.fr/2014AVIG0202/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En recherche d’information, les documents sont le plus souvent considérés comme des "sacs-de-mots". Ce modèle ne tient pas compte de la structure temporelle du document et est sensible aux bruits qui peuvent altérer la forme lexicale. Ces bruits peuvent être produits par différentes sources : forme peu contrôlée des messages des sites de micro-blogging, messages vocaux dont la transcription automatique contient des erreurs, variabilités lexicales et grammaticales dans les forums du Web. . . Le travail présenté dans cette thèse s’intéresse au problème de la représentation de documents issus de sources bruitées.La thèse comporte trois parties dans lesquelles différentes représentations des contenus sont proposées. La première partie compare une représentation classique utilisant la fréquence des mots à une représentation de haut-niveau s’appuyant sur un espace de thèmes. Cette abstraction du contenu permet de limiter l’altération de la forme de surface du document bruité en le représentant par un ensemble de caractéristiques de haut-niveau. Nos expériences confirment que cette projection dans un espace de thèmes permet d’améliorer les résultats obtenus sur diverses tâches de recherche d’information en comparaison d’une représentation plus classique utilisant la fréquence des mots.Le problème majeur d’une telle représentation est qu’elle est fondée sur un espace de thèmes dont les paramètres sont choisis empiriquement.La deuxième partie décrit une nouvelle représentation s’appuyant sur des espaces multiples et permettant de résoudre trois problèmes majeurs : la proximité des sujets traités dans le document, le choix difficile des paramètres du modèle de thèmes ainsi que la robustesse de la représentation. Partant de l’idée qu’une seule représentation des contenus ne peut pas capturer l’ensemble des informations utiles, nous proposons d’augmenter le nombre de vues sur un même document. Cette multiplication des vues permet de générer des observations "artificielles" qui contiennent des fragments de l’information utile. Une première expérience a validé cette approche multi-vues de la représentation de textes bruités. Elle a cependant l’inconvénient d’être très volumineuse,redondante, et de contenir une variabilité additionnelle liée à la diversité des vues. Dans un deuxième temps, nous proposons une méthode s’appuyant sur l’analyse factorielle pour fusionner les vues multiples et obtenir une nouvelle représentation robuste,de dimension réduite, ne contenant que la partie "utile" du document tout en réduisant les variabilités "parasites". Lors d’une tâche de catégorisation de conversations,ce processus de compression a confirmé qu’il permettait d’augmenter la robustesse de la représentation du document bruité.Cependant, lors de l’élaboration des espaces de thèmes, le document reste considéré comme un "sac-de-mots" alors que plusieurs études montrent que la position d’un terme au sein du document est importante. Une représentation tenant compte de cette structure temporelle du document est proposée dans la troisième partie. Cette représentation s’appuie sur les nombres hyper-complexes de dimension appelés quaternions. Nos expériences menées sur une tâche de catégorisation ont montré l’efficacité de cette méthode comparativement aux représentations classiques en "sacs-de-mots"
In the Information Retrieval field, documents are usually considered as a "bagof-words". This model does not take into account the temporal structure of thedocument and is sensitive to noises which can alter its lexical form. These noisescan be produced by different sources : uncontrolled form of documents in microbloggingplatforms, automatic transcription of speech documents which are errorprone,lexical and grammatical variabilities in Web forums. . . The work presented inthis thesis addresses issues related to document representations from noisy sources.The thesis consists of three parts in which different representations of content areavailable. The first one compares a classical representation based on a term-frequencyrepresentation to a higher level representation based on a topic space. The abstractionof the document content allows us to limit the alteration of the noisy document byrepresenting its content with a set of high-level features. Our experiments confirm thatmapping a noisy document into a topic space allows us to improve the results obtainedduring different information retrieval tasks compared to a classical approach based onterm frequency. The major problem with such a high-level representation is that it isbased on a space theme whose parameters are chosen empirically.The second part presents a novel representation based on multiple topic spaces thatallow us to solve three main problems : the closeness of the subjects discussed in thedocument, the tricky choice of the "right" values of the topic space parameters and therobustness of the topic-based representation. Based on the idea that a single representationof the contents cannot capture all the relevant information, we propose to increasethe number of views on a single document. This multiplication of views generates "artificial"observations that contain fragments of useful information. The first experimentvalidated the multi-view approach to represent noisy texts. However, it has the disadvantageof being very large and redundant and of containing additional variability associatedwith the diversity of views. In the second step, we propose a method based onfactor analysis to compact the different views and to obtain a new robust representationof low dimension which contains only the informative part of the document whilethe noisy variabilities are compensated. During a dialogue classification task, the compressionprocess confirmed that this compact representation allows us to improve therobustness of noisy document representation.Nonetheless, during the learning process of topic spaces, the document is consideredas a "bag-of-words" while many studies have showed that the word position in a7document is useful. A representation which takes into account the temporal structureof the document based on hyper-complex numbers is proposed in the third part. Thisrepresentation is based on the hyper-complex numbers of dimension four named quaternions.Our experiments on a classification task have showed the effectiveness of theproposed approach compared to a conventional "bag-of-words" representation
2

Paulin, Mattis. "De l'apprentissage de représentations visuelles robustes aux invariances pour la classification et la recherche d'images". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM007/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire de thèse porte sur l’élaboration de systèmes de reconnaissance d’image qui sont robustes à la variabilité géométrique. La compréhension d’une image est un problème difficile, de par le fait qu’elles sont des projections en deux dimensions d’objets 3D. Par ailleurs, des représentations qui doivent appartenir à la même catégorie, par exemple des objets de la même classe en classification, peuvent être visuellement très différentes. Notre but est de rendre ces systèmes robustes à la juste quantité de déformations, celle-ci étant automatiquement déterminée à partir des données. Nos deux contributions sont les suivantes. Nous montrons tout d’abord comment utiliser des exemples virtuels pour rendre les systèmes de classification d’images robustes et nous proposons ensuite une méthodologie pour apprendre des descripteurs de bas niveau robustes, pour la recherche d’image.Nous étudions tout d’abord les exemples virtuels, en tant que transformations de vrais exemples. En représentant une image en tant que sac de descripteurs transformés, nous montrons que l’augmentation de données, c’est-à-dire le fait de les considérer comme de nouveaux exemples iid, est la meilleure manière de les utiliser, pourvu qu’une étape de vote avec les descripteurs transformés soit opérée lors du test. Du fait que les transformations apportent différents niveaux d’information, peuvent être redondants, voire nuire à la performance, nous pro-posons un nouvel algorithme capable de sélectionner un petit nombre d’entre elles,en maximisant la justesse de classification. Nous montrons par ailleurs comment remplacer de vrais exemples par des virtuels, pour alléger les couts d’annotation.Nous rapportons de bons résultats sur des bancs d’essai de classification.Notre seconde contribution vise à améliorer les descripteurs de régions locales utilisés en recherche d’image, et en particulier nous proposons une alternative au populaire descripteur SIFT. Nous proposons un nouveau descripteur, appelé patch-CKN, appris sans supervision. Nous introduisons un nouvel ensemble de données liant les images et les imagettes, construit à partir de reconstruction3D automatique d’images récupérées sur Internet. Nous définissons une méthode pour tester précisément la performance des descripteurs locaux au niveau de l’imagette et de l’image. Notre approche dépasse SIFT et les autres approches à base d’architectures convolutionnelles sur notre banc d’essai, et d’autres couramment utilisés dans la littérature
This dissertation focuses on designing image recognition systems which are robust to geometric variability. Image understanding is a difficult problem, as images are two-dimensional projections of 3D objects, and representations that must fall into the same category, for instance objects of the same class in classification can display significant differences. Our goal is to make systems robust to the right amount of deformations, this amount being automatically determined from data. Our contributions are twofolds. We show how to use virtual examples to enforce robustness in image classification systems and we propose a framework to learn robust low-level descriptors for image retrieval. We first focus on virtual examples, as transformation of real ones. One image generates a set of descriptors –one for each transformation– and we show that data augmentation, ie considering them all as iid samples, is the best performing method to use them, provided a voting stage with the transformed descriptors is conducted at test time. Because transformations have various levels of information, can be redundant, and can even be harmful to performance, we propose a new algorithm able to select a set of transformations, while maximizing classification accuracy. We show that a small amount of transformations is enough to considerably improve performance for this task. We also show how virtual examples can replace real ones for a reduced annotation cost. We report good performance on standard fine-grained classification datasets. In a second part, we aim at improving the local region descriptors used in image retrieval and in particular to propose an alternative to the popular SIFT descriptor. We propose new convolutional descriptors, called patch-CKN, which are learned without supervision. We introduce a linked patch- and image-retrieval dataset based on structure from motion of web-crawled images, and design a method to accurately test the performance of local descriptors at patch and image levels. Our approach outperforms both SIFT and all tested approaches with convolutional architectures on our patch and image benchmarks, as well as several styate-of-theart datasets
3

Barbano, Carlo Alberto Maria. "Collateral-Free Learning of Deep Representations : From Natural Images to Biomedical Applications". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT038.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’apprentissage profond est devenu l'un des outils prédominants pour résoudre une variété de tâches, souvent avec des performances supérieures à celles des méthodes précédentes. Les modèles d'apprentissage profond sont souvent capables d'apprendre des représentations significatives et abstraites des données sous-jacentes. Toutefois, il a été démontré qu'ils pouvaient également apprendre des caractéristiques supplémentaires, qui ne sont pas nécessairement pertinentes ou nécessaires pour la tâche souhaitée. Cela peut poser un certain nombre de problèmes, car ces informations supplémentaires peuvent contenir des biais, du bruit ou des informations sensibles qui ne devraient pas être prises en compte (comme le sexe, la race, l'âge, etc.) par le modèle. Nous appelons ces informations "collatérales". La présence d'informations collatérales se traduit par des problèmes pratiques, en particulier lorsqu'il s'agit de données d'utilisateurs privés. L'apprentissage de représentations robustes exemptes d'informations collatérales peut être utile dans divers domaines, tels que les applications médicales et les systèmes d'aide à la décision.Dans cette thèse, nous introduisons le concept d'apprentissage collatéral, qui se réfère à tous les cas où un modèle apprend plus d'informations que prévu. L'objectif de l'apprentissage collatéral est de combler le fossé entre différents domaines, tels que la robustesse, le débiaisage, la généralisation en imagerie médicale et la préservation de la vie privée. Nous proposons différentes méthodes pour obtenir des représentations robustes exemptes d'informations collatérales. Certaines de nos contributions sont basées sur des techniques de régularisation, tandis que d'autres sont représentées par de nouvelles fonctions de perte.Dans la première partie de la thèse, nous posons les bases de notre travail, en développant des techniques pour l'apprentissage de représentations robustes sur des images naturelles, en se concentrant sur les données biaisées.Plus précisément, nous nous concentrons sur l'apprentissage contrastif (CL) et nous proposons un cadre d'apprentissage métrique unifié qui nous permet à la fois d'analyser facilement les fonctions de perte existantes et d'en dériver de nouvelles.Nous proposons ici une nouvelle fonction de perte contrastive supervisée, ε-SupInfoNCE, et deux techniques de régularisation de débiaisage, EnD et FairKL, qui atteignent des performances de pointe sur un certain nombre de repères de classification et de débiaisage de vision standard.Dans la deuxième partie de la thèse, nous nous concentrons sur l'apprentissage collatéral sur les images de neuro-imagerie et de radiographie thoracique. Pour la neuro-imagerie, nous présentons une nouvelle approche d'apprentissage contrastif pour l'estimation de l'âge du cerveau. Notre approche atteint des résultats de pointe sur l'ensemble de données OpenBHB pour la régression de l'âge et montre une robustesse accrue à l'effet de site. Nous tirons également parti de cette méthode pour détecter des modèles de vieillissement cérébral malsains, ce qui donne des résultats prometteurs dans la classification d'affections cérébrales telles que les troubles cognitifs légers (MCI) et la maladie d'Alzheimer (AD). Pour les images de radiographie thoracique (CXR), nous ciblerons la classification Covid-19, en montrant comment l'apprentissage collatéral peut effectivement nuire à la fiabilité de ces modèles. Pour résoudre ce problème, nous proposons une approche d'apprentissage par transfert qui, combinée à nos techniques de régularisation, donne des résultats prometteurs sur un ensemble de données CXR multisites.Enfin, nous donnons quelques indications sur l'apprentissage collatéral et la préservation de la vie privée dans les modèles DL. Nous montrons que certaines des méthodes que nous proposons peuvent être efficaces pour empêcher que certaines informations soient apprises par le modèle, évitant ainsi une fuite potentielle de données
Deep Learning (DL) has become one of the predominant tools for solving a variety of tasks, often with superior performance compared to previous state-of-the-art methods. DL models are often able to learn meaningful and abstract representations of the underlying data. However, it has been shown that they might also learn additional features, which are not necessarily relevant or required for the desired task. This could pose a number of issues, as this additional information can contain bias, noise, or sensitive information, that should not be taken into account (e.g. gender, race, age, etc.) by the model. We refer to this information as collateral. The presence of collateral information translates into practical issues when deploying DL-based pipelines, especially if they involve private users' data. Learning robust representations that are free of collateral information can be highly relevant for a variety of fields and applications, like medical applications and decision support systems.In this thesis, we introduce the concept of Collateral Learning, which refers to all those instances in which a model learns more information than intended. The aim of Collateral Learning is to bridge the gap between different fields in DL, such as robustness, debiasing, generalization in medical imaging, and privacy preservation. We propose different methods for achieving robust representations free of collateral information. Some of our contributions are based on regularization techniques, while others are represented by novel loss functions.In the first part of the thesis, we lay the foundations of our work, by developing techniques for robust representation learning on natural images. We focus on one of the most important instances of Collateral Learning, namely biased data. Specifically, we focus on Contrastive Learning (CL), and we propose a unified metric learning framework that allows us to both easily analyze existing loss functions, and derive novel ones. Here, we propose a novel supervised contrastive loss function, ε-SupInfoNCE, and two debiasing regularization techniques, EnD and FairKL, that achieve state-of-the-art performance on a number of standard vision classification and debiasing benchmarks.In the second part of the thesis, we focus on Collateral Learning in medical imaging, specifically on neuroimaging and chest X-ray images. For neuroimaging, we present a novel contrastive learning approach for brain age estimation. Our approach achieves state-of-the-art results on the OpenBHB dataset for age regression and shows increased robustness to the site effect. We also leverage this method to detect unhealthy brain aging patterns, showing promising results in the classification of brain conditions such as Mild Cognitive Impairment (MCI) and Alzheimer's Disease (AD). For chest X-ray images (CXR), we will target Covid-19 classification, showing how Collateral Learning can effectively hinder the reliability of such models. To tackle such issue, we propose a transfer learning approach that, combined with our regularization techniques, shows promising results on an original multi-site CXRs dataset.Finally, we provide some hints about Collateral Learning and privacy preservation in DL models. We show that some of our proposed methods can be effective in preventing certain information from being learned by the model, thus avoiding potential data leakage
4

Hafidi, Hakim. "Robust machine learning for Graphs/Networks". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT004.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse aborde les progrès de l’apprentissage des représentation des nœuds d’ungraphe, en se concentrant sur les défis et les opportunités présentées par les réseaux de neuronespour graphe (GNN). Elle met en évidence l’importance des graphes dans la représentation dessystèmes complexes et la nécessité d’apprendre des représentations de nœuds qui capturent à la fois les caractéristiques des nœuds et la structure des graphes. L’ étude identifie les problèmes clés des réseaux de neurones pour graphe, tels que leur dépendance à l’ ´égard de données étiquetées de haute qualité, l’incohérence des performances dansdivers ensembles de données et la vulnérabilité auxattaques adverses.Pour relever ces défis, la thèse introduit plusieursapproches innovantes. Tout d’abord, elle utilise l’apprentissage contrastif pour la représentation des nœuds, permettant un apprentissage auto-supervisé qui réduit la dépendance aux données étiquetées.Deuxièmement, un classificateur bayésien est proposé pour la classification des nœuds, qui prenden compte la structure du graphe pour améliorer la précision. Enfin, la thèse aborde la vulnérabilité des GNN aux attaques adversariaux en évaluant la robustesse du classificateur proposé et en introduisant des mécanismes de défense efficaces. Ces contributionsvisent à améliorer à la fois la performance et la résilience des GNN dans l’apprentissage de lareprésentation des nœuds
This thesis addresses advancements in graph representation learning, focusing on the challengesand opportunities presented by Graph Neural Networks (GNNs). It highlights the significanceof graphs in representing complex systems and the necessity of learning node embeddings that capture both node features and graph structure. The study identifies key issues in GNNs, such as their dependence on high-quality labeled data, inconsistent performanceacross various datasets, and susceptibility to adversarial attacks.To tackle these challenges, the thesis introduces several innovative approaches. Firstly, it employs contrastive learning for node representation, enabling self-supervised learning that reduces reliance on labeled data. Secondly, a Bayesian-based classifier isproposed for node classification, which considers the graph’s structure to enhance accuracy. Lastly, the thesis addresses the vulnerability of GNNs to adversarialattacks by assessing the robustness of the proposed classifier and introducing effective defense mechanisms.These contributions aim to improve both the performance and resilience of GNNs in graph representation learning
5

Roussillon, Tristan. "Algorithmes d'extraction de modèles géométriques discrets pour la représentation robuste des formes". Thesis, Lyon 2, 2009. http://www.theses.fr/2009LYO20103/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse se situe à l'interface entre l'analyse d'images, dont l'objectif est la description automatique du contenu visuel, et la géométrie discrète, qui est l'un des domaines dédiés au traitement des images numériques. Pour être stocké et manipulé sur un ordinateur, un signal observé est régulièrement échantillonné. L'image numérique, qui est le résultat de ce processus d'acquisition, est donc constituée d'un ensemble fini d'éléments distincts. La géométrie discrète se propose d'étudier les propriétés géométriques d'un tel espace dépourvu de continuité. Dans ce cadre, nous avons considéré les régions homogènes et porteuses de sens d'une image, avec l'objectif de représenter leur contour au moyen de modèles géométriques ou de les décrire à l'aide de mesures. L'étendue des applications de ce travail en analyse d'images est vaste, que ce soit au cours du processus de segmentation, ou en vue de la reconnaissance d'un objet. Nous nous sommes concentrés sur trois modèles géométriques discrets définis par la discrétisation de Gauss : la partie convexe ou concave, l'arc de cercle discret et le segment de droite discrète. Nous avons élaboré des algorithmes dynamiques (mise à jour à la volée de la décision et du paramétrage), exacts (calculs en nombres entiers sans erreur d'approximation) et rapides (calculs simplifiés par l'exploitation de propriétés arithmétiques et complexité en temps linéaire) qui détectent ces modèles sur un contour. L'exécution de ces algorithmes le long d'un contour aboutit à des décompositions ou à des polygonalisations réversibles. De plus, nous avons défini des mesures de convexité, linéarité et circularité, qui vérifient un ensemble de propriétés fondamentales : elles sont robustes aux transformations rigides, elles s'appliquent à des parties de contour et leur valeur maximale est atteinte pour le modèle de forme qui sert de comparaison et uniquement sur celui-ci. Ces mesures servent à l'introduction de nouveaux modèles dotés d'un paramètre variant entre 0 et 1. Le paramètre est fixé à 1 quand on est sûr de la position du contour, mais fixé à une valeur inférieure quand le contour est susceptible d'avoir été déplacé par un bruit d'acquisition. Cette approche pragmatique permet de décomposer de manière robuste un contour en segments de droite ou en parties convexes et concaves
The work presented in this thesis concerns the fields of image analysis and discrete geometry. Image analysis aims at automatically describing the visual content of a digital image and discrete geometry provides tools devoted to digital image processing. A two-dimensional analog signal is regularly sampled in order to be handled on computers. This acquisition process results in a digital image, which is made up of a finite set of discrete elements. The topic of discrete geometry is to study the geometric properties of such kind of discrete spaces. In this work, we consider homogeneous regions of an image having a meaning for a user. The objective is to represent their digital contour by means of geometric patterns and compute measures. The scope of applications is wide in image analysis. For instance, our results would be of great interest for segmentation or object recognition. We focus on three discrete geometric patterns defined by Gauss digitization: the convex or concave part, the digital straight segment and the digital circular arc. We present several algorithms that detect or recognize these patterns on a digital contour. These algorithms are on-line, exact (integer-only computations without any approximation error) and fast (simplified computations thanks to arithmetic properties and linear-time complexity). They provide a way for segmenting a digital contour or for representing a digital contour by a reversible polygon. Moreover, we define a measure of convexity, a measure of straightness and a measure of circularity. These measures fulfil the following important properties: they are robust to rigid transformations, they may be applied on any part of a digital contour, they reach their maximal value for the template with which the data are compared to. From these measures, we introduce new patterns having a parameter that ranges from 0 to 1. The parameter is set to 1 when the localisation of the digital contour is reliable, but is set to a lower value when the digital contour is expected to have been shifted because of some acquisition noise. This measure-based approach provides a way for robustly decomposing a digital contour into convex, concave or straight parts
6

El, jili Fatimetou. "Représentation de signaux robuste aux bruits - Application à la détection et l'identification des signaux d'alarme". Thesis, Reims, 2018. http://www.theses.fr/2018REIMS040/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces travaux ont pour application la détection l'identification des signaux audio et particulièrement les signaux d'alarmes de voitures prioritaires. Dans un premier temps, nous proposons une méthode de détection des signaux d'alarme dans un environnement bruité, fondée sur des techniques d'analyse temps-fréquence des signaux. Cette méthode permet de détecter et d'identifier des signaux d'alarmes noyés dans du bruit, y compris pour des rapports signal à bruit négatifs. Puis nous proposons une quantification des signaux robuste aux bruits de transmission. Il s'agit de remplacer chaque niveau de bit d'un vecteur d'échantillons temporels ou fréquentiels par un mot binaire de même longueur fourni par un codeur correcteur d'erreur. Dans une première approche, chaque niveau de bits est quantifié indépendamment des autres selon le critère de minimisation de la distance de Hamming. Dans une seconde approche, pour réduire l'erreur de quantification à robustesse égale, les différents niveaux de bits sont quantifiés successivement selon un algorithme de type matching pursuit. Cette quantification donne aux signaux une forme spécifique permettant par la suite de les reconnaitre facilement parmi d'autres signaux. Nous proposons donc enfin deux méthodes de détection et d'identification des signaux fondées sur la quantification robuste, opérant dans le domaine temporel ou dans le domaine fréquentiel, par minimisation de la distance entre les signaux reçus restreints à leurs bits de poids fort et les signaux de référence. Ces méthodes permettent de détecter et d'identifier les signaux dans des environnements à rapport signal à bruit très faible et ceci grâce à la quantification. Par ailleurs, la première méthode, fondée sur la signature temps-fréquence, s'avère plus performante avec les signaux quantifiés
This work targets the detection and identification of audio signals and in particular alarm signals from priority cars. First, we propose a method for detecting alarm signals in a noisy environment, based on time-frequency signal analysis. This method makes it possible to detect and identify alarm signals embedded in noise, even with negative signal-to-noise ratios. Then we propose a signal quantization robust against transmission noise. This involves replacing each bit level of a vector of time or frequency samples with a binary word of the same length provided by an error- correcting encoder. In a first approach, each bit level is quantized independently of the others according to the Hamming distance minimization criterion. In a second approach, to reduce the quantization error at equal robustness, the different bit levels are quantized successively by a matching pursuit algorithm. This quantization gives the signals a specific shape that allows them to be easily recognized among other signals. Finally, we propose two methods for detecting and identifying signals based on robust quantization, operating in the time domain or in the frequency domain, by minimizing the distance between the received signals restricted to their high-weight bits and the reference signals. These methods make it possible to detect and identify signals in environments with very low signal-to-noise ratios, thanks to quantization. In addition, the first method, based on the time-frequency signature, is more efficient with quantized signals
7

Boimond, Jean-Louis. "Commande à modèle interne en représentation d'état. : Problèmes de synthèse d'algorithme de commande". Lyon, INSA, 1990. http://www.theses.fr/1990ISAL0102.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés dans ce mémoire portent sur l'étude de la commande à modèle interne (C. M. I. ). Le premier chapitre présente les principales propriétés de cette structure qui allie les avantages de la commande en boucle ouverte (correcteur proche de l'inverse du modèle) et de la boucle fermée (prise en compte des erreurs de modélisation et des perturbations extérieures). Une rapide comparaison est faite avec la commande en boucle fermée. Dans le second chapitre, un critère de précision asymptotique est introduit. Les conditions que doivent vérifier les différents blocs de la C. M. I. Pour annuler l'erreur asymptotique entre la sortie du procédé et la consigne, lorsque celle-ci est polynomiale d'ordre donne, sont établies. Le correcteur est interprété comme un inverse approche du modèle. En temps discret, l'utilisation de formes R. I. F. (réponse impulsionnelle finie) permet la synthèse d'un correcteur stable et réalisable. Le chapitre trois traite le problème de l'inversion du modèle en temps discret et dans l'espace d'état, ce qui permet de considérer certaines classes de modèles linéaires à paramètres variables, ou non-linéaires en l'état, linéaires en la commande. Le correcteur est décomposé en deux parties: l'une calcule la commande en fonction de l'état du modèle et de l'objectif visé, l'autre prédit la consigne. La précision asymptotique est assurée pour des consignes polynomiales d'ordre donne. Le dernier chapitre présente la synthèse d'une C. M. I. Basée sur l'utilisation du correcteur précédent. Le filtre de robustesse devient un prédicteur d'écart dont la dynamique est ajustée en fonction de la connaissance de la désadaptation modèle-procédé. Deux approches de synthèse du filtre sont proposées. L'une est identique à celle utilisée pour le predicteur de consigne. Dans l'autre, on remplace la notion habituelle de filtrage par une mesure de la qualité de la prédiction
[The works presented in this thesis concern the Internal Model Control (I. M. C. ). The first part presents the main properties of this structure which combines the advantages of open-loop scheme (the controller is an approximate inverse of the model) and closed-loop structure (ability to cope with modelling errors and unmeasured disturbances). A comparison with the conventional closed-loop is briefly presented. In the second part, an asymptotic precision criterion is introduced; The conditions that are to be verified by the blocks of the I. M. C. , for zeroing the asymptotic error between the output and a polynomial input, are settled down. The controller is interpreted as an approximate inverse of the model. In discrete time, the use of F. I. R. (Finite Impulse Response) forms permits the synthesis of a stable and realisable controller. The third part deals with the problem of the model inversion in discrete time and in state space. It allows us to consider some vary linear or non-linear models, which are linear versus the control variable. The controller is decomposed in two parts: the first one generates the control variable in terms of model state and the reference objective, the second one generates the prediction of the reference signal. Asymptotic accuracy is guaranteed for reference inputs that are polynomial, with a given order, versus time. The last part presents the synthesis of an I. M. C. Based on the use of the above controller. The robustness filter becomes a predictor of the error between plant and model outputs, the dynamic of which is tuned according to the knowledge of the plant-model mismatch. Two approaches have been proposed to built in this filter. The first one uses the same technique as for the reference predictor. In the other, the usual notion of filtering is replaced by a measure of the prediction quality. ]
8

Oneata, Dan. "Modèles robustes et efficaces pour la reconnaissance d'action et leur localisation". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM019/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Vidéo d'interprétation et de compréhension est l'un des objectifs de recherche à long terme dans la vision par ordinateur. Vidéos réalistes tels que les films présentent une variété de problèmes difficiles d'apprentissage machine, telles que la classification d'action / récupération d'action, de suivi humaines, la classification interaction homme / objet, etc Récemment robustes descripteurs visuels pour la classification vidéo ont été développés, et ont montré qu'il est possible d'apprendre classificateurs visuels réalistes des paramètres difficile. Toutefois, afin de déployer des systèmes de reconnaissance visuelle à grande échelle dans la pratique, il devient important d'aborder l'évolutivité des techniques. L'objectif principal est cette thèse est de développer des méthodes évolutives pour l'analyse de contenu vidéo (par exemple pour le classement ou la classification)
Video interpretation and understanding is one of the long-term research goals in computer vision. Realistic videos such as movies present a variety of challenging machine learning problems, such as action classification/action retrieval, human tracking, human/object interaction classification, etc. Recently robust visual descriptors for video classification have been developed, and have shown that it is possible to learn visual classifiers in realistic difficult settings. However, in order to deploy visual recognition systems on large-scale in practice it becomes important to address the scalability of the techniques. The main goal is this thesis is to develop scalable methods for video content analysis (eg for ranking, or classification)
9

Tran, Thi Quynh Nhi. "Robust and comprehensive joint image-text representations". Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1096/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La présente thèse étudie la modélisation conjointe des contenus visuels et textuels extraits à partir des documents multimédias pour résoudre les problèmes intermodaux. Ces tâches exigent la capacité de ``traduire'' l'information d'une modalité vers une autre. Un espace de représentation commun, par exemple obtenu par l'Analyse Canonique des Corrélation ou son extension kernelisée est une solution généralement adoptée. Sur cet espace, images et texte peuvent être représentés par des vecteurs de même type sur lesquels la comparaison intermodale peut se faire directement.Néanmoins, un tel espace commun souffre de plusieurs déficiences qui peuvent diminuer la performance des ces tâches. Le premier défaut concerne des informations qui sont mal représentées sur cet espace pourtant très importantes dans le contexte de la recherche intermodale. Le deuxième défaut porte sur la séparation entre les modalités sur l'espace commun, ce qui conduit à une limite de qualité de traduction entre modalités. Pour faire face au premier défaut concernant les données mal représentées, nous avons proposé un modèle qui identifie tout d'abord ces informations et puis les combine avec des données relativement bien représentées sur l'espace commun. Les évaluations sur la tâche d'illustration de texte montrent que la prise en compte de ces information fortement améliore les résultats de la recherche intermodale. La contribution majeure de la thèse se concentre sur la séparation entre les modalités sur l'espace commun pour améliorer la performance des tâches intermodales. Nous proposons deux méthodes de représentation pour les documents bi-modaux ou uni-modaux qui regroupent à la fois des informations visuelles et textuelles projetées sur l'espace commun. Pour les documents uni-modaux, nous suggérons un processus de complétion basé sur un ensemble de données auxiliaires pour trouver les informations correspondantes dans la modalité absente. Ces informations complémentaires sont ensuite utilisées pour construire une représentation bi-modale finale pour un document uni-modal. Nos approches permettent d'obtenir des résultats de l'état de l'art pour la recherche intermodale ou la classification bi-modale et intermodale
This thesis investigates the joint modeling of visual and textual content of multimedia documents to address cross-modal problems. Such tasks require the ability to match information across modalities. A common representation space, obtained by eg Kernel Canonical Correlation Analysis, on which images and text can be both represented and directly compared is a generally adopted solution.Nevertheless, such a joint space still suffers from several deficiencies that may hinder the performance of cross-modal tasks. An important contribution of this thesis is therefore to identify two major limitations of such a space. The first limitation concerns information that is poorly represented on the common space yet very significant for a retrieval task. The second limitation consists in a separation between modalities on the common space, which leads to coarse cross-modal matching. To deal with the first limitation concerning poorly-represented data, we put forward a model which first identifies such information and then finds ways to combine it with data that is relatively well-represented on the joint space. Evaluations on emph{text illustration} tasks show that by appropriately identifying and taking such information into account, the results of cross-modal retrieval can be strongly improved. The major work in this thesis aims to cope with the separation between modalities on the joint space to enhance the performance of cross-modal tasks.We propose two representation methods for bi-modal or uni-modal documents that aggregate information from both the visual and textual modalities projected on the joint space. Specifically, for uni-modal documents we suggest a completion process relying on an auxiliary dataset to find the corresponding information in the absent modality and then use such information to build a final bi-modal representation for a uni-modal document. Evaluations show that our approaches achieve state-of-the-art results on several standard and challenging datasets for cross-modal retrieval or bi-modal and cross-modal classification
10

Siméoni, Oriane. "Robust image representation for classification, retrieval and object discovery". Thesis, Rennes 1, 2020. https://ged.univ-rennes1.fr/nuxeo/site/esupversions/415eb65b-d5f7-4be7-85e6-c2ecb2aba4dc.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réseaux de neurones convolutifs (CNNs) ont été exploités avec succès pour la résolution de tâches dans le domaine de la vision par ordinateur tels que la classification, la segmentation d'image, la détection d'objets dans une image ou la recherche d'images dans une base de données. Typiquement, un réseau est entraîné spécifiquement pour une tâche et l'entraînement nécessite une très grande quantité d'images annotées. Dans cette thèse, nous proposons des solutions pour extraire le maximum d'information avec un minimum de supervision. D'abord, nous nous concentrons sur la tâche de classification en examinant le processus d'apprentissage actif dans le contexte de l'apprentissage profond. Nous montrons qu'en combinant l'apprentissage actif aux techniques d'apprentissage semi-supervisé et non supervisé, il est possible d'améliorer significativement les résultats. Ensuite, nous étudions la tâche de recherche d'images dans une base de données et nous exploitons les informations de localisation spatiale disponible directement dans les cartes d'activation produites par les CNNs. En première approche, nous proposons de représenter une image par une collection de caractéristiques locales, détectées dans les cartes, qui sont peu coûteuses en terme de mémoire et assez robustes pour effectuer une mise en correspondance spatiale. Alternativement, nous découvrons dans les cartes d'activation les objets d'intérêts des images d'une base de données et nous structurons leurs représentations dans un graphe de plus proches voisins. En utilisant la mesure de centralité du graphe, nous sommes capable de construire une carte de saillance, par image, qui met en lumière les objets qui se répètent et nous permet de construire une représentation globale qui exclue les objets non pertinents et d'arrière-plan
Neural network representations proved to be relevant for many computer vision tasks such as image classification, object detection, segmentation or instance-level image retrieval. A network is trained for one particular task and requires a large number of labeled data. We propose in this thesis solutions to extract the most information with the least supervision. First focusing on the classification task, we examine the active learning process in the context of deep learning and show that combining it to semi-supervised and unsupervised techniques boost greatly results. We then investigate the image retrieval task, and in particular we exploit the spatial localization information available ``for free'' in CNN feature maps. We first propose to represent an image by a collection of affine local features detected within activation maps, which are memory-efficient and robust enough to perform spatial matching. Then again extracting information from feature maps, we discover objects of interest in images of a dataset and gather their representations in a nearest neighbor graph. Using the centrality measure on the graph, we are able to construct a saliency map per image which focuses on the repeating objects and allows us to compute a global representation excluding clutter and background

Vai alla bibliografia