Academic literature on the topic 'Classification large-échelle'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Classification large-échelle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Classification large-échelle"

1

Postadjian, Tristan, Arnaud Le Bris, Hichem Sahbi, and Clément Mallet. "Classification à très large échelle d'images satellites à très haute résolution spatiale par réseaux de neurones convolutifs." Revue Française de Photogrammétrie et de Télédétection, no. 217-218 (September 21, 2018): 73–86. http://dx.doi.org/10.52638/rfpt.2018.418.

Full text
Abstract:
Les algorithmes de classification constituent un outil essentiel pour le calcul de cartes d'occupation des sols. Les récents progrès en apprentissage automatique ont montré les très grandes performances des réseaux de neurones convolutifs pour de nombreuses applications, y compris la classification d'images aériennes et satellites. Ce travail établit une stratégie quant à l'utilisation d'un réseau de neurone convolutif pour la classification d'images satellites à très haute résolution spatiale, couvrant de très larges régions géographiques, avec pour perspective future le calcul de cartes d'occupation des sols à l'échelle d'un pays.
APA, Harvard, Vancouver, ISO, and other styles
2

Milward, David. "Sweating it Out: Facilitating Corrections and Parole in Canada Through Aboriginal Spiritual Healing." Windsor Yearbook of Access to Justice 29 (February 1, 2011): 27. http://dx.doi.org/10.22329/wyaj.v29i0.4479.

Full text
Abstract:
Aboriginal peoples continue to be subjected to drastic over-incarceration. Much of the existing literature explores contemporary adaptations of Aboriginal justice traditions that resemble restorative justice as a solution. There is by comparison a lack of literature that considers searching for solutions during the correctional phase of the justice system, after Aboriginal persons have already been convicted and imprisoned. The objective of this paper is to explore a number of reforms in order to better facilitate rehabilitation, reintegration, and parole for Aboriginal inmates. One is to invest greater resources into culturally sensitive programming that emphasizes spiritual healing for Aboriginal inmates. This is premised on the theme of “spend now, save later” with the idea that increasing the chances for Aboriginal re-integration may represent the better long term investment than simply warehousing large numbers of Aboriginal inmates year after year. Another problem is that many Aboriginal inmates are classified as higher security risks, which results in them being cut off from needed programming. The suggestion here is that criminal history as a static factor for determining security classifications may have little predictive value for the actual security risk posed by Aboriginal inmates, and therefore should be de-emphasized. Correctional Services of Canada should seriously consider developing an Aboriginal-specific classification scale that de-emphasizes criminal history, and emphasizes instead offender participation in culturally appropriate programs and spiritual healing, and behavioural progress while in prison. Risk assessment to re-offend for purposes of granting parole may also represent a form of systemic discrimination since criminal history represents a static factor that encumbers parole for many Aboriginal inmates. Risk assessment should instead emphasize dynamic risk factors by assessing Aboriginal participation in culturally appropriate programming, and attendant behaviourial progress while in prison. The difficult issue of Aboriginal gang activity can perhaps be dealt with through a more flexible system of risk assessment that gauges a willingness to reform and dissociate from the gang lifestyle rather than require Aboriginal inmates to endure nearly permanent penalties for past involvement. Finally, the paper will suggest that it is possible to overcome the political obstacles to implementing these reforms and obtain a political mandate to pursue them after the public is made aware of the benefits they offer.On continue à infliger des peines d’emprisonnement beaucoup trop sévères aux autochtones. Une grande partie des documents existants examinent des adaptations contemporaines des traditions autochtones en matière de justice qui proposent une forme de justice réparatrice comme solution. Par contre, trop peu de documents examinent la possibilité de rechercher des solutions pendant la phase correctionnelle du système de justice, après que les autochtones ont été reconnus coupables et incarcérés. Cet article examine un certain nombre de réformes en vue de faciliter la réhabilitation et la réintégration des détenus autochtones et leur libération conditionnelle. Nous devons en premier lieu consacrer davantage de ressources aux programmes qui tiennent compte des spécificités culturelles et mettent l’accent sur la guérison spirituelle des détenus autochtones. Cette approche repose sur le principe « dépenser maintenant – épargner plus tard » et sur l’idée selon laquelle accroître les chances de réintégration des autochtones représente peut-être un meilleur investissement à long terme qu’incarcérer ceux-ci en grand nombre année après année. Par ailleurs, le fait qu’un bon nombre d’autochtones soient considérés comme représentant un risque élevé pour la sécurité et ne puissent pour cette raison bénéficier des programmes dont ils ont besoin suscite une autre difficulté. Dans cet article, l’auteur avance que s’appuyer sur les antécédents criminels comme facteur statique pour déterminer les classifications de sécurité a peut-être peu de valeur prédictive en ce qui concerne le risque réel de sécurité posé par les détenus autochtones et, par conséquent, qu’on ne devrait plus leur accorder la priorité. Les Services correctionnels du Canada devraient envisager sérieusement de mettre au point une échelle de classification propre aux autochtones qui n’accorde plus la priorité aux antécédents judiciaires et met plutôt l’accent sur la participation du contrevenant à des programmes culturellement adéquats, sur la guérison spirituelle et sur les progrès comportementaux des autochtones pendant leur incarcération. L’évaluation du risque de récidive avant que ne soit accordée la libération conditionnelle peut également représenter une forme de discrimination systémique puisque les antécédents criminels représentent un facteur statique qui empêche de nombreux autochtones d’obtenir une libération conditionnelle. L’évaluation du risque devrait plutôt mettre l’accent sur les facteurs de risque dynamiques en tenant compte de la participation des autochtones à des programmes culturellement adéquats et des progrès comportementaux découlant de cette participation aux programmes pendant l’incarcération. La délicate question des activités de bandes criminelles autochtones pourrait être abordée dans le cadre d’un système plus souple d’évaluation du risque qui tient compte de la volonté de se réformer et de se dissocier du style de vie des gangs au lieu d’exiger que les détenus autochtones subissent des pénalités somme toute permanentes pour leur implication antérieure. Finalement, l’auteur laisse entendre qu’il est possible de surmonter les obstacles politiques à la mise en oeuvre de ces réformes et d’obtenir un mandat politique afin de donner suite à ces réformes une fois que le public aura été informé des avantages qu’elles offrent.
APA, Harvard, Vancouver, ISO, and other styles
3

Jassionnesse, Christophe. "Réflexions sur la stabilité en section courante des tunnels profonds." Revue Française de Géotechnique, no. 176 (2023): 4. http://dx.doi.org/10.1051/geotech/2024001.

Full text
Abstract:
Le présent article traite de la stabilité en section courante circulaire des tunnels profonds. Le massif rocheux étant vu comme un Milieu continu Équivalent, le critère de résistance est le critère de Hoek et Brown généralisé, avec palier de résistance résiduelle. En s’attachant au cas des tunnels profonds, l’introduction de la gravité dans l’équation d’équilibre conduit à rechercher l’existence d’une pression intérieure d’équilibre. L’existence d’une pression de soutènement minimale s’avère un indicateur pertinent du comportement à l’excavation de type « terrain boulant » (severe caving), se traduisant par une instabilité générale de la section non soutenue, tel que défini dans les classifications géomécaniques les plus récentes. Une large étude de variation des paramètres de base du critère de résistance – résistance à la compression et indice de fragilité de la roche, densité et état des discontinuités par le biais du Geological Strength Index –, de la géométrie et de la contrainte in situ supposée isotrope, permet d’identifier la dépendance de cet indicateur aux conditions géologiques. Sur la base de quelques études de cas, il apparaît que les conditions géologiques d’un comportement de type « terrain boulant » correspondent à celles d’un massif de roche tendre, relativement ductile ou fortement altéré et fracturé. Comme ces conditions ne diffèrent pas nettement de celles du « terrain poussant » (squeezing) se traduisant par de fortes convergences, ces deux types de comportement pourraient être les deux degrés d’une même échelle.
APA, Harvard, Vancouver, ISO, and other styles
4

Videau, Manon, Maxime Thibault, Denis Lebel, Suzanne Atkinson, and Jean-François Bussières. "Surveillance des substances contrôlées en établissements de santé : une contribution à la gestion de la crise des opioïdes au Canada." Canadian Journal of Hospital Pharmacy 73, no. 2 (April 28, 2020). http://dx.doi.org/10.4212/cjhp.v73i2.2977.

Full text
Abstract:
RÉSUMÉContexte : La consommation des substances contrôlées et plus particulièrement des opioïdes est un enjeu de santé publique. Le Canada se situe au deuxième rang des plus gros consommateurs d’opioïdes dans le monde. L’utilisation de ces substances est associée à des problèmes de mésusage. À preuve, une crise des opioïdes sévit en Amérique du Nord.Objectifs : Décrire et analyser les tendances de consommation des substances contrôlées au sein d’un établissement de santé de 2003-2004 à 2017-2018. Proposer un outil de surveillance de la consommation des substances contrôlées dans un établissement de santé.Methodologie : Étude descriptive rétrospective. À partir du logiciel de gestion des approvisionnements, nous avons extrait les données de consommation de toutes les substances contrôlées du 1er avril 2003 au 31 mars 2018. Les données ont été exprimées selon l’index de la classification Anatomical Therapeutic Chemical en nombre de dosesdéfinies journalières (DDJ) pour 1000 jours-présence avec les valeurs de DDJ proposées par l’Organisation mondiale de la santé. Seules des statistiques descriptives ont été effectuées.Resultats : Durant les 15 dernières années, la consommation des substances contrôlées a diminué de 43 % au sein de notre établissement (min. : 739; max. : 1292 DDJ/1000 jours-présence par année). De 2003- 2004 à 2017-2018, les principales classes thérapeutiques consommées par ordre décroissant étaient : opioïdes, hypnotiques et sédatifs, anxiolytiques et anesthésiques généraux. Les principales molécules opioïdes consommées en 2017-2018 sont l’hydromorphone et la morphine injectable.Conclusions : Cette étude descriptive rétrospective montre une diminution de la consommation des substances contrôlées au sein de notre établissement de 2003-2004 à 2017-2018. Elle démontre la faisabilité de développer un outil de surveillance de la consommation des substances contrôlées en établissement de santé. Une telle approche pourrait être implantée à large échelle afin de favoriser les comparaisons entre les établissements. ABSTRACTBackground: The use of controlled substances, especially opioids, is a public health concern. Canada is the country with the second greatest opioid use in the world. The use of these substances is associated with problems of misuse, as evidenced by North America’s opioid crisis.Objectives: To describe and analyze usage patterns for controlled substances in a health care facility from 2003/04 to 2017/18, and to propose a tool for monitoring the use of controlled substances in this setting.Method: In this retrospective descriptive study, usage data for all controlled substances were extracted from the institution’s supply management software for the period April 1, 2003, to March 31, 2018. The data are presented according to the Anatomical Therapeutic Chemical classification in terms of number of Defined Daily Doses(DDD) per 1000 inpatient-days, using the DDD values proposed by the World Health Organization. Only descriptive statistics were determined.Results:During the last 15 years, use of controlled substances at the study facility dropped by 43% (min. 739 and max. 1292 DDD/1000 inpatient-days per year). From 2003/04 to 2017/18, the main therapeutic classes consumed (in decreasing order) were opioids, hypnotics and sedatives, anxiolytics, and general anesthetics. The main opioid molecules consumed in 2017/18 were hydromorphone and injectable morphine.Conclusions: This retrospective descriptive study showed a decrease in the consumption of controlled substances in the study facility from 2003/04 to 2017/18. It also demonstrated the feasibility of developing a tool for monitoring the use of controlled substances in a health care facility. This approach could be implemented at a larger scale to foster comparisons between facilities.
APA, Harvard, Vancouver, ISO, and other styles
5

Lau, Louise, Harkaryn Bagri, Michael Legal, and Karen Dahri. "Comparison of Clinical Importance of Drug Interactions Identified by Hospital Pharmacists and a Local Clinical Decision Support System." Canadian Journal of Hospital Pharmacy 74, no. 3 (July 5, 2021). http://dx.doi.org/10.4212/cjhp.v74i3.3147.

Full text
Abstract:
Background: Drug–drug interactions (DDIs) may cause adverse drug events, potentially leading to hospital admission. Clinical decision support systems (CDSSs) can improve decision-making by clinicians as well as drug safety. However, previous research has suggested that pharmacists are concerned about discrepancies between CDSSs and common clinical practice in terms of severity ratings and recommended actions for DDIs. Objectives: The primary objective was to characterize the level of agreement in terms of DDI severity ranking and actions recommended between the local CDSS and pharmacists. The secondary objectives were to determine the level of agreement among pharmacists concerning DDI severity, to determine the influence of the CDSS on clinicians’ decision-making, and to review the literature supporting the severity rankings of DDIs identified in the study institution’s database. Methods: This 2-part survey study involved pharmacists and pharmacy residents working at 1 of 4 health organizations within the Lower Mainland Pharmacy Services, British Columbia, who were invited to participate by email. Participants were first asked to rank the severity of 15 drug pairs (representing potential DDIs) on a 5-point Likert scale and to select an action to manage each interaction. Participants were then given the CDSS severity classification for the same 15 pairs and again asked to select an appropriate management action. Results: Of the estimated 500 eligible pharmacists, a total of 73 pharmacists participated, for a response rate of about 15%. For DDIs of moderate severity, most participants chose to monitor. For severe and contraindicated interactions, the severity ranking and action proposed by participants varied, despite the same severity classification by the CDSS. There was poor agreement among respondents about the severity of the various DDIs. Moreover, knowledge of the CDSS severity ranking did not seem to change the actions proposed by most respondents. Conclusion: This study identified a gap between the local CDSS and clinical practice. There were discrepancies in terms of severity rankings and actions proposed to manage DDIs, particularly for severe and contraindicated DDIs. The current CDSS did not appear to have a large impact on clinical decision-making, which suggests that it may not be functioning to its full potential. RÉSUMÉ Contexte : Les interactions médicamenteuses (IM) peuvent provoquer des réactions indésirables et entraîner potentiellement une admission à l’hôpital. Les systèmes d’aide à la décision clinique (SADC) peuvent améliorer le processus de prise de décision des cliniciens ainsi que la sécurité de l’usage des médicaments. Cependant, des recherches antérieures mentionnent que les divergences entre les SADC et la pratique clinique courante de l’évaluation de la gravité des IM ainsi que les mesures recommandées préoccupent les pharmaciens. Objectifs : L’objectif principal consistait à caractériser le degré de concordance entre les SADC locaux et les décisions des pharmaciens en termes d’évaluation du degré de gravité des IM ainsi que des mesures recommandées. Les objectifs secondaires visaient quant à eux à déterminer le degré de concordance entre l’évaluation du degré de gravité de l’IM par les pharmaciens, à définir l’influence des SADC sur le processus de prise de décision des cliniciens et à examiner la documentation appuyant les critères d’évaluation de la gravité d’une IM, déterminés dans la base de données de l’institution où s’est déroulée l’étude. Méthodes : Cette étude en deux volets, menée au moyen d’un sondage par courriel, impliquait les pharmaciens et les résidents en pharmacie travaillant dans l’un des quatre organismes de santé des Lower Mainland Pharmacy Services en Colombie-Britannique. On a tout d’abord demandé aux participants d’évaluer le degré de gravité de 15 paires de médicaments (représentant des IM potentielles) sur une échelle de Likert à 5 points et de choisir une mesure visant à gérer chaque interaction. Les participants ont ensuite reçu l’évaluation par les SADC de la gravité des mêmes 15 paires; on leur a ensuite demandé de choisir une mesure de gestion appropriée. Résultats : Sur une estimation de 500 pharmaciens admissibles, 73 ont participé à l’étude et le taux de réponse s’est établi à 15 %. Concernant les IM dont le degré de gravité est modéré, la plupart des participants ont choisi la surveillance. L’évaluation du degré de gravité et les mesures proposées par les participants variaient lorsqu’il s’agissait d’interactions contre-indiquées et graves, et cela malgré une évaluation identique du degré de gravité par les SADC. On a relevé une mauvaise concordance entre les répondants quant à la gravité des diverses IM. De plus, la prise de connaissance par les répondants de l’évaluation du degré de gravité faite par les SADC ne semblait pas modifier les mesures proposées par la plupart d’entre eux. Conclusion : Cette étude a mis en évidence un fossé entre les SADC locaux et la pratique clinique. On y a relevé des divergences entre l’évaluation du degré de gravité des IM et les mesures proposées pour les gérer, en particulier lorsque les IM sont graves et contre-indiquées. Le SADC utilisé couramment ne semble pas avoir d’impact important sur le processus de décision clinique, ce qui laisse supposer qu’il pourrait ne pas fonctionner au maximum de son potentiel.
APA, Harvard, Vancouver, ISO, and other styles
6

Moussaoui, Abderrahmane. "Violence." Anthropen, 2019. http://dx.doi.org/10.17184/eac.anthropen.123.

Full text
Abstract:
Le terme violence qualifie un certain nombre de manifestations allant de l’altercation verbale jusqu’aux destructions de masse, en passant par l’agression physique, le viol, le meurtre, la torture, les mutilations, etc. Infligées ou subies, discontinues ou constantes, localisées ou endémiques, accidentelles ou motivées, ces expressions de la violence se compliquent encore par leur caractère tantôt privé, tantôt public, assumé et revendiqué ou dissimulé et renié. La violence est si protéiforme qu’elle ne cesse de voir les discriminants de sa catégorisation et les grilles de classification se démultiplier. Le critère est tantôt spatial (violence urbaine), tantôt social (violence conjugale, ouvrière), tantôt politique (répression, coercition, guerre, assassinat politique, terrorisme), économique (exploitation, injustice), sexuel (viol, maltraitance), ou encore psychologique (automutilations et autres actes pervers). Englober toutes ces manifestations dans une même perspective relève de la gageure (Michaud 2004 ; Crettiez 2008). Comment approcher pareils phénomènes aux formes et motivations aussi diversifiées selon les mêmes grilles théorico-méthodologiques? D’autant plus qu’à ces expressions physiques de la violence s’ajoutent toutes celles qui relèvent de la « violence symbolique ». Consentie (plus que subie), cette violence impose un certain ordre dans les manières d'être. Elle englobe tous les dispositifs dont usent les dominants pour que les dominés intériorisent et acceptent leur statut et leur état de dominés (Bourdieu & Wacquant 1992). Elle participe de cette violence structurelle inhérente à tout pouvoir, qu’il soit celui du pater familias ou du chef élu ou imposé. Elle peut être liée à la forme même de l'organisation sociale à laquelle on adhère et qu’elle tend à malmener. Le politiste norvégien Johan Galtung (1969) est sans doute le premier à l’évoquer, faisant remarquer que dans cette forme de violence il n’y a pas de lien évident et apparent entre les sujets. Inscrite dans des structures sociales, cette violence est plus insidieuse mais non moins destructrice. Outre ces violences dévastatrices du lien, l’anthropologie a mis en évidence un autre genre de violences, celles destinées précisément à instaurer le lien, à le suturer ou à le raffermir. Ces violences fondatrices qui ponctuent les rites de passage (tatouages, circoncisions, excisions, scarifications et autres marquages corporels), souvent violentes et non exemptes de douleur, ont pour finalité d’agréger les individus à des communautés. Initiatique, cette violence qui laisse une marque distinctive (du rang, du sexe, etc.), n’est jamais perçue comme telle par ceux qui l’adoptent (Bodiou et Briand 2015). Malgré la variété de ses expressions et de ses modes d’effectuation, l’acte de violence demeure aisément identifiable. En revanche, il en est tout autrement quand il s’agit de définir ce qu’est la violence. Tous les dictionnaires la mettent en rapport avec l’exercice d’une force brutale ou excessive en vue de soumettre, contraindre ou obtenir quelque chose. Pour la majorité des approches, la violence a été longtemps conçue comme un « usage délibéré de la force pour blesser ou détruire physiquement » (Gurr, 1970). Au milieu des années 1990, la définition de l’OMS en élargit l’acception. Se voulant exhaustive, elle intègre à la fois les actes individuels et communautaires, commis contre autrui ou auto-infligés; qu’ils soient interpersonnels ou collectifs. Elle couvre tout aussi bien les actes de violence que les menaces et intimidations de tous ordres, induisant des atteintes physiques, psychologiques, ou affectives. Toutefois, cette définition demeure encore fortement associée aux violences physiques et n'évoque pas clairement et suffisamment les violences psychologiques et morales découlant d’actes verbaux, d'attitudes et autres conduites symboliques. Plus largement, F. Héritier (1996 : 17) appelle « violence toute contrainte de nature physique ou psychique susceptible d'entraîner la terreur, le déplacement, le malheur, la souffrance ou la mort d'un être animé; tout acte d'intrusion qui a pour effet volontaire ou involontaire la dépossession d'autrui, le dommage ou la destruction d'objets inanimés (…) ». Complète et exhaustive, cette définition souligne, une fois encore, la difficulté à parler de la violence de manière générale. La violence est une force dont l’exercice s’inscrit immanquablement dans le cadre de normes partagées. Ce sont de telles normes qui caractérisent, in fine, ce qui relève ou non de la violence. Celle-ci est justement le plus souvent un dépassement de la règle ou de la norme admise, une démesure. Elle est ce qui remet en cause l’existence de ce qu’Hanna Arendt (1989 : 283) appelle « un monde commun ». Yves Michaud (1978 : 101) le dit avec ses mots : la violence « tient plus à la dissolution des règles qui unifient le regard social qu’à la réalité qu’elle peut avoir ». À ce titre, la manifestation de la violence est l’indice d’une rupture de consensus, dont la finalité est de contraindre et de faire mal, de manière volontaire et apparemment gratuite. Elle est tantôt une infraction, tantôt un outrage. Chaque société désigne ce qu’elle considère comme violent en tentant de le réduire par l’éthique, la culture, le droit, la contrainte et en lui opposant… de la violence. Ce sont les logiques qui président à ces choix que l’anthropologue ne cesse de pointer dans leur singularité pour tenter de comprendre le phénomène dans son universalité. Même si le catalogue des actes de violence semble infini, et l’imagination des bourreaux individuels et collectifs incommensurablement fertiles, il n’en demeure pas moins que cette violence s’exerce toujours ou du moins le plus souvent selon des logiques inscrites dans un contexte historico-culturel. La « violence » est enchâssée dans une matrice éthique et obéit à une échelle de valeurs qui rend sa perception et, partant, sa signification variables selon les normes de référence en usage. Polymorphe, elle est également et nécessairement polysémique; et sa perception culturellement et sociohistoriquement déterminée. Des châtiments tolérés naguère (sectionner la langue des blasphémateurs, noyer des femmes adultères), sont décriés par des sociétés contemporaines pratiquant d’autres formes de violence (chaise électrique ou injection létale), estimées moins cruelles à leurs yeux. Ce sont en général les actes et conduites jugés illégitimes qui sont qualifiés de violents; tous ceux, tout aussi violents, mais exercés au nom d’une règle partagée ou par un pouvoir considéré comme légitime, ne sont pas tenus pour de la violence; ils sont perçus comme une coercition, une contrainte. Que ce soit pour Hobbes (2000) ou Weber (1959), l’usage légitime de la violence prévient la violence. Dès lors, il n’est plus de la violence. Loin d’être un phénomène débridé, la violence est souvent un outil savamment orchestré destiné à faire obéir ou à punir. Qu’elle soit privée ou publique, la violence est toujours inscrite dans une matrice symbolique qui structure ses modes d’effectuation et lui donne sens aux yeux de ses protagonistes. Ainsi devient-elle légitime pour son auteur; et parfois même pour celui qui la subit, la vivant comme une fatalité ou se considérant comme victime expiatoire. Ainsi, est-elle une « configuration » (Elias, 1989) où les adversaires sont aussi des partenaires agissant selon des règles partagées. Une propension devenue routinière consiste à toujours considérer la violence comme une réactivité instinctive, motivée par une pure répétition pavlovienne et paresseuse. Les études des violences urbaines ont pu montrer que celles-ci peuvent être un indicateur d’inégalité ou de défiance vis-à-vis des institutions; et, partant, l’expression d’une volonté de négociation. La manifestation de la violence est un « signal de danger » nous dit Lewis Coser (1982). Autrement dit, la violence fait à la fois signe et sens. Elle n’est pas que l’expression du chaos et du désordre. L’exercice de la violence (notamment politique) a le souci à la fois de l’efficacité et de la légitimité. Le plus souvent, la violence n’est ainsi qualifiée qu’en rapport aux seuls faits concrets, quantifiables et mesurables. Or, d’un point de vue anthropologique, la violence intègre à la fois l’éthique, les valeurs partagées, les sentiments, etc. La rumeur, l’ironie ou la satire peuvent être ressenties comme plus violentes que des coups. Physique, psychologique ou symbolique, la violence est toujours un fait « construit » à partir d’une culture partagée; dont la perception et l’intensité sont étroitement en rapport avec les normes communément admises. Quelle que soit la forme de son expression, la violence demeure un « fait social total »; car elle est toujours enchâssée dans d’autres faits sociaux qui démultiplient ses logiques et ses univers de sens (politique, religieux, économique, social etc.) (Clastres, 1977 ; Kilani, 2006). Instinct naturel, moyen d’imposer l’ordre social ou vecteur du changement social? La violence est une des catégories les plus discutées dans les sciences humaines et sociales; mobilisant terrains et théories pour saisir un phénomène en passe de figurer parmi les universaux et ne cessant de réinventer ses formes d’expression. Pour Thomas Hobbes (2000), l’une des références inévitables dans ces débats, l’homme est un être « duplice », naturellement violent mais socialement dans l’obligation de rechercher la répression de son agression en acceptant de se conformer aux règles d’une instance qui lui permettrait de vivre en société. Pour Hobbes, c’est l’égalité primordiale entre les hommes qui serait à l’origine des affrontements. Jean-Jacques Rousseau (1971) reproche au philosophe britannique d’avoir attribué à l’homme vivant dans l’état de nature les attributs et les passions propres à l’homme vivant dans la société. Ces deux postures spéculatives vont constituer dans une large mesure le cadre de pensée dans lequel seront débattues thèse et contre-thèse sur la nature violente ou non de l’homme. La première défend le caractère inné de la violence, tandis que la seconde la considère comme un acquis culturel. En anthropologie, l’intérêt pour la violence comme phénomène, est présent dès les premiers travaux qui ont pu montrer que toutes les sociétés contiennent de la violence, la produisent, l’utilisent et la gèrent. Mise en avant par Max Weber (1959) dans sa théorie de l’État comme monopole de la violence légitime, elle est popularisée par les travaux de René Girard (1972, 1978). Pour ce philosophe et anthropologue, les désirs de l’homme sont mimétiques et engendrent une violence fondée sur la « rivalité ». L’homme désire les mêmes objets que son prochain, et son désir augmente en fonction de celui de l’autre. Ce désir mimétique débouche sur la violence qui, de proche en proche, devient générale et concerne toute la société. Pour y remédier, Girard s’écarte des thèses wébériennes qui préconisent l’instauration d’une violence légitime confiée à l’État. Il postule que les hommes déplacent leur hostilité sur une victime émissaire (Girard, 1972). C’est le sens du sacrifice présent dans toutes les sociétés humaines. C’est le « désir mimétique » à l’origine de la violence qui caractérise l’être humain en société. Pour empêcher le saccage de cette violence réciproque, présente dans l’essentiel des rapports humains et dans toutes les sociétés dès le début de leur formation, la communauté sacrifie une victime arbitraire consensuelle. La haine de chacun est transférée sur cette victime émissaire dont la mise à mort est expiatoire. Elle sauve la communauté et lui permet de survivre. En évitant la violence destructrice de la communauté, cette violence sacrificielle et pacificatrice se transforme en une violence fondatrice. Les anthropologues se sont également intéressés à la forme institutionnelle de la violence. Ainsi, la guerre mobilisera l’essentiel des théories. Une approche naturaliste développée notamment par André Leroi-Gourhan (1965), postule que la guerre (comme violence institutionnelle) est la conséquence de l'évolution naturelle de l'Homme, qui de chasseur devient guerrier. Pour cet ethnologue et penseur des techniques et de la culture, la violence humaine relèverait du biologique. Postulant que la guerre est une extension de la chasse, il considère que l’homme, à l’instar de l’animal, est un être prédateur et donc violent par nécessité. Le social et l'institutionnel sont ainsi naturalisés. La violence permet de se procurer les rares ressources disponibles. Une telle approche rejoint celle qui met en rapport la guerre et les pénuries de nourriture dans les sociétés primitives. D’autres thèses, plus répandues, estiment certains modèles culturels, comme la virilité, l'autoritarisme culturel et la religion, à l'origine immédiate et exclusive de cette violence. Ce courant culturaliste considère la violence comme un phénomène culturel. Une de ses premières figures, Ruth Benedict (1950), a tenté d’opposer la culture apollinienne des Indiens Pueblos, qu’elle considère comme communautaire et pacifique, à celle des Indiens des plaines, qu’elle définit comme passionnés et agressifs et dont elle qualifie la culture de dionysiaque. Une autre approche culturaliste, celle de Claude Lévi-Strauss, voit dans la violence un mode d’échange, un « échange malheureux ». Pour le théoricien du structuralisme, la guerre est l’expression d’un échec dans l'échange entre communautés, lequel échange est à ses yeux fondateur des sociétés. L’anthropologie Pierre Clastres (1977) réfutera toutes ces théories pour soutenir que la guerre est constitutive de la société primitive. Elle n’est, selon lui, ni un instinct animal, ni la conséquence d’un manque, ni l’expression d’un ethos culturel, ni un échange raté. Elle est au fondement même de l’être ensemble. Étant sans hiérarchie, la société primitive use de la guerre contre l’Autre comme moyen de raffermir son unité. Depuis Thomas Hobbes, la violence hors d'un cadre prescrit par l'État est considérée comme une pathologie sociale. Contre cette vision, Pierre Clastres soutient que les violences (apparemment déviantes ou criminelles) s'inscrivent dans un univers social, culturel et symbolique pour faire sens. Poussée à ses limites, cette approche compréhensive risque de conduire à soutenir des légitimations au nom du relativisme culturel. Dans un monde où génocides, guerres, terrorismes et autres destructions de masse sont devenus une réalité quotidienne, plusieurs auteurs soutiennent la thèse de Norbert Elias (1989) sur le recul de la violence et la domestication de l’animal humain. Contre-intuitive, cette thèse est défendue par plusieurs historiens sur la base de travaux sur des archives judiciaires, dont l'historien Jean-Claude Chesnais (1981 : 14) qui estime qu' « il y a au cours des derniers siècles une régression considérable de la violence criminelle ». Si aujourd’hui on parle de son omniprésence, c’est parce que le seuil de tolérance aurait baissé. Nous serions devenus plus sensibles à la violence, subjectivement. Ceux qui rejettent une telle thèse préfèrent souligner le nombre et la diversification des formes des violences : génocides, attentas, terrorismes, etc. (Wieviorka, 2004). En effet, la violence a pris des formes inédites en rapport avec la complexification de notre organisation sociale. La technologie a contribué à une certaine sophistication de la violence et à sa mise à distance. Sa « domestication » s’opère par sa taylorisation. L’acte de tuer ou de perpétrer un génocide est noyé dans les échelons de la décision (du général qui décide au soldat qui exécute) et dans une « chaîne opératoire » plus ou moins longue. Grâce à cette « taylorisation », la violence se trouve aujourd’hui « domestiquée ». L’euphémisation par la technologie (écrans) la rend supportable par celui qui l’exécute; tout comme le sacré l’avait déjà rendue acceptable et supportable aux yeux, à la fois, de celui qui la donne et de celui qui la subit (Matthew, 2017 ; Blaya, 2011). Quoi qu’il en soit, le développement vertigineux de la technologie, et de l’organisation bureaucratique, contribue à cette « banalisation du mal » (Arendt 1991) en rendant moins perceptibles et plus insidieuses ces violences. Les armes biologiques sont moins spectaculaires dans leur usage mais plus dévastatrices dans leurs effets, tout comme les drones tuent de façon aussi chirurgicale que silencieuse (Chamayou 2013). Il suffit également de penser à toutes les formes de cyberviolence qui se développent dans le monde virtuel des réseaux sociaux, à l’instar du « revenge porn » ou « cyber-rape » (Blaya, 2011). Ce type de violence s’effectue en général sans échange verbal direct. Le registre du langage et l’émotion qu’il produit sont ainsi annulés, privant la victime de repères et d’alertes. Le « bourreau » est également protégé puisqu’il ne voit pas et il n’entend pas la réaction que produit son acte sur la victime. Dans cette nouvelle configuration que produit la cyberviolence, l‘agresseur n’est pas nécessairement plus fort, mais dispose de plus de latitude pour nuire. La thèse du recul de la violence ne tient pas suffisamment compte de sa sophistication, qui arrive à l’occulter. En revanche, la montée de la violence, souvent signalée, peut n’être que le signe d’un abaissement du seuil de tolérance face à des conduites plus ou moins agressives. En réalité, la notion de violence renvoie à deux dimensions, l’une factuelle et l’autre normative. Elle qualifie les effets de la force physique au regard de la transgression des normes socialement établies (Robert & al. 2008 ; Mucchielli, 2008).
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Classification large-échelle"

1

Maggiori, Emmanuel. "Approches d'apprentissage pour la classification à large échelle d'images de télédétection." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4041/document.

Full text
Abstract:
L’analyse des images satellite et aériennes figure parmi les sujets fondamentaux du domaine de la télédétection. Ces dernières années, les avancées technologiques ont permis d’augmenter la disponibilité à large échelle des images, en comprenant parfois de larges étendues de terre à haute résolution spatiale. En plus des questions évidentes de complexité calculatoire qui en surgissent, un de plus importants défis est l’énorme variabilité des objets dans les différentes régions de la terre. Pour aborder cela, il est nécessaire de concevoir des méthodes de classification qui dépassent l’analyse du spectre individuel de chaque pixel, en introduisant de l’information contextuelle de haut niveau. Dans cette thèse, nous proposons d’abord une méthode pour la classification avec des contraintes de forme, basée sur l’optimisation d’une structure de subdivision hiérarchique des images. Nous explorons ensuite l’utilisation des réseaux de neurones convolutionnels (CNN), qui nous permettent d’apprendre des descripteurs hiérarchiques profonds. Nous étudions les CNN depuis de nombreux points de vue, ce qui nous permettra de les adapter à notre objectif. Parmi les sujets abordés, nous proposons différentes solutions pour générer des cartes de classification à haute résolution et nous étudions aussi la récolte des données d’entrainement. Nous avons également créé une base de données d’images aériennes sur des zones variées, pour évaluer la capacité de généralisation des CNN. Finalement, nous proposons une méthode pour polygonaliser les cartes de classification issues des réseaux de neurones, afin de pouvoir les intégrer dans des systèmes d’information géographique. Au long de la thèse, nous conduisons des expériences sur des images hyperspectrales, satellites et aériennes, toujours avec l’intention de proposer des méthodes applicables, généralisables et qui passent à l’échelle
The analysis of airborne and satellite images is one of the core subjects in remote sensing. In recent years, technological developments have facilitated the availability of large-scale sources of data, which cover significant extents of the earth’s surface, often at impressive spatial resolutions. In addition to the evident computational complexity issues that arise, one of the current challenges is to handle the variability in the appearance of the objects across different geographic regions. For this, it is necessary to design classification methods that go beyond the analysis of individual pixel spectra, introducing higher-level contextual information in the process. In this thesis, we first propose a method to perform classification with shape priors, based on the optimization of a hierarchical subdivision data structure. We then delve into the use of the increasingly popular convolutional neural networks (CNNs) to learn deep hierarchical contextual features. We investigate CNNs from multiple angles, in order to address the different points required to adapt them to our problem. Among other subjects, we propose different solutions to output high-resolution classification maps and we study the acquisition of training data. We also created a dataset of aerial images over dissimilar locations, and assess the generalization capabilities of CNNs. Finally, we propose a technique to polygonize the output classification maps, so as to integrate them into operational geographic information systems, thus completing the typical processing pipeline observed in a wide number of applications. Throughout this thesis, we experiment on hyperspectral, atellite and aerial images, with scalability, generalization and applicability goals in mind
APA, Harvard, Vancouver, ISO, and other styles
2

Babbar, Rohit. "Machine Learning Strategies for Large-scale Taxonomies." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM064/document.

Full text
Abstract:
À l'ère de Big Data, le développement de modèles d'apprentissage machine efficaces et évolutifs opérant sur des Tera-Octets de données est une nécessité. Dans cette thèse, nous étudions un cadre d'apprentissage machine pour la classification hiérarchique à large échelle. Cette analyse comprend l'étude des défis comme la complexité d'entraînement des modèles ainsi que leur temps de prédiction. Dans la première partie de la thèse, nous étudions la distribution des lois de puissance sous-jacente à la création des taxonomies à grande échelle. Cette étude permet de dériver des bornes sur la complexité spatiale des classifieurs hiérarchiques. L'exploitation de ce résultat permet alors le développement des modèles efficaces pour les classes distribuées selon une loi de puissance. Nous proposons également une méthode efficace pour la sélection de modèles pour des classifieurs multi-classes de type séparateurs à vaste marge ou de la régression logistique. Dans une deuxième partie, nous étudions le problème de la classification hiérarichique contre la classification plate d'un point de vue théorique. Nous dérivons une borne sur l'erreur de généralisation qui permet de définir les cas où la classification hiérarchique serait plus avantageux que la classification plate. Nous exploitons en outre les bornes développées pour proposer deux méthodes permettant adapter une taxonomie donnée de catégories à une taxonomies de sorties qui permet d'atteindre une meilleure performance de test
In the era of Big Data, we need efficient and scalable machine learning algorithms which can perform automatic classification of Tera-Bytes of data. In this thesis, we study the machine learning challenges for classification in large-scale taxonomies. These challenges include computational complexity of training and prediction and the performance on unseen data. In the first part of the thesis, we study the underlying power-law distribution in large-scale taxonomies. This analysis then motivates the derivation of bounds on space complexity of hierarchical classifiers. Exploiting the study of this distribution further, we then design classification scheme which leads to better accuracy on large-scale power-law distributed categories. We also propose an efficient method for model-selection when training multi-class version of classifiers such as Support Vector Machine and Logistic Regression. Finally, we address another key model selection problem in large scale classification concerning the choice between flat versus hierarchical classification from a learning theoretic aspect. The presented generalization error analysis provides an explanation to empirical findings in many recent studies in large-scale hierarchical classification. We further exploit the developed bounds to propose two methods for adapting the given taxonomy of categories to output taxonomies which yield better test accuracy when used in a top-down setup
APA, Harvard, Vancouver, ISO, and other styles
3

Paulin, Mattis. "De l'apprentissage de représentations visuelles robustes aux invariances pour la classification et la recherche d'images." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM007/document.

Full text
Abstract:
Ce mémoire de thèse porte sur l’élaboration de systèmes de reconnaissance d’image qui sont robustes à la variabilité géométrique. La compréhension d’une image est un problème difficile, de par le fait qu’elles sont des projections en deux dimensions d’objets 3D. Par ailleurs, des représentations qui doivent appartenir à la même catégorie, par exemple des objets de la même classe en classification, peuvent être visuellement très différentes. Notre but est de rendre ces systèmes robustes à la juste quantité de déformations, celle-ci étant automatiquement déterminée à partir des données. Nos deux contributions sont les suivantes. Nous montrons tout d’abord comment utiliser des exemples virtuels pour rendre les systèmes de classification d’images robustes et nous proposons ensuite une méthodologie pour apprendre des descripteurs de bas niveau robustes, pour la recherche d’image.Nous étudions tout d’abord les exemples virtuels, en tant que transformations de vrais exemples. En représentant une image en tant que sac de descripteurs transformés, nous montrons que l’augmentation de données, c’est-à-dire le fait de les considérer comme de nouveaux exemples iid, est la meilleure manière de les utiliser, pourvu qu’une étape de vote avec les descripteurs transformés soit opérée lors du test. Du fait que les transformations apportent différents niveaux d’information, peuvent être redondants, voire nuire à la performance, nous pro-posons un nouvel algorithme capable de sélectionner un petit nombre d’entre elles,en maximisant la justesse de classification. Nous montrons par ailleurs comment remplacer de vrais exemples par des virtuels, pour alléger les couts d’annotation.Nous rapportons de bons résultats sur des bancs d’essai de classification.Notre seconde contribution vise à améliorer les descripteurs de régions locales utilisés en recherche d’image, et en particulier nous proposons une alternative au populaire descripteur SIFT. Nous proposons un nouveau descripteur, appelé patch-CKN, appris sans supervision. Nous introduisons un nouvel ensemble de données liant les images et les imagettes, construit à partir de reconstruction3D automatique d’images récupérées sur Internet. Nous définissons une méthode pour tester précisément la performance des descripteurs locaux au niveau de l’imagette et de l’image. Notre approche dépasse SIFT et les autres approches à base d’architectures convolutionnelles sur notre banc d’essai, et d’autres couramment utilisés dans la littérature
This dissertation focuses on designing image recognition systems which are robust to geometric variability. Image understanding is a difficult problem, as images are two-dimensional projections of 3D objects, and representations that must fall into the same category, for instance objects of the same class in classification can display significant differences. Our goal is to make systems robust to the right amount of deformations, this amount being automatically determined from data. Our contributions are twofolds. We show how to use virtual examples to enforce robustness in image classification systems and we propose a framework to learn robust low-level descriptors for image retrieval. We first focus on virtual examples, as transformation of real ones. One image generates a set of descriptors –one for each transformation– and we show that data augmentation, ie considering them all as iid samples, is the best performing method to use them, provided a voting stage with the transformed descriptors is conducted at test time. Because transformations have various levels of information, can be redundant, and can even be harmful to performance, we propose a new algorithm able to select a set of transformations, while maximizing classification accuracy. We show that a small amount of transformations is enough to considerably improve performance for this task. We also show how virtual examples can replace real ones for a reduced annotation cost. We report good performance on standard fine-grained classification datasets. In a second part, we aim at improving the local region descriptors used in image retrieval and in particular to propose an alternative to the popular SIFT descriptor. We propose new convolutional descriptors, called patch-CKN, which are learned without supervision. We introduce a linked patch- and image-retrieval dataset based on structure from motion of web-crawled images, and design a method to accurately test the performance of local descriptors at patch and image levels. Our approach outperforms both SIFT and all tested approaches with convolutional architectures on our patch and image benchmarks, as well as several styate-of-theart datasets
APA, Harvard, Vancouver, ISO, and other styles
4

Gerald, Thomas. "Representation Learning for Large Scale Classification." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS316.

Full text
Abstract:
Ces précédentes décennies ont vu l'essor des nouvelles technologies simplifiant le partage de l'information. Aujourd'hui, une importante part des données est accessible pour un grand nombre d'utilisateurs. Dans cette thèse, nous proposons d'étudier les problématiques d'annotations de documents avec comme objectif à posteriori de faciliter l'accès à l'information à partir des mots clefs retrouvés. On s'intéressera au domaine de la classification extrême qui caractérise la tâche d'annotation automatique dès lors que le nombre d'étiquettes est important. De nombreuses difficultés découlent de la taille et de la complexité de ces données : le temps de prédiction, le stockage ainsi que la pertinence des annotations en sont les plus représentatifs. Les récentes recherches traitant de cette problématique reposent aujourd'hui sur trois types d'approches: les approches "un contre tous" apprenant autant de classifieurs que d'étiquettes; les méthodes "hiérarchiques" organisant une structure de classifieur simple ; les approches par représentations plongeant dans des espaces de faible dimension les documents. Dans cette thèse, nous étudions le schéma de classification par représentation. À travers nos contributions, nous étudions différentes approches soit pour accélérer la prédiction ou structurer les représentations. Dans un premier temps, nous étudierons des représentations discrètes à l'instar des méthodes "ECOC" pour accélérer le processus d'annotation. Dans un deuxième temps, nous considérerons les plongements hyperboliques afin de profiter des qualités de cet espace pour la représentation de données structurées
The past decades have seen the rise of new technologies that simplify information sharing. Today, a huge part of the data is accessible to most users. In this thesis, we propose to study the problems of document annotation to ease access to information thanks to retrieved annotations. We will be interested in extreme classification-related tasks which characterizes the tasks of automatic annotation when the number of labels is important. Many difficulties arise from the size and complexity of this data: prediction time, storage and the relevance of the annotations are the most representative. Recent research dealing with this issue is based on three classification schemes: "one against all" approaches learning as many classifiers as labels; "hierarchical" methods organizing a simple classifier structure; representation approaches embedding documents into small spaces. In this thesis, we study the representation classification scheme. Through our contributions, we study different approaches either to speed up prediction or to better structure representations. In a first part, we will study discrete representations such as "ECOC" methods to speed up the annotation process. In a second step, we will consider hyperbolic embeddings to take advantage of the qualities of this space for the representation of structured data
APA, Harvard, Vancouver, ISO, and other styles
5

Akata, Zeynep. "Contributions à l'apprentissage grande échelle pour la classification d'images." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM003/document.

Full text
Abstract:
La construction d'algorithmes classifiant des images à grande échelle est devenue une t^ache essentielle du fait de la difficulté d'effectuer des recherches dans les immenses collections de données visuelles non-etiquetées présentes sur Internet. L'objetif est de classifier des images en fonction de leur contenu pour simplifier la gestion de telles bases de données. La classification d'images à grande échelle est un problème complexe, de par l'importance de la taille des ensembles de données, tant en nombre d'images qu'en nombre de classes. Certaines de ces classes sont dites "fine-grained" (sémantiquement proches les unes des autres) et peuvent même ne contenir aucun représentant étiqueté. Dans cette thèse, nous utilisons des représentations à l'état de l'art d'images et nous concentrons sur des méthodes d'apprentissage efficaces. Nos contributions sont (1) un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle et (2) un nouvel algorithme basé sur l'incorporation d'étiquettes pour apprendre sur des données peu abondantes. En premier lieu, nous introduisons un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle, dans un cadre entièrement supervisé. Il compare plusieurs fonctions objectifs pour apprendre des classifieurs linéaires, tels que "un contre tous", "multiclasse", "classement", "classement avec pondération" par descente de gradient stochastique. Ce banc d'essai se conclut en un ensemble de recommandations pour la classification à grande échelle. Avec une simple repondération des données, la stratégie "un contre tous" donne des performances meilleures que toutes les autres. Par ailleurs, en apprentissage en ligne, un pas d'apprentissage assez petit s'avère suffisant pour obtenir des résultats au niveau de l'état de l'art. Enfin, l'arrêt prématuré de la descente de gradient stochastique introduit une régularisation qui améliore la vitesse d'entraînement ainsi que la capacité de régularisation. Deuxièmement, face à des milliers de classes, il est parfois difficile de rassembler suffisamment de données d'entraînement pour chacune des classes. En particulier, certaines classes peuvent être entièrement dénuées d'exemples. En conséquence, nous proposons un nouvel algorithme adapté à ce scénario d'apprentissage dit "zero-shot". Notre algorithme utilise des données parallèles, comme les attributs, pour incorporer les classes dans un espace euclidien. Nous introduisons par ailleurs une fonction pour mesurer la compatibilité entre image et étiquette. Les paramètres de cette fonction sont appris en utilisant un objectif de type "ranking". Notre algorithme dépasse l'état de l'art pour l'apprentissage "zero-shot", et fait preuve d'une grande flexibilité en permettant d'incorporer d'autres sources d'information parallèle, comme des hiérarchies. Il permet en outre une transition sans heurt du cas "zero-shot" au cas où peu d'exemples sont disponibles
Building algorithms that classify images on a large scale is an essential task due to the difficulty in searching massive amount of unlabeled visual data available on the Internet. We aim at classifying images based on their content to simplify the manageability of such large-scale collections. Large-scale image classification is a difficult problem as datasets are large with respect to both the number of images and the number of classes. Some of these classes are fine grained and they may not contain any labeled representatives. In this thesis, we use state-of-the-art image representations and focus on efficient learning methods. Our contributions are (1) a benchmark of learning algorithms for large scale image classification, and (2) a novel learning algorithm based on label embedding for learning with scarce training data. Firstly, we propose a benchmark of learning algorithms for large scale image classification in the fully supervised setting. It compares several objective functions for learning linear classifiers such as one-vs-rest, multiclass, ranking and weighted average ranking using the stochastic gradient descent optimization. The output of this benchmark is a set of recommendations for large-scale learning. We experimentally show that, online learning is well suited for large-scale image classification. With simple data rebalancing, One-vs-Rest performs better than all other methods. Moreover, in online learning, using a small enough step size with respect to the learning rate is sufficient for state-of-the-art performance. Finally, regularization through early stopping results in fast training and a good generalization performance. Secondly, when dealing with thousands of classes, it is difficult to collect sufficient labeled training data for each class. For some classes we might not even have a single training example. We propose a novel algorithm for this zero-shot learning scenario. Our algorithm uses side information, such as attributes to embed classes in a Euclidean space. We also introduce a function to measure the compatibility between an image and a label. The parameters of this function are learned using a ranking objective. Our algorithm outperforms the state-of-the-art for zero-shot learning. It is flexible and can accommodate other sources of side information such as hierarchies. It also allows for a smooth transition from zero-shot to few-shots learning
APA, Harvard, Vancouver, ISO, and other styles
6

Doan, Thanh-Nghi. "Large scale support vector machines algorithms for visual classification." Thesis, Rennes 1, 2013. http://www.theses.fr/2013REN1S083/document.

Full text
Abstract:
Nous présentons deux contributions majeures : 1) une combinaison de plusieurs descripteurs d’images pour la classification à grande échelle, 2) des algorithmes parallèles de SVM pour la classification d’images à grande échelle. Nous proposons aussi un algorithme incrémental et parallèle de classification lorsque les données ne peuvent plus tenir en mémoire vive
We have proposed a novel method of combination multiple of different features for image classification. For large scale learning classifiers, we have developed the parallel versions of both state-of-the-art linear and nonlinear SVMs. We have also proposed a novel algorithm to extend stochastic gradient descent SVM for large scale learning. A class of large scale incremental SVM classifiers has been developed in order to perform classification tasks on large datasets with very large number of classes and training data can not fit into memory
APA, Harvard, Vancouver, ISO, and other styles
7

Leveau, Valentin. "Représentations d'images basées sur un principe de voisins partagés pour la classification fine." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT257/document.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés au problème de la classification à « grain fin » qui est une tâche de classification particulière où les classes peuvent être visuellement distinguables seulement à partir de détails subtils et où le contexte agit souvent comme une source de bruit. Ce travail est principalement motivé par le besoin de concevoir des représentations d'images plus « fines » pour adresser de telles tâches de classification qui nécessitent un encodage d’informations discriminantes très fines et localisées. L'originalité principale de notre approche est d’intégrer dans une représentation globale de haute dimension une mesure de consistance géométrique locale entre l’image à représenter et les images d’une base de référence (que nous considérons comme un vocabulaire visuel possiblement constitué d’un grand nombre d’images). Ceci nous permet d’encoder dans une représentation vectorielle des motifs très localisés et géométriquement consistant avec l’image (contrairement aux méthodes de codage traditionnelles comme les Bag-of-Visual-Word, les vecteurs de Fisher ou les vecteurs VLAD). Plus en détails : Nous proposons dans un premier temps une approche de classification d'instances d'entités visuelles basée sur un classificateur par plus proches voisins qui agrège les similarités entre l'image requête et celles de la base d'apprentissage. Les similarités sont calculées avec prise en compte de la consistance géométrique locale entre les descripteurs locaux de la requête et ceux des images de la base d'apprentissage. Cette base pouvant être constituée de nombreux descripteurs locaux, nous proposons de passer notre méthode à l’échelle en utilisant des méthodes de recherche approximatives de plus proches voisins. Par la suite, nous avons mis au point un nouveau noyau de similarité entre des images basé sur les descripteurs locaux qu'elles partagent dans une base de référence. Nous avons nommé ce noyau Shared Nearest Neighbors Kernel (SNN Kernel), qui peut être utilisé comme n'importe quel autre noyau dans les machines à noyau. Nous avons dérivé, à partir de ce dernier, une représentation explicite globale des images à décrire. Cette représentation encode la similarité de l'image considérée avec les différentes régions visuelles des images de la base correspondant au vocabulaire visuel. Nous avons également rendu possible l'intégration de l'information de consistance géométrique dans nos représentations à l'aide de l'algorithme RANSAC amélioré que nous avons proposé dans notre contribution précédente. La classification des images se fait ensuite par un modèle linéaire appris sur ces représentations. Finalement, nous proposons, comme troisième contribution, une stratégie permettant de considérablement réduire, jusqu'à deux ordres de grandeur, la dimension de la représentation d'image sur-complète précédemment présentée tout en conservant une performance de classification compétitive aux méthodes de l’état de l’art. Nous avons validé nos approches en conduisant une série d’expérimentations sur plusieurs tâches de classification impliquant des objets rigides comme FlickrsLogos32 ou Vehicles29, mais aussi sur des tâches impliquant des concepts visuels plus finement discriminables comme la base FGVC-Aircrafts, Oxford-Flower102 ou CUB-Birds200. Nous avons aussi démontré des résultats significatifs sur des tâches de classification audio à grain fin comme la tâche d'identification d'espèce d'oiseau de LifeCLEF2015 en proposant une extension temporelle de notre représentation d'image. Finalement, nous avons montré que notre technique de réduction de dimension permet d’obtenir un vocabulaire visuel très interprétable composé des régions d'image les plus représentatives pour les concepts visuels représentés dans la base d’apprentissage
This thesis focuses on the issue of fine-grained classification which is a particular classification task where classes may be visually distinguishable only from subtle localized details and where background often acts as a source of noise. This work is mainly motivated by the need to devise finer image representations to address such fine-grained classification tasks by encoding enough localized discriminant information such as spatial arrangement of local features.To this aim, the main research line we investigate in this work relies on spatially localized similarities between images computed thanks to efficient approximate nearest neighbor search techniques and localized parametric geometry. The main originality of our approach is to embed such spatially consistent localized similarities into a high-dimensional global image representation that preserves the spatial arrangement of the fine-grained visual patterns (contrary to traditional encoding methods such as BoW, Fisher or VLAD Vectors). In a nutshell, this is done by considering all raw patches of the training set as a large visual vocabulary and by explicitly encoding their similarity to the query image. In more details:The first contribution proposed in this work is a classification scheme based on a spatially consistent k-nn classifier that relies on pooling similarity scores between local features of the query and those of the similar retrieved images in the vocabulary set. As this set can be composed of a lot of local descriptors, we propose to scale up our approach by using approximate k-nearest neighbors search methods. Then, the main contribution of this work is a new aggregation-based explicit embedding derived from a newly introduced match kernel based on shared nearest neighbors of localized feature vectors combined with local geometric constraints. The originality of this new similarity-based representation space is that it directly integrates spatially localized geometric information in the aggregation process.Finally, as a third contribution, we proposed a strategy to drastically reduce, by up to two orders of magnitude, the high-dimensionality of the previously introduced over-complete image representation while still providing competitive image classification performance.We validated our approaches by conducting a series of experiments on several classification tasks involving rigid objects such as FlickrsLogos32 or Vehicles29 but also on tasks involving finer visual knowledge such as FGVC-Aircrafts, Oxford-Flower102 or CUB-Birds200. We also demonstrated significant results on fine-grained audio classification tasks such as the LifeCLEF 2015 bird species identification challenge by proposing a temporal extension of our image representation. Finally, we notably showed that our dimensionality reduction technique used on top of our representation resulted in highly interpretable visual vocabulary composed of the most representative image regions for different visual concepts of the training base
APA, Harvard, Vancouver, ISO, and other styles
8

Mensink, Thomas. "Learning Image Classification and Retrieval Models." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM113/document.

Full text
Abstract:
Nous assistons actuellement à une explosion de la quantité des données visuelles. Par exemple, plusieurs millions de photos sont partagées quotidiennement sur les réseaux sociaux. Les méthodes d'interprétation d'images vise à faciliter l'accès à ces données visuelles, d'une manière sémantiquement compréhensible. Dans ce manuscrit, nous définissons certains buts détaillés qui sont intéressants pour les taches d'interprétation d'images, telles que la classification ou la recherche d'images, que nous considérons dans les trois chapitres principaux. Tout d'abord, nous visons l'exploitation de la nature multimodale de nombreuses bases de données, pour lesquelles les documents sont composés d'images et de descriptions textuelles. Dans ce but, nous définissons des similarités entre le contenu visuel d'un document, et la description textuelle d'un autre document. Ces similarités sont calculées en deux étapes, tout d'abord nous trouvons les voisins visuellement similaires dans la base multimodale, puis nous utilisons les descriptions textuelles de ces voisins afin de définir une similarité avec la description textuelle de n'importe quel document. Ensuite, nous présentons une série de modèles structurés pour la classification d'images, qui encodent explicitement les interactions binaires entre les étiquettes (ou labels). Ces modèles sont plus expressifs que des prédicateurs d'étiquette indépendants, et aboutissent à des prédictions plus fiables, en particulier dans un scenario de prédiction interactive, où les utilisateurs fournissent les valeurs de certaines des étiquettes d'images. Un scenario interactif comme celui-ci offre un compromis intéressant entre la précision, et l'effort d'annotation manuelle requis. Nous explorons les modèles structurés pour la classification multi-étiquette d'images, pour la classification d'image basée sur les attributs, et pour l'optimisation de certaines mesures de rang spécifiques. Enfin, nous explorons les classifieurs par k plus proches voisins, et les classifieurs par plus proche moyenne, pour la classification d'images à grande échelle. Nous proposons des méthodes d'apprentissage de métrique efficaces pour améliorer les performances de classification, et appliquons ces méthodes à une base de plus d'un million d'images d'apprentissage, et d'un millier de classes. Comme les deux méthodes de classification permettent d'incorporer des classes non vues pendant l'apprentissage à un coût presque nul, nous avons également étudié leur performance pour la généralisation. Nous montrons que la classification par plus proche moyenne généralise à partir d'un millier de classes, sur dix mille classes à un coût négligeable, et les performances obtenus sont comparables à l'état de l'art
We are currently experiencing an exceptional growth of visual data, for example, millions of photos are shared daily on social-networks. Image understanding methods aim to facilitate access to this visual data in a semantically meaningful manner. In this dissertation, we define several detailed goals which are of interest for the image understanding tasks of image classification and retrieval, which we address in three main chapters. First, we aim to exploit the multi-modal nature of many databases, wherein documents consists of images with a form of textual description. In order to do so we define similarities between the visual content of one document and the textual description of another document. These similarities are computed in two steps, first we find the visually similar neighbors in the multi-modal database, and then use the textual descriptions of these neighbors to define a similarity to the textual description of any document. Second, we introduce a series of structured image classification models, which explicitly encode pairwise label interactions. These models are more expressive than independent label predictors, and lead to more accurate predictions. Especially in an interactive prediction scenario where a user provides the value of some of the image labels. Such an interactive scenario offers an interesting trade-off between accuracy and manual labeling effort. We explore structured models for multi-label image classification, for attribute-based image classification, and for optimizing for specific ranking measures. Finally, we explore k-nearest neighbors and nearest-class mean classifiers for large-scale image classification. We propose efficient metric learning methods to improve classification performance, and use these methods to learn on a data set of more than one million training images from one thousand classes. Since both classification methods allow for the incorporation of classes not seen during training at near-zero cost, we study their generalization performances. We show that the nearest-class mean classification method can generalize from one thousand to ten thousand classes at negligible cost, and still perform competitively with the state-of-the-art
APA, Harvard, Vancouver, ISO, and other styles
9

Mathieu, Jordane. "Modèles d'impact statistiques en agriculture : de la prévision saisonnière à la prévision à long terme, en passant par les estimations annuelles." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE006/document.

Full text
Abstract:
En agriculture, la météo est le principal facteur de variabilité d’une année sur l’autre. Cette thèse vise à construire des modèles statistiques à grande échelle qui estiment l’impact des conditions météorologiques sur les rendements agricoles. Le peu de données agricoles disponibles impose de construire des modèles simples avec peu de prédicteurs, et d’adapter les méthodes de sélection de modèles pour éviter le sur-apprentissage. Une grande attention a été portée sur la validation des modèles statistiques. Des réseaux de neurones et modèles à effets mixtes (montrant l’importance des spécificités locales) ont été comparés. Les estimations du rendement de maïs aux États-Unis en fin d’année ont montré que les informations de températures et de précipitations expliquent en moyenne 28% de la variabilité du rendement. Dans plusieurs états davantage météo-sensibles, ce score passe à près de 70%. Ces résultats sont cohérents avec de récentes études sur le sujet. Les prévisions du rendement au milieu de la saison de croissance du maïs sont possibles à partir de juillet : dès juillet, les informations météorologiques utilisées expliquent en moyenne 25% de la variabilité du rendement final aux États-Unis et près de 60% dans les états plus météo-sensibles comme la Virginie. Les régions du nord et du sud-est des États-Unis sont les moins bien prédites. Le rendements extrêmement faibles ont nécessité une méthode particulière de classification : avec seulement 4 prédicteurs météorologiques, 71% des rendements très faibles sont bien détectés en moyenne. L’impact du changement climatique sur les rendements jusqu’en 2060 a aussi été étudié : le modèle construit nous informe sur la rapidité d’évolution des rendements dans les différents cantons des États-Unis et localisent ceux qui seront le plus impactés. Pour les états les plus touchés (au sud et sur la côte Est), et à pratique agricole constante, le modèle prévoit des rendements près de deux fois plus faibles que ceux habituels, en 2060 sous le scénario RCP 4.5 du GIEC. Les états du nord seraient peu touchés. Les modèles statistiques construits peuvent aider à la gestion sur le cours terme (prévisions saisonnières) ou servent à quantifier la qualité des récoltes avant que ne soient faits les sondages post-récolte comme une aide à la surveillance (estimation en fin d’année). Les estimations pour les 50 prochaines années participent à anticiper les conséquences du changement climatique sur les rendements agricoles, pour définir des stratégies d’adaptation ou d’atténuation. La méthodologie utilisée dans cette thèse se généralise aisément à d’autres cultures et à d’autres régions du monde
In agriculture, weather is the main factor of variability between two consecutive years. This thesis aims to build large-scale statistical models that estimate the impact of weather conditions on agricultural yields. The scarcity of available agricultural data makes it necessary to construct simple models with few predictors, and to adapt model selection methods to avoid overfitting. Careful validation of statistical models is a major concern of this thesis. Neural networks and mixed effects models are compared, showing the importance of local specificities. Estimates of US corn yield at the end of the year show that temperature and precipitation information account for an average of 28% of yield variability. In several more weather-sensitive states, this score increases to nearly 70%. These results are consistent with recent studies on the subject. Mid-season maize crop yield forecasts are possible from July: as of July, the meteorological information available accounts for an average of 25% of the variability in final yield in the United States and close to 60% in more weather-sensitive states like Virginia. The northern and southeastern regions of the United States are the least well predicted. Predicting years for which extremely low yields are encountered is an important task. We use a specific method of classification, and show that with only 4 weather predictors, 71% of the very low yields are well detected on average. The impact of climate change on yields up to 2060 is also studied: the model we build provides information on the speed of evolution of yields in different counties of the United States. This highlights areas that will be most affected. For the most affected states (south and east coast), and with constant agricultural practice, the model predicts yields nearly divided by two in 2060, under the IPCC RCP 4.5 scenario. The northern states would be less affected. The statistical models we build can help for management on the short-term (seasonal forecasts) or to quantify the quality of the harvests before post-harvest surveys, as an aid to the monitoring (estimate at the end of the year). Estimations for the next 50 years help to anticipate the consequences of climate change on agricultural yields, and to define adaptation or mitigation strategies. The methodology used in this thesis is easily generalized to other cultures and other regions of the world
APA, Harvard, Vancouver, ISO, and other styles
10

Mathieu, Jordane. "Modèles d'impact statistiques en agriculture : de la prévision saisonnière à la prévision à long terme, en passant par les estimations annuelles." Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE006.

Full text
Abstract:
En agriculture, la météo est le principal facteur de variabilité d’une année sur l’autre. Cette thèse vise à construire des modèles statistiques à grande échelle qui estiment l’impact des conditions météorologiques sur les rendements agricoles. Le peu de données agricoles disponibles impose de construire des modèles simples avec peu de prédicteurs, et d’adapter les méthodes de sélection de modèles pour éviter le sur-apprentissage. Une grande attention a été portée sur la validation des modèles statistiques. Des réseaux de neurones et modèles à effets mixtes (montrant l’importance des spécificités locales) ont été comparés. Les estimations du rendement de maïs aux États-Unis en fin d’année ont montré que les informations de températures et de précipitations expliquent en moyenne 28% de la variabilité du rendement. Dans plusieurs états davantage météo-sensibles, ce score passe à près de 70%. Ces résultats sont cohérents avec de récentes études sur le sujet. Les prévisions du rendement au milieu de la saison de croissance du maïs sont possibles à partir de juillet : dès juillet, les informations météorologiques utilisées expliquent en moyenne 25% de la variabilité du rendement final aux États-Unis et près de 60% dans les états plus météo-sensibles comme la Virginie. Les régions du nord et du sud-est des États-Unis sont les moins bien prédites. Le rendements extrêmement faibles ont nécessité une méthode particulière de classification : avec seulement 4 prédicteurs météorologiques, 71% des rendements très faibles sont bien détectés en moyenne. L’impact du changement climatique sur les rendements jusqu’en 2060 a aussi été étudié : le modèle construit nous informe sur la rapidité d’évolution des rendements dans les différents cantons des États-Unis et localisent ceux qui seront le plus impactés. Pour les états les plus touchés (au sud et sur la côte Est), et à pratique agricole constante, le modèle prévoit des rendements près de deux fois plus faibles que ceux habituels, en 2060 sous le scénario RCP 4.5 du GIEC. Les états du nord seraient peu touchés. Les modèles statistiques construits peuvent aider à la gestion sur le cours terme (prévisions saisonnières) ou servent à quantifier la qualité des récoltes avant que ne soient faits les sondages post-récolte comme une aide à la surveillance (estimation en fin d’année). Les estimations pour les 50 prochaines années participent à anticiper les conséquences du changement climatique sur les rendements agricoles, pour définir des stratégies d’adaptation ou d’atténuation. La méthodologie utilisée dans cette thèse se généralise aisément à d’autres cultures et à d’autres régions du monde
In agriculture, weather is the main factor of variability between two consecutive years. This thesis aims to build large-scale statistical models that estimate the impact of weather conditions on agricultural yields. The scarcity of available agricultural data makes it necessary to construct simple models with few predictors, and to adapt model selection methods to avoid overfitting. Careful validation of statistical models is a major concern of this thesis. Neural networks and mixed effects models are compared, showing the importance of local specificities. Estimates of US corn yield at the end of the year show that temperature and precipitation information account for an average of 28% of yield variability. In several more weather-sensitive states, this score increases to nearly 70%. These results are consistent with recent studies on the subject. Mid-season maize crop yield forecasts are possible from July: as of July, the meteorological information available accounts for an average of 25% of the variability in final yield in the United States and close to 60% in more weather-sensitive states like Virginia. The northern and southeastern regions of the United States are the least well predicted. Predicting years for which extremely low yields are encountered is an important task. We use a specific method of classification, and show that with only 4 weather predictors, 71% of the very low yields are well detected on average. The impact of climate change on yields up to 2060 is also studied: the model we build provides information on the speed of evolution of yields in different counties of the United States. This highlights areas that will be most affected. For the most affected states (south and east coast), and with constant agricultural practice, the model predicts yields nearly divided by two in 2060, under the IPCC RCP 4.5 scenario. The northern states would be less affected. The statistical models we build can help for management on the short-term (seasonal forecasts) or to quantify the quality of the harvests before post-harvest surveys, as an aid to the monitoring (estimate at the end of the year). Estimations for the next 50 years help to anticipate the consequences of climate change on agricultural yields, and to define adaptation or mitigation strategies. The methodology used in this thesis is easily generalized to other cultures and other regions of the world
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography