Literatura académica sobre el tema "Classification grande échelle"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Classification grande échelle".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Classification grande échelle"

1

Doan, Tranh-Nghi, Tranh-Nghi Do y François Poulet. "Classification d’images à grande échelle avec des SVM". Traitement du signal 31, n.º 1-2 (28 de octubre de 2014): 39–56. http://dx.doi.org/10.3166/ts.31.39-56.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Chehata, Nesrine, Karim Ghariani, Arnaud Le Bris y Philippe Lagacherie. "Apport des images pléiades pour la délimitation des parcelles agricoles à grande échelle". Revue Française de Photogrammétrie et de Télédétection, n.º 209 (29 de enero de 2015): 165–71. http://dx.doi.org/10.52638/rfpt.2015.220.

Texto completo
Resumen
Les pratiques et les arrangements spatiaux des parcelles agricoles ont un fort impact sur les flux d'eau dans les paysages cultivés . Afin de surveiller les paysages à grande échelle, il ya un fort besoin de délimitation automatique ou semi-automatique des parcelles agricoles. Cet article montre la contribution des images satellitaires à très haute résolution spatiales, telles que Pléiades, pour délimiter le parcellaire agricole de manière automatique .On propose une approche originale utilisant une classification binaire supervisée des limites. Une approche d'apprentissage actif est proposée afin d'adapter le modèle de classifieur au contexte local permettant ainsi la délimitation parcellaire à grande échelle.Le classifieur des Forêts Aléatoires est utilisé pour la classification et la sélection des attributs . Le concept de marge non supervisée est utilisé comme mesure d'incertitude dans l'algorithme d'apprentissage actif. En outre, un étiquetage automatique des pixels incertains est proposé en utilisant une approche hybride qui combinant une approche région et le concept de marge.Des résultats satisfaisants sont obtenus sur une image Pléiades. Différentes stratégies d'apprentissage sont comparées et discutées . Pour un cas d'étude opérationnel, un modèle global ou bien un modèle simple enrichi peuvent être utilisés en fonction des données de terrain disponibles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Gourmelon, Françoise. "Classification d'ortho-photographies numérisées pour une cartographie à grande échelle de la végétation terrestre". Canadian Journal of Remote Sensing 28, n.º 2 (enero de 2002): 168–74. http://dx.doi.org/10.5589/m02-010.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Daniel, Sylvie. "Revue des descripteurs tridimensionnels (3D) pour la catégorisation des nuages de points acquis avec un système LiDAR de télémétrie mobile". Geomatica 72, n.º 1 (1 de marzo de 2018): 1–15. http://dx.doi.org/10.1139/geomat-2018-0001.

Texto completo
Resumen
La compréhension de nuage de points LiDAR consiste à reconnaitre les objets qui sont présents dans la scène et à associer des interprétations aux nuages d’objets qui le composent. Les données LiDAR acquises en milieu urbain dans des environnements à grande échelle avec des systèmes terrestres de télémétrie mobile présentent plusieurs difficultés propres à ce contexte : chevauchement entre les nuages de points, occlusions entre les objets qui ne sont vus que partiellement, variations de la densité des points. Compte tenu de ces difficultés, beaucoup de descripteurs tridimensionnels (3D) proposés dans la littérature pour la classification et la reconnaissance d’objets voient leurs performances se dégrader dans ce contexte applicatif, car ils ont souvent été introduits et évalués avec des jeux de données portant sur de petits objets. De plus, il y a un manque de comparaison approfondie entre les descripteurs 3D mis en œuvre dans des environnements à grande échelle ce qui a pour conséquence un manque de connaissance au moment de sélectionner le descripteur 3D le plus adapté à un nuage de points LiDAR acquis dans de tels environnements. Le présent article propose une revue approfondie des travaux portant sur l’application des descripteurs 3D à des données LiDAR acquises en milieu urbain dans des environnements à grande échelle avec des systèmes terrestres de télémétrie mobile. Les principaux descripteurs 3D appliqués dans de tels contextes sont ainsi recensés. Une synthèse de leurs performances et limites est ensuite effectuée de manière comparative sur la base des travaux disponibles dans la littérature. Enfin, une discussion abordant les éléments impactant le plus les performances des descripteurs et des pistes d’amélioration vient compléter cette revue.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Bargaoui, Zoubeïda, Hamouda Dakhlaoui y Ahmed Houcine. "Modélisation pluie-débit et classification hydroclimatique". Revue des sciences de l'eau 21, n.º 2 (22 de julio de 2008): 233–45. http://dx.doi.org/10.7202/018468ar.

Texto completo
Resumen
Résumé La recherche de similarité hydrologique est très importante pour l’estimation des débits aux bassins non jaugés. L’indice radiatif d’aridité, proposé dans le modèle de bilan hydrique de Budyko, en combinaison avec le bilan radiatif, représente un paramètre de contrôle de l’ETR (évapotranspiration réelle). Cet indice permet de définir des régions climatiques ou géobotaniques dans lesquelles s’inscrivent les modèles pluie-débit ajustés d’après des historiques d’observations hydroclimatiques. Le présent travail utilise le modèle HBV muni d’une routine d’optimisation à l’aide de l’algorithme SCE‑UA. Il propose une méthodologie de calage dans laquelle on tient explicitement compte de l’ETR établie à grande échelle, à partir de l’indice d’aridité. Cette méthode de calage adopte comme fonction objective la combinaison de trois critères : minimisation de l’écart quadratique sur les débits, minimisation de l’écart sur le bilan hydrique, minimisation de l’écart à l’ETR régionale. On montre qu’ainsi, on améliore la performance du modèle en période de validation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Weill, Frédéric. "La prospective territoriale". Mondes en développement N° 206, n.º 2 (15 de julio de 2024): 13–30. http://dx.doi.org/10.3917/med.206.0013.

Texto completo
Resumen
La prospective recouvre un ensemble de concepts, de méthodes et d’outils pour aider les acteurs des territoires à mieux comprendre les grandes transformations à l’œuvre, construire et piloter leurs stratégies. Discipline en constante évolution depuis ses origines dans les années 1940, elle propose aujourd’hui une large palette d’approches et de techniques qui peuvent aider à préparer des décisions qui engagent l’avenir dans un contexte incertain, mais aussi à favoriser la construction collective de futurs souhaitables. Notre environnement est, en effet, marqué par des transformations majeures au niveau planétaire, avec des changements structurels tels que le dérèglement climatique, le vieillissement de la population, ou encore une incertitude accrue aux plans géopolitique, économique, technologique et sociétal. À une échelle plus locale, les territoires ne vont pas non plus dans les prochaines décennies échapper à ces évolutions profondes. Dès lors, faire de la prospective peut aider à mieux décrypter la nature des changements à l’œuvre pour réduire les incertitudes, ainsi qu’à se préparer aux changements à venir. La prospective peut s’appuyer sur une boîte à outils de méthodes et de techniques, qui permettent d’organiser ce travail d’exploration collective et de construction de stratégies partagées. Les démarches de prospective territoriale peuvent prendre des formes très variées en raison de la grande diversité des types de territoires, des enjeux, des groupes d’acteurs, ou encore selon les moyens engagés. Classification JEL : R11, R58, Z18, Z32
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Postadjian, Tristan, Arnaud Le Bris, Hichem Sahbi y Clément Mallet. "Classification à très large échelle d'images satellites à très haute résolution spatiale par réseaux de neurones convolutifs". Revue Française de Photogrammétrie et de Télédétection, n.º 217-218 (21 de septiembre de 2018): 73–86. http://dx.doi.org/10.52638/rfpt.2018.418.

Texto completo
Resumen
Les algorithmes de classification constituent un outil essentiel pour le calcul de cartes d'occupation des sols. Les récents progrès en apprentissage automatique ont montré les très grandes performances des réseaux de neurones convolutifs pour de nombreuses applications, y compris la classification d'images aériennes et satellites. Ce travail établit une stratégie quant à l'utilisation d'un réseau de neurone convolutif pour la classification d'images satellites à très haute résolution spatiale, couvrant de très larges régions géographiques, avec pour perspective future le calcul de cartes d'occupation des sols à l'échelle d'un pays.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Milward, David. "Sweating it Out: Facilitating Corrections and Parole in Canada Through Aboriginal Spiritual Healing". Windsor Yearbook of Access to Justice 29 (1 de febrero de 2011): 27. http://dx.doi.org/10.22329/wyaj.v29i0.4479.

Texto completo
Resumen
Aboriginal peoples continue to be subjected to drastic over-incarceration. Much of the existing literature explores contemporary adaptations of Aboriginal justice traditions that resemble restorative justice as a solution. There is by comparison a lack of literature that considers searching for solutions during the correctional phase of the justice system, after Aboriginal persons have already been convicted and imprisoned. The objective of this paper is to explore a number of reforms in order to better facilitate rehabilitation, reintegration, and parole for Aboriginal inmates. One is to invest greater resources into culturally sensitive programming that emphasizes spiritual healing for Aboriginal inmates. This is premised on the theme of “spend now, save later” with the idea that increasing the chances for Aboriginal re-integration may represent the better long term investment than simply warehousing large numbers of Aboriginal inmates year after year. Another problem is that many Aboriginal inmates are classified as higher security risks, which results in them being cut off from needed programming. The suggestion here is that criminal history as a static factor for determining security classifications may have little predictive value for the actual security risk posed by Aboriginal inmates, and therefore should be de-emphasized. Correctional Services of Canada should seriously consider developing an Aboriginal-specific classification scale that de-emphasizes criminal history, and emphasizes instead offender participation in culturally appropriate programs and spiritual healing, and behavioural progress while in prison. Risk assessment to re-offend for purposes of granting parole may also represent a form of systemic discrimination since criminal history represents a static factor that encumbers parole for many Aboriginal inmates. Risk assessment should instead emphasize dynamic risk factors by assessing Aboriginal participation in culturally appropriate programming, and attendant behaviourial progress while in prison. The difficult issue of Aboriginal gang activity can perhaps be dealt with through a more flexible system of risk assessment that gauges a willingness to reform and dissociate from the gang lifestyle rather than require Aboriginal inmates to endure nearly permanent penalties for past involvement. Finally, the paper will suggest that it is possible to overcome the political obstacles to implementing these reforms and obtain a political mandate to pursue them after the public is made aware of the benefits they offer.On continue à infliger des peines d’emprisonnement beaucoup trop sévères aux autochtones. Une grande partie des documents existants examinent des adaptations contemporaines des traditions autochtones en matière de justice qui proposent une forme de justice réparatrice comme solution. Par contre, trop peu de documents examinent la possibilité de rechercher des solutions pendant la phase correctionnelle du système de justice, après que les autochtones ont été reconnus coupables et incarcérés. Cet article examine un certain nombre de réformes en vue de faciliter la réhabilitation et la réintégration des détenus autochtones et leur libération conditionnelle. Nous devons en premier lieu consacrer davantage de ressources aux programmes qui tiennent compte des spécificités culturelles et mettent l’accent sur la guérison spirituelle des détenus autochtones. Cette approche repose sur le principe « dépenser maintenant – épargner plus tard » et sur l’idée selon laquelle accroître les chances de réintégration des autochtones représente peut-être un meilleur investissement à long terme qu’incarcérer ceux-ci en grand nombre année après année. Par ailleurs, le fait qu’un bon nombre d’autochtones soient considérés comme représentant un risque élevé pour la sécurité et ne puissent pour cette raison bénéficier des programmes dont ils ont besoin suscite une autre difficulté. Dans cet article, l’auteur avance que s’appuyer sur les antécédents criminels comme facteur statique pour déterminer les classifications de sécurité a peut-être peu de valeur prédictive en ce qui concerne le risque réel de sécurité posé par les détenus autochtones et, par conséquent, qu’on ne devrait plus leur accorder la priorité. Les Services correctionnels du Canada devraient envisager sérieusement de mettre au point une échelle de classification propre aux autochtones qui n’accorde plus la priorité aux antécédents judiciaires et met plutôt l’accent sur la participation du contrevenant à des programmes culturellement adéquats, sur la guérison spirituelle et sur les progrès comportementaux des autochtones pendant leur incarcération. L’évaluation du risque de récidive avant que ne soit accordée la libération conditionnelle peut également représenter une forme de discrimination systémique puisque les antécédents criminels représentent un facteur statique qui empêche de nombreux autochtones d’obtenir une libération conditionnelle. L’évaluation du risque devrait plutôt mettre l’accent sur les facteurs de risque dynamiques en tenant compte de la participation des autochtones à des programmes culturellement adéquats et des progrès comportementaux découlant de cette participation aux programmes pendant l’incarcération. La délicate question des activités de bandes criminelles autochtones pourrait être abordée dans le cadre d’un système plus souple d’évaluation du risque qui tient compte de la volonté de se réformer et de se dissocier du style de vie des gangs au lieu d’exiger que les détenus autochtones subissent des pénalités somme toute permanentes pour leur implication antérieure. Finalement, l’auteur laisse entendre qu’il est possible de surmonter les obstacles politiques à la mise en oeuvre de ces réformes et d’obtenir un mandat politique afin de donner suite à ces réformes une fois que le public aura été informé des avantages qu’elles offrent.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Vialou, Denis. "L’art des grottes en Ariège magdalénienne". Gallia préhistoire. Suppléments 22, n.º 1 (1986): 5–28. http://dx.doi.org/10.3406/galip.1986.2542.

Texto completo
Resumen
La région des Pyrénées ariégeoises est une des zones d'art pariétal importantes du Magdalénien IV dans la classification classique d'H. Breuil. Aux sites prestigieux comme Niaux, Le Portel est venue s'adjoindre Fontanet, découverte en 1972. Dans cette grotte, dont l'entrée se ferma naturellement après la fréquentation des Magdaléniens, tout est resté intact : sols avec des centaines d'empreintes humaines (mains et pieds) et animales, des foyers (datés), des ossements d'animaux chassés et des outils lithiques ; impressions dans l'argile, gravures et peintures y forment parallèlement un ensemble pariétal de premier ordre. Au total, cette région montagneuse rassemble 11 sites pariétaux : Marsoulas, à l'ouest et en lisière du département de l'Ariège, Les Trois-Frères, Le Tue d'Audoubert, Le Mas d'Azil et Le Portel dans le Plantaurel, piémont calcaire de la grande chaîne près de laquelle se situe Massat (massif de l'Arize). La grotte du Cheval à Foix, Bédeilhac, Niaux, Les Églises d'Ussat et Fontanet près de Tarascon-sur-Ariège sont situées sur l'axe sud-nord de la vallée de l'Ariège. Cette rivière forma la limite orientale du territoire conquis par les Magdaléniens après la libération progressive des hautes vallées, au sud, prises par les glaciers (Dryas ancien). La limite occidentale est celle de la Garonne, descendant des Hautes-Pyrénées centrales ; la limite nord enfin est celle de la plaine, biotope bien différent. L'unité chrono-culturelle de ce territoire magdalénien paraît correctement définissable dans la mesure où, hormis une éventuelle présence de Magdalénien III à l'ouest (Marsoulas) et des occupations du Magdalénien final à l'est sans rapport direct avec les dispositifs pariétaux, l'ensemble des données archéologiques est à référer au Magdalénien IV. L'espace naturel de chaque grotte a été considéré comme le cadre architectural construit par les Paléolithiques selon ses caractères topomorphologiques propres. L'espace magdalénien est donc le résultat de cette élaboration culturelle reposant sur un dispositif pariétal original dans chaque cavité. Dans les dispositifs pariétaux ariégeois magdaléniens on trouve les trois catégories de thèmes, habituellement rencontrés dans les grottes paléolithiques : les signes (c'est-à-dire des représentations abstraites), des humains et des animaux (c'est-à-dire des représentations figuratives), des tracés indéterminés (c'est-à-dire des représentations inidentifiables du fait des données graphiques elles-mêmes). Le choix des thèmes d'une part, leur fréquence d'autre part varient de façon considérable d'un site à l'autre, mais ils expriment aussi des orientations régionales. A cette échelle on constate que la cinquantaine de thèmes humains (9 des 11 grottes) et la particularité de certains d'entre eux — comme les Sorciers des Trois-Frères — donnent au Magdalénien pariétal ariégeois une orientation symbolique particulière. Il est plus banal de constater que près de 360 bisons et 180 chevaux forment l'essentiel des 860 représentations animales (de proportions très variables d'une grotte à l'autre). Dans la catégorie des signes (environ 1 500), trois familles ont été distinguées à partir de leurs données morphologiques. La famille des signes ponctués (273 unités) : points simples, points alignés, en nappe, etc. La famille des signes linéaires élémentaires (652) : traits, barres simples, parallèles, etc. ; enfin la famille des signes complexes (472) tels les barbelés, les claviformes ou encore des signes attestés en exemplaire unique. A l'inverse des signes ponctués et linéaires assez courants, soit disséminés dans les galeries, soit insérés dans des panneaux, les signes élaborés ou complexes marquent électivement certains dispositifs et permettent donc de les distinguer nettement. En ce sens, les choix thématiques témoignent d'un degré premier d'originalisation de chaque site pariétal. Un degré second est atteint en envisageant non plus seulement les thèmes, mais leurs liaisons spatiales strictes, par superposition ou juxtaposition. Les liaisons thématiques sont les fondements des constructions pariétales dans la mesure où elles mettent en rapport symbolique des thèmes variés selon des formulations originales toujours différentes d'un site à un autre. Au sein d'un même ensemble homogène, comme le Salon noir de Niaux ou le Sanctuaire des Trois-Frères, les liaisons thématiques organisent des séquences symboliques donnant parfois à un même thème (ou plusieurs) des importances distinctes : emplacement central ou périphérique, isolement ou groupement, choix des couleurs ou des techniques de gravures, dimensions, nombres d'individus, etc. Par exemple, le Sanctuaire des Trois-Frères montre, de son accès à son conduit final aboutissant au Dieu cornu, une diminution du nombre des bisons, une augmentation de celui des chevaux, une quasi-disparition des caprinés compensés par une forte concentration de rennes, un changement des thèmes abstraits avec un jeu d'apparition et de disparition de certains types. Analysée dans sa totalité la grotte apparaît comme une construction symbolique rassemblant des matériaux divers (thèmes) selon des agencements propres (liaisons thématiques) éminemment variables au sein même de dispositifs pariétaux indubitablement homogènes (quant à leurs origines ou leurs fondements culturels). L'analyse comparée finale des constructions symboliques montre que plus elles sont élaborées, complexes, moins on trouve d'éléments communs ou étroitement comparables entre elles au niveau des liaisons symboliques. En définitive, l'analyse conduit à identifier et définir une diversification irréductible des constructions symboliques, témoignant de l'affirmation culturelle de groupes ethniques sédentarisés autour de leur sanctuaire souterrain, dans une ambiance régionale ayant possédé une bonne cohésion culturelle pendant une durée relativement brève (un à deux millénaires) au regard de la création pariétale paléolithique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Stoczkowski, Wiktor. "Race". Anthropen, 2017. http://dx.doi.org/10.17184/eac.anthropen.042.

Texto completo
Resumen
La notion de race est ancienne, et ses significations n’ont jamais cessé de se transformer. Dès le XVIe siècle, le mot race désignait les membres d’un lignage. Par conséquent, l’espèce humaine devenait une race puisque la Bible lui donnait pour ancêtres communs Adam et Ève. Un peuple se réclamant d’un ancêtre mythique pouvait également être qualifié de race : on disait par exemple que les Juifs étaient de la race d’Abraham. Le terme a parfois été synonyme de dynastie royale, elle aussi dotée d’un ancêtre commun. L’Encyclopédie utilise le terme principalement dans ces trois acceptions, parlant aussi bien de race humaine que de race d’Abraham ou de race des Capétiens (L’Encyclopédie 1777 et 1778). Parallèlement, le XVIIIe siècle voit se répandre l’usage zoologique de la notion de race, employée pour désigner les variétés infra-spécifiques d’animaux, surtout des animaux domestiques, tels les chiens, les chevaux ou les bovins (Buffon 1749a et 1755). En même temps, les naturalistes étendent son application aux variétés de l’espèce humaine. On considère alors que les différences biologiques entre groupes humains géographiquement séparés sont solidaires de leurs différences culturelles, les unes et les autres engendrées par l’influence conjointe du sol, du climat et de la nourriture (Buffon 1749b). En accord avec la théorie humorale alors en vogue, on pense que le sol, le climat et la nourriture influencent les quatre humeurs physiologiques (bile jaune, sang, bile noire, pituite), dont l’interaction détermine le degré d’un tempérament (mélancolique, flegmatique, bileux, sanguin), lequel décide à son tour à la fois de l’anatomie des hommes et de leur caractère, mentalité, mœurs et organisation sociale (Greenwood 1984). Aucun consensus n’existait en revanche quant au nombre de races d’hommes, tantôt porté à plusieurs dizaines, tantôt réduit à trois et dont chacune était assimilée à la descendance d’un des trois fils de Noé. Les races humaines étaient disposées sur les échelons supérieurs de la Grande Échelle des Êtres, qui menait des formes animales les plus simples jusqu’à l’homme le plus perfectionné, identifié invariablement au Blanc. Le Noir, et plus particulièrement le Hottentot, occupait la limite inférieure de l’humanité, où il côtoyait l’Orang-outang placé au sommet du monde animal (Dictionnaire des sciences médicales, 1819, Sebastani 2013). Si la plupart des Européens du XVIIIe siècle croyaient à la supériorité des Blancs, tous n’en déduisaient pas les mêmes conclusions. Certains estimaient que les autres races pouvaient éventuellement acquérir la civilisation et devenir, avec le temps, à la fois égales aux Blancs et blanches de peau, blanchies sous l’effet de la civilisation. D’autres restaient convaincus que la supériorité des Blancs était un immuable fait de nature, ce qui condamnait les autres races, surtout les Noirs, à une éternelle soumission, faisant d’eux ce que Aristote avait appelé les esclaves par nature. Les débats raciologiques du XIXe siècle consacrèrent l’opposition plus ancienne entre le monogénisme et le polygénisme (Blanckaert 1981). Les monogénistes clamaient qu’il n’y a qu’une seule espèce humaine, différenciée à partir d’un type originel ; les polygénistes soutenaient qu’il existe depuis toujours plusieurs espèces humaines invariables, pourvues de propriétés spécifiques, aussi bien biologiques que mentales. La théorie darwinienne (1859) n’a modifié que modestement les grandes lignes de ce débat : les degrés de l’Échelle des Êtres seront désormais considérés comme les étapes consécutives de l’évolution, tandis que les races inférieures se verront identifiées aux races moins évoluées. Les polygénistes darwiniens pouvaient renoncer à l’axiome de l’invariabilité des races dans la très longue durée préhistorique, mais ils s’accordaient avec les monogénistes darwiniens à établir une hiérarchie linéaire des races selon leurs formes anatomiques, auxquelles on croyait pouvoir associer une gradation de facultés morales, intellectuelles et civilisatrices, tenues pour héréditaires et difficilement modifiables dans la courte durée historique. Dès la fin du XVIIIe siècle, des mesures anthropométriques variées ont commencé à être proposées, dans l’espoir de quantifier le degré d’avancement moral et mental des races à partir d’indices anatomiques : ce fut l’un des fondements de l’anthropologie physique du XIXe siècle. La théorie darwinienne de la sélection naturelle a contribué à légitimer la vieille idée de la lutte des races pour la survie. On s’est mis à redouter que les races inférieures, réputées plus fertiles, n’en viennent à bout des races supérieures. Le XIXe siècle fut particulièrement marqué par la hantise du mélange racial, censé conduire à la contamination de la « substance germinative » des races supérieures et à leur dégénérescence consécutive. Dans la première moitié du XXe siècle, l’idéologie nazie offrit l’un des aboutissements extrêmes de cette conception. On y trouve une combinaison de nombreuses composantes des théories raciologiques antérieures : une classification raciale rigide, la hiérarchisation des races en supérieures et inférieures, la conviction que les différences anatomiques correspondent aux différences culturelles, l’idée d’une inégalité morale, intellectuelle et civilisatrice des races, la crainte d’une dégénérescence raciale par le métissage qui altère le « sang » de la race supérieure, la croyance qu’une menace pèse sur la race supérieure du fait de la fertilité plus grande des races inférieures, la doctrine de la lutte entre les races comme force motrice du progrès. L’idéologie nazie fut une sinistre synthèse d’au moins deux siècles de développement de la pensée raciale. Lorsque la Deuxième Guerre prit fin, l’Occident tenta de faire le procès à son héritage intellectuel. L’UNESCO exprima une conviction alors inédite en inscrivant dans sa constitution l’idée selon laquelle les atrocités de la récente guerre avaient été rendues possibles par la croyance à l’inégalité des races. Pour rendre impossibles de nouveaux Auschwitz, on décida alors de faire disparaître la notion de races humaines, source présumée de l’horreur suprême. Dans leur déclaration de 1950, les experts de l’UNESCO affirmèrent l’unité fondamentale de l’espèce humaine et reléguèrent la diversité biologique des hommes à un second plan, en tant qu’épiphénomène de divers mécanismes évolutifs de différentiation. La Déclaration de l’UNESCO portait les marques de la toute récente théorie synthétique de l’évolution, dont les principes ramenaient la « race » à un résultat éphémère de la circulation des gènes entre les populations, seules entités réellement observables (UNESCO 1950, Stoczkowski 2008). La conjonction du contexte politique et de l’émergence de la génétique des populations conduisit, à partir des années 1950, à l’abandon progressif de la notion de race, surtout en sciences sociales. Les humanités multiples des théories raciologiques se muèrent en l’Homme universel de l’UNESCO. Pourtant, la génétique des populations n’a pas tenu les promesses dont on l’avait initialement investie en espérant que la recherche allait démontrer l’inexistence des races humaines, ce qui devait invalider toute possibilité de rabattre les différences de culture sur les différences de nature, selon le subterfuge séculaire qui avait maintes fois servi à justifier les inégalités, les discriminations et les oppressions. N’étaient pas moindres les attentes suscitées ensuite par l’exploration du génome humain : elle devait porter le coup de grâce au concept de race et aux préjugés que ce concept implique. En juin 2000, lors des célébrations qui marquèrent la publication de la première esquisse de la carte du génome humain, J. Craig Venter, directeur de l’entreprise de recherche génétique Celera, répéta que « la notion de race n’a aucun fondement génétique ni scientifique » (Marantz Henig 2004). Aujourd’hui, les résultats de la recherche sur le génome humain semblent moins univoques (Stoczkowski 2006). Il est certes réconfortant de savoir qu’aucun doute ne subsiste sur l’unité génétique de l’espèce humaine. Pourtant, après une première période consacrée à la description des similitudes génétiques, les travaux actuels s’orientent de plus en plus vers l’exploration de la diversité de notre espèce. Plusieurs études publiées récemment tendent à démontrer que des données génétiques permettent bel et bien de faire la distinction entre les individus originaires d’Europe, d’Afrique et d’Extrême-Orient, c’est-à-dire entre les populations traditionnellement réparties par la pensée ordinaire entre les trois grandes « races » : blanche, noire et jaune (Bamshad et al. 2003, Rosenberg et al.,2002, Watkins et al. 2003). Ces travaux dérangent et inquiètent. Ils dérangent car on s’attendait à ce que la génétique rende définitivement illégitime toute classification biologique des humains. C’est le contraire qui semble advenir sous nos yeux. Au lieu de prouver que l’ordre du phénotype, privilégié par la pensée ordinaire, s’écarte de l’ordre du génotype étudié par la science, les travaux récents suggèrent que certaines classifications « raciales » – pour autant qu’elles soient fondées non sur la seule morphologie, mais plutôt sur l’origine géographique – peuvent refléter approximativement une partie de la diversité humaine établie par la génétique moderne (Bamshad et al. 2003; Rosenberg et al. 2002; Watkins et al. 2003). Ces travaux inquiètent aussi, car nul n’ignore que l’étude des différences entre les hommes peut fournir des arguments à ceux qui veulent diviser l’humanité, porter les distinctions à l’absolu, les juger scandaleuses et insupportables. Les généticiens ne manquent pas de souligner que les groupements formés à partir de leurs modèles diffèrent des anciennes catégories raciales, puisque les écarts entre les classes génétiques sont statistiques, relatifs, mouvants, soumis aux vicissitudes de l’histoire faite non seulement de séparations, mais aussi de migrations et de croisements. Il n’en demeure pas moins que le risque existe que les résultats de ces travaux nourrissent à nouveau le phantasme de divergences insurmontables inscrites dans le corps des humains. Les controverses sur la classification infra-spécifique des humains sont loin d’être closes. Quelles que soient les conclusions qui remporteront finalement le consensus de la communauté scientifique, il est probable que la pensée antiraciste soit confrontée dans un avenir proche à une nouvelle légitimité scientifique des classements des humains à partir de critères biologiques, cette fois dans un contexte social où l’aspiration à l’égalité ne passe plus par l’effacement des différences biologiques mais, au contraire, par leur revendication de la part des dominés. Après l’expérience du nazisme, dont l’intérêt exacerbé pour les différences biologiques déboucha sur l’abomination de la Shoah, on était enclin à considérer que toute théorie de la différence biologique devait nécessairement conduire au racisme. On en est moins sûr de nos jours, en observant que les minorités auparavant opprimées cherchent à adosser leur combat contre les inégalités à une théorie de la différence biologique (Oak Ridge National Laboratory). Hier, désireux d’expier le péché de racisme, l’homme blanc fit appel à la science pour rendre insignifiantes les différences biologiques entre les humains ; aujourd’hui, réclamant le droit à l’égalité, l’homme de couleur emploie la science pour donner aux différences biologiques une signification nouvelle. Cette résurgence de l’intérêt de la recherche pour la diversité de l’espèce humaine, en dépit du danger bien réel d’un détournement idéologique de ses résultats, encore très provisoires, peut devenir un antidote contre les spéculations naïves sur la race, qui ne manqueront pas de foisonner dans la culture populaire tant que les chercheurs seront incapables d’expliquer pourquoi les hommes, appartenant tous à la même espèce biologique, n’ont pas pour autant tous la même apparence.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Classification grande échelle"

1

Akata, Zeynep. "Contributions à l'apprentissage grande échelle pour la classification d'images". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM003/document.

Texto completo
Resumen
La construction d'algorithmes classifiant des images à grande échelle est devenue une t^ache essentielle du fait de la difficulté d'effectuer des recherches dans les immenses collections de données visuelles non-etiquetées présentes sur Internet. L'objetif est de classifier des images en fonction de leur contenu pour simplifier la gestion de telles bases de données. La classification d'images à grande échelle est un problème complexe, de par l'importance de la taille des ensembles de données, tant en nombre d'images qu'en nombre de classes. Certaines de ces classes sont dites "fine-grained" (sémantiquement proches les unes des autres) et peuvent même ne contenir aucun représentant étiqueté. Dans cette thèse, nous utilisons des représentations à l'état de l'art d'images et nous concentrons sur des méthodes d'apprentissage efficaces. Nos contributions sont (1) un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle et (2) un nouvel algorithme basé sur l'incorporation d'étiquettes pour apprendre sur des données peu abondantes. En premier lieu, nous introduisons un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle, dans un cadre entièrement supervisé. Il compare plusieurs fonctions objectifs pour apprendre des classifieurs linéaires, tels que "un contre tous", "multiclasse", "classement", "classement avec pondération" par descente de gradient stochastique. Ce banc d'essai se conclut en un ensemble de recommandations pour la classification à grande échelle. Avec une simple repondération des données, la stratégie "un contre tous" donne des performances meilleures que toutes les autres. Par ailleurs, en apprentissage en ligne, un pas d'apprentissage assez petit s'avère suffisant pour obtenir des résultats au niveau de l'état de l'art. Enfin, l'arrêt prématuré de la descente de gradient stochastique introduit une régularisation qui améliore la vitesse d'entraînement ainsi que la capacité de régularisation. Deuxièmement, face à des milliers de classes, il est parfois difficile de rassembler suffisamment de données d'entraînement pour chacune des classes. En particulier, certaines classes peuvent être entièrement dénuées d'exemples. En conséquence, nous proposons un nouvel algorithme adapté à ce scénario d'apprentissage dit "zero-shot". Notre algorithme utilise des données parallèles, comme les attributs, pour incorporer les classes dans un espace euclidien. Nous introduisons par ailleurs une fonction pour mesurer la compatibilité entre image et étiquette. Les paramètres de cette fonction sont appris en utilisant un objectif de type "ranking". Notre algorithme dépasse l'état de l'art pour l'apprentissage "zero-shot", et fait preuve d'une grande flexibilité en permettant d'incorporer d'autres sources d'information parallèle, comme des hiérarchies. Il permet en outre une transition sans heurt du cas "zero-shot" au cas où peu d'exemples sont disponibles
Building algorithms that classify images on a large scale is an essential task due to the difficulty in searching massive amount of unlabeled visual data available on the Internet. We aim at classifying images based on their content to simplify the manageability of such large-scale collections. Large-scale image classification is a difficult problem as datasets are large with respect to both the number of images and the number of classes. Some of these classes are fine grained and they may not contain any labeled representatives. In this thesis, we use state-of-the-art image representations and focus on efficient learning methods. Our contributions are (1) a benchmark of learning algorithms for large scale image classification, and (2) a novel learning algorithm based on label embedding for learning with scarce training data. Firstly, we propose a benchmark of learning algorithms for large scale image classification in the fully supervised setting. It compares several objective functions for learning linear classifiers such as one-vs-rest, multiclass, ranking and weighted average ranking using the stochastic gradient descent optimization. The output of this benchmark is a set of recommendations for large-scale learning. We experimentally show that, online learning is well suited for large-scale image classification. With simple data rebalancing, One-vs-Rest performs better than all other methods. Moreover, in online learning, using a small enough step size with respect to the learning rate is sufficient for state-of-the-art performance. Finally, regularization through early stopping results in fast training and a good generalization performance. Secondly, when dealing with thousands of classes, it is difficult to collect sufficient labeled training data for each class. For some classes we might not even have a single training example. We propose a novel algorithm for this zero-shot learning scenario. Our algorithm uses side information, such as attributes to embed classes in a Euclidean space. We also introduce a function to measure the compatibility between an image and a label. The parameters of this function are learned using a ranking objective. Our algorithm outperforms the state-of-the-art for zero-shot learning. It is flexible and can accommodate other sources of side information such as hierarchies. It also allows for a smooth transition from zero-shot to few-shots learning
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Akata, Zeynep. "Contributions à l'apprentissage grande échelle pour la classification d'images". Phd thesis, Université de Grenoble, 2014. http://tel.archives-ouvertes.fr/tel-00873807.

Texto completo
Resumen
La construction d'algorithmes classifiant des images à grande échelle est devenue une tache essentielle du fait de la difficulté d'effectuer des recherches dans les immenses collections de données visuelles inetiquetées présentes sur Internet. Nous visons à classifier des images en fonction de leur contenu pour simplifier la gestion de telles bases de données. La classification d'images à grande échelle est un problème complèxe, de par l'importance de la taille des ensembles de données, tant en nombre d'images qu'en nombre de classes. Certaines de ces classes sont dites "fine-grained" (sémantiquement proches les unes des autres) et peuvent même ne contenir aucun représentant étiqueté. Dans cette thèse, nous utilisons des représentations état de l'art d'images et nous concentrons sur des méthodes d'apprentissage efficaces. Nos contributions sont (1) un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle et (2) un nouvel algorithme basé sur l'incorporation d'étiquettes pour apprendre sur des données peu abondantes. En premier lieu, nous introduisons un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle, dans le cadre entièrement supervisé. Il compare plusieurs fonctions objectifs pour apprendre des classifieurs linéaires, tels que "un contre tous", "multiclasse", "ranking", "ranking pondéré moyen" par descente de gradient stochastique. Ce banc d'essai se conclut en un ensemble de recommandations pour la classification à grande échelle. Avec une simple repondération des données, la stratégie "un contre tous" donne des performances meilleures que toutes les autres. Par ailleurs, en apprentissage en ligne, un pas d'apprentissage assez petit s'avère suffisant pour obtenir des résultats au niveau de l'état de l'art. Enfin, l'arrêt anticipé de la descente de gradient stochastique introduit une régularisation qui améliore la vitesse d'entraînement ainsi que la capacité de régularisation. Deuxièmement, face à des milliers de classes, il est parfois difficile de rassembler suffisamment de données d'entraînement pour chacune des classes. En particulier, certaines classes peuvent être entièrement dénuées d'exemples. En conséquence, nous proposons un nouvel algorithme adapté à ce scénario d'apprentissage dit "zero-shot". notre algorithme utilise des données parallèles, comme les attributs, pour incorporer les classes dans un espace euclidien. Nous introduisons par ailleurs une fonction pour mesurer la compatibilité entre image et étiquette. Les paramètres de cette fonction sont appris en utilisant un objectif de type "ranking". Notre algorithme dépasse l'état de l'art pour l'apprentissage "zero-shot", et fait preuve d'une grande flexibilité en permettant d'incorporer d'autres sources d'information parallèle, comme des hiérarchies. Il permet en outre une transition sans heurt du cas "zero-shot" au cas où peu d'exemples sont disponibles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Paulin, Mattis. "De l'apprentissage de représentations visuelles robustes aux invariances pour la classification et la recherche d'images". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM007/document.

Texto completo
Resumen
Ce mémoire de thèse porte sur l’élaboration de systèmes de reconnaissance d’image qui sont robustes à la variabilité géométrique. La compréhension d’une image est un problème difficile, de par le fait qu’elles sont des projections en deux dimensions d’objets 3D. Par ailleurs, des représentations qui doivent appartenir à la même catégorie, par exemple des objets de la même classe en classification, peuvent être visuellement très différentes. Notre but est de rendre ces systèmes robustes à la juste quantité de déformations, celle-ci étant automatiquement déterminée à partir des données. Nos deux contributions sont les suivantes. Nous montrons tout d’abord comment utiliser des exemples virtuels pour rendre les systèmes de classification d’images robustes et nous proposons ensuite une méthodologie pour apprendre des descripteurs de bas niveau robustes, pour la recherche d’image.Nous étudions tout d’abord les exemples virtuels, en tant que transformations de vrais exemples. En représentant une image en tant que sac de descripteurs transformés, nous montrons que l’augmentation de données, c’est-à-dire le fait de les considérer comme de nouveaux exemples iid, est la meilleure manière de les utiliser, pourvu qu’une étape de vote avec les descripteurs transformés soit opérée lors du test. Du fait que les transformations apportent différents niveaux d’information, peuvent être redondants, voire nuire à la performance, nous pro-posons un nouvel algorithme capable de sélectionner un petit nombre d’entre elles,en maximisant la justesse de classification. Nous montrons par ailleurs comment remplacer de vrais exemples par des virtuels, pour alléger les couts d’annotation.Nous rapportons de bons résultats sur des bancs d’essai de classification.Notre seconde contribution vise à améliorer les descripteurs de régions locales utilisés en recherche d’image, et en particulier nous proposons une alternative au populaire descripteur SIFT. Nous proposons un nouveau descripteur, appelé patch-CKN, appris sans supervision. Nous introduisons un nouvel ensemble de données liant les images et les imagettes, construit à partir de reconstruction3D automatique d’images récupérées sur Internet. Nous définissons une méthode pour tester précisément la performance des descripteurs locaux au niveau de l’imagette et de l’image. Notre approche dépasse SIFT et les autres approches à base d’architectures convolutionnelles sur notre banc d’essai, et d’autres couramment utilisés dans la littérature
This dissertation focuses on designing image recognition systems which are robust to geometric variability. Image understanding is a difficult problem, as images are two-dimensional projections of 3D objects, and representations that must fall into the same category, for instance objects of the same class in classification can display significant differences. Our goal is to make systems robust to the right amount of deformations, this amount being automatically determined from data. Our contributions are twofolds. We show how to use virtual examples to enforce robustness in image classification systems and we propose a framework to learn robust low-level descriptors for image retrieval. We first focus on virtual examples, as transformation of real ones. One image generates a set of descriptors –one for each transformation– and we show that data augmentation, ie considering them all as iid samples, is the best performing method to use them, provided a voting stage with the transformed descriptors is conducted at test time. Because transformations have various levels of information, can be redundant, and can even be harmful to performance, we propose a new algorithm able to select a set of transformations, while maximizing classification accuracy. We show that a small amount of transformations is enough to considerably improve performance for this task. We also show how virtual examples can replace real ones for a reduced annotation cost. We report good performance on standard fine-grained classification datasets. In a second part, we aim at improving the local region descriptors used in image retrieval and in particular to propose an alternative to the popular SIFT descriptor. We propose new convolutional descriptors, called patch-CKN, which are learned without supervision. We introduce a linked patch- and image-retrieval dataset based on structure from motion of web-crawled images, and design a method to accurately test the performance of local descriptors at patch and image levels. Our approach outperforms both SIFT and all tested approaches with convolutional architectures on our patch and image benchmarks, as well as several styate-of-theart datasets
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Gressin, Adrien. "Mise à jour d’une base de données d’occupation du sol à grande échelle en milieux naturels à partir d’une image satellite THR". Thesis, Paris 5, 2014. http://www.theses.fr/2014PA05S022/document.

Texto completo
Resumen
Les base de données (BD) d'Occupation du Sol (OCS) sont d'une grande utilité, dans divers domaines. Les utilisateurs recherchent des niveaux de détails tant géométriques que sémantiques très fins. Ainsi, une telle BD d'OCS à Grande Échelle (OCS-GE) est en cours de constitution à l'IGN. Cependant, pour répondre aux besoins des utilisateurs, cette BD doit être mise à jour le plus régulièrement possible, avec une notion de millésime. Ainsi, des méthodes automatiques de mise à jour doivent être mises en place, afin de traiter rapidement des zones étendues. Par ailleurs, les satellites d'observation de la terre ont fait leurs preuves dans l'aide à la constitution de BD d'OCS à des échelles comparables à celle de CLC. Avec l'arrivée de nouveaux capteurs THR, comme celle du satellite Pléiades, la question de la pertinence de ces images pour la mise à jour de BD d'OCS-GE se pose naturellement. Ainsi, l'objet de cette thèse est de développer une méthode automatique de mise à jour de BDs d'OCS-GE, à partir d'une image satellite THR monoscopique (afin de réduire les coûts d'acquisition), tout en garantissant la robustesse des changements détectés. Le cœur de la méthode est un algorithme d'apprentissage supervisés multi-niveaux appelé MLMOL, qui permet de prendre en compte au mieux les apparences, éventuellement multiples, de chaque thème de la BD. Cet algorithme, complètement indépendant du choix du classifieur et des attributs extraits de l'image, peut être appliqué sur des jeux de données très variés. De plus, la multiplication de classifications permet d'améliorer la robustesse de la méthode, en particulier sur des thèmes ayant des apparences multiples (e,g,. champs labourés ou non, bâtiments de type maison ou hangar industriel, ...). De plus, l'algorithme d'apprentissage est intégré dans une chaîne de traitements (LUPIN) capable, d'une part de s'adapter automatiquement aux différents thèmes de la BD pouvant exister et, d'autre part, d'être robuste à l'existence de thèmes in-homogènes. Par suite, la méthode est appliquée avec succès à une image Pléiades, sur une zone à proximité de Tarbes (65) couverte par la BD OCS-GE constituée par IGN. Les résultats obtenus montrent l'apport des images Pléiades tant en terme de résolution sub-métrique que de dynamique spectrale. D'autre part, la méthode proposée permet de fournir des indicateurs pertinents de changements sur la zone. Nous montrons par ailleurs que notre méthode peut fournir une aide précieuse à la constitution de BD d'OCS issues de la fusion de différentes BDs. En effet, notre méthode a la capacité de prise de décisions lorsque la fusion de BDs génère des zones de recouvrement, phénomène courant notamment lorsque les données proviennent de différentes sources, avec leur propre spécification. De plus, notre méthode permet également de compléter d'éventuels lacunes dans la zone de couverture de la BD générée, mais aussi d'étendre cette couverture sur l'emprise d'une image couvrant une étendue plus large. Enfin, la chaîne de traitements LUPIN est appliquée à différents jeux de données de télédétection afin de valider sa polyvalence et de juger de la pertinence de ces données. Les résultats montrent sa capacité d'adaptation aux données de différentes résolutions utilisées (Pléiades à 0,5m, SPOT 6 à 1,5m et RapidEye à 5m), ainsi que sa capacité à utiliser les points forts des différents capteurs, comme par exemple le canal red-edge de RapidEye pour la discrimination du thème forêts, le bon compromis de résolution que fournit SPOT 6 pour le thème zones bâties et l'apport de la THR de Pléiades pour discriminer des thèmes précis comme les routes ou les haies
Land-Cover geospatial databases (LC-BDs) are mandatory inputs for various purposes such as for natural resources monitoring land planning, and public policies management. To improve this monitoring, users look for both better geometric, and better semantic levels of detail. To fulfill such requirements, a large-scale LC-DB is being established at the French National Mapping Agency (IGN). However, to meet the users needs, this DB must be updated as regularly as possible while keeping the initial accuracies. Consequently, automatic updating methods should be set up in order to allow such large-scale computation. Furthermore, Earth observation satellites have been successfully used to the constitution of LC-DB at various scales such as Corine Land Cover (CLC). Nowadays, very high resolution (VHR) sensors, such as Pléiades satellite, allow to product large-scale LC-DB. Consequently, the purpose of this thesis is to propose an automatic updating method of such large-scale LC-DB from VHR monoscopic satellite image (to limit acquisition costs) while ensuring the robustness of the detected changes. Our proposed method is based on a multilevel supervised learning algorithm MLMOL, which allows to best take into account the possibly multiple appearances of each DB classes. This algorithm can be applied to various images and DB data sets, independently of the classifier, and the attributes extracted from the input image. Moreover, the classifications stacking improves the robustness of the method, especially on classes having multiple appearances (e.g., plowed or not plowed fields, stand-alone houses or industrial warehouse buildings, ...). In addition, the learning algorithm is integrated into a processing chain (LUPIN) allowing, first to automatically fit to the different existing DB themes and, secondly, to be robust to in-homogeneous areas. As a result, the method is successfully applied to a Pleiades image on an area near Tarbes (southern France) covered by the IGN large-scale LC-DB. Results show the contribution of Pleiades images (in terms of sub-meter resolution and spectral dynamics). Indeed, thanks to the texture and shape attributes (morphological profiles, SFS, ...), VHR satellite images give good classification results, even on classes such as roads, and buildings that usually require specific methods. Moreover, the proposed method provides relevant change indicators in the area. In addition, our method provides a significant support for the creation of LC-DB obtain by merging several existing DBs. Indeed, our method allows to take a decision when the fusion of initials DBs generates overlapping areas, particularly when such DBs come from different sources with their own specification. In addition, our method allows to fill potential gaps in the coverage of such generating DB, but also to extend the data to the coverage of a larger image. Finally, the proposed workflow is applied to different remote sensing data sets in order to assess its versatility and the relevance of such data. Results show that our method is able to deal with such different spatial resolutions data sets (Pléiades at 0.5 m, SPOT 6 at 1.5 m and RapidEye at 5 m), and to take into account the strengths of each sensor, e.g., the RapidEye red-edge channel for discrimination theme forest, the good balance of the SPOT~6 resolution for built-up areas classes and the capability of VHR of Pléiades images to discriminate objects of small spatial extent such as roads or hedge
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Cui, Yanwei. "Kernel-based learning on hierarchical image representations : applications to remote sensing data classification". Thesis, Lorient, 2017. http://www.theses.fr/2017LORIS448/document.

Texto completo
Resumen
La représentation d’image sous une forme hiérarchique a été largement utilisée dans un contexte de classification. Une telle représentation est capable de modéliser le contenu d’une image à travers une structure arborescente. Dans cette thèse, nous étudions les méthodes à noyaux qui permettent de prendre en entrée des données sous une forme structurée et de tenir compte des informations topologiques présentes dans chaque structure en concevant des noyaux structurés. Nous présentons un noyau structuré dédié aux structures telles que des arbres non ordonnés et des chemins (séquences de noeuds) équipés de caractéristiques numériques. Le noyau proposé, appelé Bag of Subpaths Kernel (BoSK), est formé en sommant les noyaux calculés sur les sous-chemins (un sac de tous les chemins et des noeuds simples) entre deux sacs. Le calcul direct de BoSK amène à une complexité quadratique par rapport à la taille de la structure (nombre de noeuds) et la quantité de données (taille de l’ensemble d’apprentissage). Nous proposons également une version rapide de notre algorithme, appelé Scalable BoSK (SBoSK), qui s’appuie sur la technique des Random Fourier Features pour projeter les données structurées dans un espace euclidien, où le produit scalaire du vecteur transformé est une approximation de BoSK. Cet algorithme bénéficie d’une complexité non plus linéaire mais quadratique par rapport aux tailles de la structure et de l’ensemble d’apprentissage, rendant ainsi le noyau adapté aux situations d’apprentissage à grande échelle. Grâce à (S)BoSK, nous sommes en mesure d’effectuer un apprentissage à partir d’informations présentes à plusieurs échelles dans les représentations hiérarchiques d’image. (S)BoSK fonctionne sur des chemins, permettant ainsi de tenir compte du contexte d’un pixel (feuille de la représentation hiérarchique) par l’intermédiaire de ses régions ancêtres à plusieurs échelles. Un tel modèle est utilisé dans la classification des images au niveau pixel. (S)BoSK fonctionne également sur les arbres, ce qui le rend capable de modéliser la composition d’un objet (racine de la représentation hiérarchique) et les relations topologiques entre ses sous-parties. Cette stratégie permet la classification des tuiles ou parties d’image. En poussant plus loin l’utilisation de (S)BoSK, nous introduisons une nouvelle approche de classification multi-source qui effectue la classification directement à partir d’une représentation hiérarchique construite à partir de deux images de la même scène prises à différentes résolutions, éventuellement selon différentes modalités. Les évaluations sur plusieurs jeux de données de télédétection disponibles dans la communauté illustrent la supériorité de (S)BoSK par rapport à l’état de l’art en termes de précision de classification, et les expériences menées sur une tâche de classification urbaine montrent la pertinence de l’approche de classification multi-source proposée
Hierarchical image representations have been widely used in the image classification context. Such representations are capable of modeling the content of an image through a tree structure. In this thesis, we investigate kernel-based strategies that make possible taking input data in a structured form and capturing the topological patterns inside each structure through designing structured kernels. We develop a structured kernel dedicated to unordered tree and path (sequence of nodes) structures equipped with numerical features, called Bag of Subpaths Kernel (BoSK). It is formed by summing up kernels computed on subpaths (a bag of all paths and single nodes) between two bags. The direct computation of BoSK yields a quadratic complexity w.r.t. both structure size (number of nodes) and amount of data (training size). We also propose a scalable version of BoSK (SBoSK for short), using Random Fourier Features technique to map the structured data in a randomized finite-dimensional Euclidean space, where inner product of the transformed feature vector approximates BoSK. It brings down the complexity from quadratic to linear w.r.t. structure size and amount of data, making the kernel compliant with the large-scale machine-learning context. Thanks to (S)BoSK, we are able to learn from cross-scale patterns in hierarchical image representations. (S)BoSK operates on paths, thus allowing modeling the context of a pixel (leaf of the hierarchical representation) through its ancestor regions at multiple scales. Such a model is used within pixel-based image classification. (S)BoSK also works on trees, making the kernel able to capture the composition of an object (top of the hierarchical representation) and the topological relationships among its subparts. This strategy allows tile/sub-image classification. Further relying on (S)BoSK, we introduce a novel multi-source classification approach that performs classification directly from a hierarchical image representation built from two images of the same scene taken at different resolutions, possibly with different modalities. Evaluations on several publicly available remote sensing datasets illustrate the superiority of (S)BoSK compared to state-of-the-art methods in terms of classification accuracy, and experiments on an urban classification task show the effectiveness of proposed multi-source classification approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Mensink, Thomas. "Learning Image Classification and Retrieval Models". Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM113/document.

Texto completo
Resumen
Nous assistons actuellement à une explosion de la quantité des données visuelles. Par exemple, plusieurs millions de photos sont partagées quotidiennement sur les réseaux sociaux. Les méthodes d'interprétation d'images vise à faciliter l'accès à ces données visuelles, d'une manière sémantiquement compréhensible. Dans ce manuscrit, nous définissons certains buts détaillés qui sont intéressants pour les taches d'interprétation d'images, telles que la classification ou la recherche d'images, que nous considérons dans les trois chapitres principaux. Tout d'abord, nous visons l'exploitation de la nature multimodale de nombreuses bases de données, pour lesquelles les documents sont composés d'images et de descriptions textuelles. Dans ce but, nous définissons des similarités entre le contenu visuel d'un document, et la description textuelle d'un autre document. Ces similarités sont calculées en deux étapes, tout d'abord nous trouvons les voisins visuellement similaires dans la base multimodale, puis nous utilisons les descriptions textuelles de ces voisins afin de définir une similarité avec la description textuelle de n'importe quel document. Ensuite, nous présentons une série de modèles structurés pour la classification d'images, qui encodent explicitement les interactions binaires entre les étiquettes (ou labels). Ces modèles sont plus expressifs que des prédicateurs d'étiquette indépendants, et aboutissent à des prédictions plus fiables, en particulier dans un scenario de prédiction interactive, où les utilisateurs fournissent les valeurs de certaines des étiquettes d'images. Un scenario interactif comme celui-ci offre un compromis intéressant entre la précision, et l'effort d'annotation manuelle requis. Nous explorons les modèles structurés pour la classification multi-étiquette d'images, pour la classification d'image basée sur les attributs, et pour l'optimisation de certaines mesures de rang spécifiques. Enfin, nous explorons les classifieurs par k plus proches voisins, et les classifieurs par plus proche moyenne, pour la classification d'images à grande échelle. Nous proposons des méthodes d'apprentissage de métrique efficaces pour améliorer les performances de classification, et appliquons ces méthodes à une base de plus d'un million d'images d'apprentissage, et d'un millier de classes. Comme les deux méthodes de classification permettent d'incorporer des classes non vues pendant l'apprentissage à un coût presque nul, nous avons également étudié leur performance pour la généralisation. Nous montrons que la classification par plus proche moyenne généralise à partir d'un millier de classes, sur dix mille classes à un coût négligeable, et les performances obtenus sont comparables à l'état de l'art
We are currently experiencing an exceptional growth of visual data, for example, millions of photos are shared daily on social-networks. Image understanding methods aim to facilitate access to this visual data in a semantically meaningful manner. In this dissertation, we define several detailed goals which are of interest for the image understanding tasks of image classification and retrieval, which we address in three main chapters. First, we aim to exploit the multi-modal nature of many databases, wherein documents consists of images with a form of textual description. In order to do so we define similarities between the visual content of one document and the textual description of another document. These similarities are computed in two steps, first we find the visually similar neighbors in the multi-modal database, and then use the textual descriptions of these neighbors to define a similarity to the textual description of any document. Second, we introduce a series of structured image classification models, which explicitly encode pairwise label interactions. These models are more expressive than independent label predictors, and lead to more accurate predictions. Especially in an interactive prediction scenario where a user provides the value of some of the image labels. Such an interactive scenario offers an interesting trade-off between accuracy and manual labeling effort. We explore structured models for multi-label image classification, for attribute-based image classification, and for optimizing for specific ranking measures. Finally, we explore k-nearest neighbors and nearest-class mean classifiers for large-scale image classification. We propose efficient metric learning methods to improve classification performance, and use these methods to learn on a data set of more than one million training images from one thousand classes. Since both classification methods allow for the incorporation of classes not seen during training at near-zero cost, we study their generalization performances. We show that the nearest-class mean classification method can generalize from one thousand to ten thousand classes at negligible cost, and still perform competitively with the state-of-the-art
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Mensink, Thomas. "Apprentissage de Modèles pour la Classification et la Recherche d'Images". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00752022.

Texto completo
Resumen
Nous assistons actuellement à une explosion de la quantité des données visuelles. Par exemple, plusieurs millions de photos sont partagées quotidiennement sur les réseaux sociaux. Les méthodes d'interprétation d'images vise à faciliter l'accès à ces données visuelles, d'une manière sémantiquement compréhensible. Dans ce manuscrit, nous définissons certains buts détaillés qui sont intéressants pour les taches d'interprétation d'images, telles que la classification ou la recherche d'images, que nous considérons dans les trois chapitres principaux. Tout d'abord, nous visons l'exploitation de la nature multimodale de nombreuses bases de données, pour lesquelles les documents sont composés d'images et de descriptions textuelles. Dans ce but, nous définissons des similarités entre le contenu visuel d'un document, et la description textuelle d'un autre document. Ces similarités sont calculées en deux étapes, tout d'abord nous trouvons les voisins visuellement similaires dans la base multimodale, puis nous utilisons les descriptions textuelles de ces voisins afin de définir une similarité avec la description textuelle de n'importe quel document. Ensuite, nous présentons une série de modèles structurés pour la classification d'images, qui encodent explicitement les interactions binaires entre les étiquettes (ou labels). Ces modèles sont plus expressifs que des prédicateurs d'étiquette indépendants, et aboutissent à des prédictions plus fiables, en particulier dans un scenario de prédiction interactive, où les utilisateurs fournissent les valeurs de certaines des étiquettes d'images. Un scenario interactif comme celui-ci offre un compromis intéressant entre la précision, et l'effort d'annotation manuelle requis. Nous explorons les modèles structurés pour la classification multi-étiquette d'images, pour la classification d'image basée sur les attributs, et pour l'optimisation de certaines mesures de rang spécifiques. Enfin, nous explorons les classifieurs par k plus proches voisins, et les classifieurs par plus proche moyenne, pour la classification d'images à grande échelle. Nous proposons des méthodes d'apprentissage de métrique efficaces pour améliorer les performances de classification, et appliquons ces méthodes à une base de plus d'un million d'images d'apprentissage, et d'un millier de classes. Comme les deux méthodes de classification permettent d'incorporer des classes non vues pendant l'apprentissage à un coût presque nul, nous avons également étudié leur performance pour la généralisation. Nous montrons que la classification par plus proche moyenne généralise à partir d'un millier de classes, sur dix mille classes à un coût négligeable, et les performances obtenus sont comparables à l'état de l'art.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Gressin, Adrien. "Mise à jour d’une base de données d’occupation du sol à grande échelle en milieux naturels à partir d’une image satellite THR". Electronic Thesis or Diss., Paris 5, 2014. http://www.theses.fr/2014PA05S022.

Texto completo
Resumen
Les base de données (BD) d'Occupation du Sol (OCS) sont d'une grande utilité, dans divers domaines. Les utilisateurs recherchent des niveaux de détails tant géométriques que sémantiques très fins. Ainsi, une telle BD d'OCS à Grande Échelle (OCS-GE) est en cours de constitution à l'IGN. Cependant, pour répondre aux besoins des utilisateurs, cette BD doit être mise à jour le plus régulièrement possible, avec une notion de millésime. Ainsi, des méthodes automatiques de mise à jour doivent être mises en place, afin de traiter rapidement des zones étendues. Par ailleurs, les satellites d'observation de la terre ont fait leurs preuves dans l'aide à la constitution de BD d'OCS à des échelles comparables à celle de CLC. Avec l'arrivée de nouveaux capteurs THR, comme celle du satellite Pléiades, la question de la pertinence de ces images pour la mise à jour de BD d'OCS-GE se pose naturellement. Ainsi, l'objet de cette thèse est de développer une méthode automatique de mise à jour de BDs d'OCS-GE, à partir d'une image satellite THR monoscopique (afin de réduire les coûts d'acquisition), tout en garantissant la robustesse des changements détectés. Le cœur de la méthode est un algorithme d'apprentissage supervisés multi-niveaux appelé MLMOL, qui permet de prendre en compte au mieux les apparences, éventuellement multiples, de chaque thème de la BD. Cet algorithme, complètement indépendant du choix du classifieur et des attributs extraits de l'image, peut être appliqué sur des jeux de données très variés. De plus, la multiplication de classifications permet d'améliorer la robustesse de la méthode, en particulier sur des thèmes ayant des apparences multiples (e,g,. champs labourés ou non, bâtiments de type maison ou hangar industriel, ...). De plus, l'algorithme d'apprentissage est intégré dans une chaîne de traitements (LUPIN) capable, d'une part de s'adapter automatiquement aux différents thèmes de la BD pouvant exister et, d'autre part, d'être robuste à l'existence de thèmes in-homogènes. Par suite, la méthode est appliquée avec succès à une image Pléiades, sur une zone à proximité de Tarbes (65) couverte par la BD OCS-GE constituée par IGN. Les résultats obtenus montrent l'apport des images Pléiades tant en terme de résolution sub-métrique que de dynamique spectrale. D'autre part, la méthode proposée permet de fournir des indicateurs pertinents de changements sur la zone. Nous montrons par ailleurs que notre méthode peut fournir une aide précieuse à la constitution de BD d'OCS issues de la fusion de différentes BDs. En effet, notre méthode a la capacité de prise de décisions lorsque la fusion de BDs génère des zones de recouvrement, phénomène courant notamment lorsque les données proviennent de différentes sources, avec leur propre spécification. De plus, notre méthode permet également de compléter d'éventuels lacunes dans la zone de couverture de la BD générée, mais aussi d'étendre cette couverture sur l'emprise d'une image couvrant une étendue plus large. Enfin, la chaîne de traitements LUPIN est appliquée à différents jeux de données de télédétection afin de valider sa polyvalence et de juger de la pertinence de ces données. Les résultats montrent sa capacité d'adaptation aux données de différentes résolutions utilisées (Pléiades à 0,5m, SPOT 6 à 1,5m et RapidEye à 5m), ainsi que sa capacité à utiliser les points forts des différents capteurs, comme par exemple le canal red-edge de RapidEye pour la discrimination du thème forêts, le bon compromis de résolution que fournit SPOT 6 pour le thème zones bâties et l'apport de la THR de Pléiades pour discriminer des thèmes précis comme les routes ou les haies
Land-Cover geospatial databases (LC-BDs) are mandatory inputs for various purposes such as for natural resources monitoring land planning, and public policies management. To improve this monitoring, users look for both better geometric, and better semantic levels of detail. To fulfill such requirements, a large-scale LC-DB is being established at the French National Mapping Agency (IGN). However, to meet the users needs, this DB must be updated as regularly as possible while keeping the initial accuracies. Consequently, automatic updating methods should be set up in order to allow such large-scale computation. Furthermore, Earth observation satellites have been successfully used to the constitution of LC-DB at various scales such as Corine Land Cover (CLC). Nowadays, very high resolution (VHR) sensors, such as Pléiades satellite, allow to product large-scale LC-DB. Consequently, the purpose of this thesis is to propose an automatic updating method of such large-scale LC-DB from VHR monoscopic satellite image (to limit acquisition costs) while ensuring the robustness of the detected changes. Our proposed method is based on a multilevel supervised learning algorithm MLMOL, which allows to best take into account the possibly multiple appearances of each DB classes. This algorithm can be applied to various images and DB data sets, independently of the classifier, and the attributes extracted from the input image. Moreover, the classifications stacking improves the robustness of the method, especially on classes having multiple appearances (e.g., plowed or not plowed fields, stand-alone houses or industrial warehouse buildings, ...). In addition, the learning algorithm is integrated into a processing chain (LUPIN) allowing, first to automatically fit to the different existing DB themes and, secondly, to be robust to in-homogeneous areas. As a result, the method is successfully applied to a Pleiades image on an area near Tarbes (southern France) covered by the IGN large-scale LC-DB. Results show the contribution of Pleiades images (in terms of sub-meter resolution and spectral dynamics). Indeed, thanks to the texture and shape attributes (morphological profiles, SFS, ...), VHR satellite images give good classification results, even on classes such as roads, and buildings that usually require specific methods. Moreover, the proposed method provides relevant change indicators in the area. In addition, our method provides a significant support for the creation of LC-DB obtain by merging several existing DBs. Indeed, our method allows to take a decision when the fusion of initials DBs generates overlapping areas, particularly when such DBs come from different sources with their own specification. In addition, our method allows to fill potential gaps in the coverage of such generating DB, but also to extend the data to the coverage of a larger image. Finally, the proposed workflow is applied to different remote sensing data sets in order to assess its versatility and the relevance of such data. Results show that our method is able to deal with such different spatial resolutions data sets (Pléiades at 0.5 m, SPOT 6 at 1.5 m and RapidEye at 5 m), and to take into account the strengths of each sensor, e.g., the RapidEye red-edge channel for discrimination theme forest, the good balance of the SPOT~6 resolution for built-up areas classes and the capability of VHR of Pléiades images to discriminate objects of small spatial extent such as roads or hedge
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Doan, Thanh-Nghi. "Large scale support vector machines algorithms for visual classification". Thesis, Rennes 1, 2013. http://www.theses.fr/2013REN1S083/document.

Texto completo
Resumen
Nous présentons deux contributions majeures : 1) une combinaison de plusieurs descripteurs d’images pour la classification à grande échelle, 2) des algorithmes parallèles de SVM pour la classification d’images à grande échelle. Nous proposons aussi un algorithme incrémental et parallèle de classification lorsque les données ne peuvent plus tenir en mémoire vive
We have proposed a novel method of combination multiple of different features for image classification. For large scale learning classifiers, we have developed the parallel versions of both state-of-the-art linear and nonlinear SVMs. We have also proposed a novel algorithm to extend stochastic gradient descent SVM for large scale learning. A class of large scale incremental SVM classifiers has been developed in order to perform classification tasks on large datasets with very large number of classes and training data can not fit into memory
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Bellet, Valentine. "Intelligence artificielle appliquée aux séries temporelles d'images satellites pour la surveillance des écosystèmes". Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES013.

Texto completo
Resumen
Dans un contexte de changement climatique, la surveillance des écosystèmes est une mission essentielle. En effet, cela permet de mieux comprendre les changements qui peuvent affecter les écosystèmes mais aussi de prendre des décisions en conséquence afin de préserver les générations actuelles et futures. Les cartes d'occupations du sol sont un outil indispensable en fournissant des informations sur les différents types de couverture physique de la surface de la Terre (e.g. forêts, prairies, terres agricoles). Actuellement, un nombre accru de missions satellites fournissent un volume important de données gratuites et librement accessibles. Les séries temporelles d'images satellites (SITS), dont celles de Sentinel-2, notamment grâce à leurs très hautes résolutions, informent sur la dynamique de la végétation. Des algorithmes d'apprentissage automatique permettent de produire de manière fréquente et régulière des cartes d'occupations du sol à partir de SITS. L'objectif de cette thèse est le développement d'algorithmes de classification supervisée pour la production de cartes d'occupations du sol à grande échelle. Dans un contexte opérationnel, quatre principaux défis se dégagent. Le premier concerne le volume important de données que les algorithmes doivent être capables de gérer. Le second est lié à la prise en compte des corrélations entre les variables spectro-temporelles et leur extraction pour la classification. Le troisième, quant à lui, correspond à la prise en compte de la variabilité spatiale: dans des zones géographiques étendues, la donnée n'est pas stationnaire. Enfin, le quatrième défi concerne l'utilisation de SITS irrégulièrement échantillonnées et non alignées, principalement du aux conditions météorologiques (e.g. nuages) ou à des dates d'acquisitions différentes entre deux orbites. Cette thèse est divisée en deux contributions principales. La première contribution concerne la mise en place de processus gaussiens stochastiques variationnels (SVGP) pour des SITS à grande échelle. Des millions d'échantillons peuvent être utilisés pour l'apprentissage, au lieu de quelques milliers pour les processus gaussiens (GP) traditionnels. Des combinaisons de fonctions de covariances ont été mis en place permettant notamment de prendre en compte l'information spatiale et d'être plus robuste vis à vis de la variabilité spatiale. Cependant, les SITS sont ré-échantillonnés linéairement indépendamment de la tâche de classification. La deuxième contribution concerne donc la mise en place d'un ré-échantillonnage optimisé pour la tâche de classification. Un interpolateur à noyau prenant en compte l'information spatiale permet de produire une représentation latente qui est donnée à notre SVGP. Les expérimentations ont été menées avec les SITS de Sentinel-2 pour l'ensemble de l'année 2018 sur une zone d'environ 200 000 km^2(environ 2 milliards de pixels) dans le sud de la France (27 tuiles MGRS). Ce dispositif expérimental est représentatif d'un cadre opérationnel. Les résultats obtenus montrent que les modèles issus des deux contributions sont plus performants que la méthode utilisée pour les systèmes opérationnels actuels (i.e. forêts d'arbres aléatoires avec des SITS linéairement ré-échantillonnées utilisant la stratification spatiale)
In the context of climate change, ecosystem monitoring is a crucial task. It allows to better understand the changes that affect them and also enables decision-making to preserve them for current and future generations. Land use and land cover (LULC) maps are an essential tool in ecosystem monitoring providing information on different types of physical cover of the Earth's surface (e.g. forests, grasslands, croplands). Nowadays, an increasing number of satellite missions generate huge amounts of free and open data. In particular, satellite image time series (SITS), such as the ones produced by Sentinel-2, offer high temporal, spectral and spatial resolutions and provide relevant information about vegetation dynamics. Combined with machine learning algorithms, they allow the production of frequent and accurate LULC maps. This thesis is focused on the development of pixel-based supervised classification algorithms for the production of LULC maps at large scale. Four main challenges arise in an operational context. Firstly, unprecedented amounts of data are available and the algorithms need to be adapted accordingly. Secondly, with the improvement in spatial, spectral and temporal resolutions, the algorithms should be able to take into account correlations between the spectro-temporal features to extract meaningful representations for the purpose of classification. Thirdly, in wide geographical coverage, the problem of non-stationarity of the data arises, therefore the algorithms should be able to take into account this spatial variability. Fourthly, because of the different satellite orbits or meteorological conditions, the acquisition times are irregular and unaligned between pixels, thus, the algorithms should be able to work with irregular and unaligned SITS. This work has been divided into two main parts. The first PhD contribution is the development of stochastic variational Gaussian Processes (SVGP) on massive data sets. The proposed Gaussian Processes (GP) model can be trained with millions of samples, compared to few thousands for traditional GP methods. The spatial and spectro-temporal structure of the data is taken into account thanks to the inclusion of the spatial information in bespoke composite covariance functions. Besides, this development enables to take into account the spatial information and thus to be robust to the spatial variability of the data. However, the time series are linearly resampled independently from the classification. Therefore, the second PhD contribution is the development of an end-to-end learning by combining a time and space informed kernel interpolator with the previous SVGP classifier. The interpolator embeds irregular and unaligned SITS onto a fixed and reduced size latent representation. The obtained latent representation is given to the SVGP classifier and all the parameters are jointly optimized w.r.t. the classification task. Experiments were run with Sentinel-2 SITS of the full year 2018 over an area of 200 000 km^2 (about 2 billion pixels) in the south of France (27 MGRS tiles), which is representative of an operational setting. Results show that both methods (i.e. SVGP classifier with linearly interpolated time series and the spatially kernel interpolator combined with the SVGP classifier) outperform the method used for current operational systems (i.e. Random Forest with linearly interpolated time series using spatial stratification)
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía