Auswahl der wissenschaftlichen Literatur zum Thema „Caractéristique extraction“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Caractéristique extraction" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Caractéristique extraction"

1

Fradet, Clémence, Florian Lacroix, Gaëlle Berton, Stéphane Méo und Eric Le Bourhis. „Extraction des proprietes mecaniques locales d’un elastomere par nanoindentation : developpement des protocoles et application“. Matériaux & Techniques 105, Nr. 1 (2017): 109. http://dx.doi.org/10.1051/mattech/2017013.

Der volle Inhalt der Quelle
Annotation:
La réponse mécanique locale d’un fluoroélastomère est présentée au travers de résultats de nanoindentation. Les propriétés des élastomères présentent notamment une dépendance à la vitesse de sollicitation et sont ainsi impactées par les variables du protocole expérimental choisies, telles que la force maximale appliquée ou les vitesses de chargement. Cette caractéristique, intrinsèque à ce type de matériaux, est considérée avec soin dans le cadre d’essais à échelle globale et doit, au même titre, faire l’objet d’une attention particulière lors d’essais de nanoindentation. L’objectif de cette étude est d’appréhender l’impact de la dépendance au temps des élastomères lors de leur caractérisation en nanoindentation. In fine, les investigations doivent pouvoir mener à une méthodologie robuste capable de donner des mesures quantitatives des propriétés mécaniques locales d’élastomères de pièces réelles industrielles. Ce papier dresse donc une description de la technique de nanoindentation appliquée aux élastomères et discute les résultats qui apparaissent clairement dépendants de la manière dont les essais sont conduits. Enfin, les éléments apportés par cette prospection ont été appliqués à la caractérisation d’un composite multicouche caoutchouc/polymère. Cette étude applicative a prouvé l’aptitude de la nanoindentation à détecter des gradients de propriétés au sein du composite.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Hureïki, L., und J. P. Croué. „Identification par couplage CG/SM des sous-produits de chloration de deux acides aminés libres, la proline et la méthionine“. Revue des sciences de l'eau 10, Nr. 2 (12.04.2005): 249–64. http://dx.doi.org/10.7202/705280ar.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ces travaux a consiste en l'identification des sous-produits de chloration de deux acides aminés libres, la proline et la méthionine, structures reconnues pour leur grande réactivité avec le chlore. Les expériences ont été conduites a pH 8 pour un taux de chlore fixe à 8 moles de chlore par mole d'acide aminé et un temps de contact de 72 heures. Les sous-produits de chloration ont été extraits successivement par le pentane et le diethyl éther (pH acide et pH basique, extraction suivie d'une dérivation au diazométhane) et identifiés par couplage CG/SM. L'essentiel des sous-produits de chloration identifiés a été observé dans l'extrait éthéré obtenu à pH acide, que ce soit pour la proline ou la méthionine. Les acides dichloroacétique et trichloroacétique, composés retrouvés dans les eaux de surface désinfectées au chlore, ont été détectés pour les deux molécules étudiées. Les travaux effectués avec la proline ont permis d'identifier également la N- chlorodichloroacétamide et la N-chlorotrichloroacétamide. On peut noter également la formation de quelques chloroacides présentant un groupement terminal aldehyde ou nitrile caractéristique, ainsi que des composeé à structure pyrrole. En ce qui concerne la méthionine, les analyses par couplage CG/SM ont permis d'identifier quelques composés organiques chlorosoufrés comme le chlorure de méthyle sulfonyle, le chlorure de chlorométhylesulfonyle et le dichloro-1,1 diméthyle sulfonyle, ainsi que du soufre moléculaire S8.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Pausé, Marie-Sophie, Agnès Tutin, Olivier Kraif und Maximin Coavoux. „Extraction de Phrases Préfabriquées des Interactions à partir d’un corpus arboré du français parlé : une étude exploratoire“. SHS Web of Conferences 138 (2022): 10002. http://dx.doi.org/10.1051/shsconf/202213810002.

Der volle Inhalt der Quelle
Annotation:
Dans cette étude exploratoire, nous nous intéressons aux Phrases Préfabriquées des Interactions (p. ex. c’est clair ; je te jure ; on dirait). Après avoir défini ce type de phrase, nous évaluons dans quelle mesure le corpus arboré Orféopeut être exploité pour extraire et caractériser ces éléments. Les résultats de l’analyse qualitative montrent que le repérage des phrases parenthétiques apparaît plus complexe que pour les clausatifs (propositions indépendantes). Nous montrons aussi comment l’outil Lexicoscope permet, en exploitant la combinatoire lexico-syntaxique et la distribution des éléments entre et à l’intérieur des tours de parole, de mieux cerner les caractéristiques de ces phrases préfabriquées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Choteau, T., A. Lamer, P. Balayé und E. Chazard. „Extraction de caractéristiques pour la réutilisation de données: comment les variables seront-elles transformées et analysées ?“ Revue d'Épidémiologie et de Santé Publique 71 (März 2023): 101466. http://dx.doi.org/10.1016/j.respe.2023.101466.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Servant, Camille, Loïc Chane, Jean-Pascal Kily, Gianni Marangelli und Sarah Gebeile-Chauty. „Dysfonctions cervicales lors du traitement orthodontique : quels sont les facteurs de risque ?“ Revue d'Orthopédie Dento-Faciale 54, Nr. 4 (November 2020): 369–80. http://dx.doi.org/10.1051/odf/2020038.

Der volle Inhalt der Quelle
Annotation:
La prévalence des dysfonctions somatiques cervicales (DSC) est temporairement augmentée durant le traitement orthodontique. L’objectif de cette étude est de rechercher les facteurs prédictifs des DSC inhérents au patient et au traitement. Matériel et méthodes : Nous avons réalisé une étude rétrospective comparative sur 68 patients en cours de traitement multi-attache entre un groupe ayant développé des DSC sévères versus un groupe témoin (DSC absentes, légères à modérées). Les critères étudiés étaient la typologie verticale et la classe molaire, le disjoncteur, le ressort ouvert, les cales de surélévation, les extractions. Nous avons effectué une étude uni- et multivariée. Résultats : Les facteurs de risque pourvoyeurs de DSC sont l’hypo ou l’hyperdivergence, la classe II molaire, les cales de surélévation molaire, les ressorts ouverts. Le disjoncteur serait protecteur. Les extractions constituent un facteur non significatif. Conclusion : L’étude corrobore l’importance de la classe I molaire et de la normodivergence. Une étude complémentaire est nécessaire pour évaluer si ce sont les dispositifs de traitement ou les caractéristiques diagnostiques qu’ils traitent qui sont reliés aux DSC.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Bertrand-Gastaldy, Suzanne, und Gracia Pagola. „L’analyse du contenu textuel en vue de la construction de thésaurus et de l’indexation assistées par ordinateur; applications possibles avec SATO“. Analyse de l’information textuelle 38, Nr. 2 (13.02.2015): 75–89. http://dx.doi.org/10.7202/1028612ar.

Der volle Inhalt der Quelle
Annotation:
L’intervention de l’ordinateur, longtemps réservée aux tâches mécaniques effectuées en aval de l’analyse des documents et de la constitution des thésaurus, se déplace en amont vers l’analyse elle-même. Des logiciels existent désormais qui assistent l’exploration des textes. On montre comment SATO (système d’analyse de textes par ordinateur), utilisé par des chercheurs de plusieurs disciplines, peut faciliter les tâches de contrôle et de structuration du vocabulaire ainsi que l’indexation. On présente ses caractéristiques importantes : possibilité d’ajouter des propriétés aux mots et aux segments textuels, génération de lexiques, analyses lexico-statistiques diverses, définition de sous-ensembles de textes et de lexiques. On examine ensuite l’aide apportée dans l’élaboration de thésaurus : extraction d’unités lexicales simples et complexes, pondération pour faciliter le choix, regroupements divers, repérage en contexte de formes équivalentes, de synonymes, de termes génériques et spécifiques, de termes associés. L’indexation assistée par ordinateur est également illustrée, avec des perspectives d’analyse « sur mesure », de même que plusieurs stratégies d’interrogation. On conclut sur la nécessité de résoudre les questions théoriques auxquelles l’analyse du contenu confronte désormais les spécialistes de l’information.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Ogedegbe, S. O. „Topographic Map Update of Esan Central LGA, Edo State, Nigeria, Using SPOT-5 and ASTER LiDAR Data“. Journal of Geospatial Science and Technology 1, Nr. 1 (01.11.2014): 52–69. http://dx.doi.org/10.54222/afrigist/jgst/v1i1.4.

Der volle Inhalt der Quelle
Annotation:
This study examines the effectiveness and accuracy of SPOT-5 and ASTER LiDAR data satellite images, Global Pos1t1on1ng System (GPS), Digital Terrain Model (DTM), and Geographic Information System (GIS) in carrying out a revision of Nigerian topographic maps at the scale of 1:50,000. The data for the study were collected by extraction of relevant spatial data from the 1964 topographic map, delineation and interpretation of 2009 SPOT-5 data, and field surveys. The landscape changes extracted from SPOT- 5 were used to update the topographic base map and to determine the nature and direction of changes that have taken place in the study area. The findings revealed that changes have occurred in both cultural and relief features over time. The coefficient of correlation and t-test was calculated to show that changes in point, linear and areal features are significant. Also significant were the planh11etric and height accuracies of the revised map. The study shows that satellite data especially SPOT-5 is useful for the revision of topographic maps at scales of 1:50,000 and even larger. And, high-resolution remote sensing at Sm and ASTER data (30m) with GPS (±1.9m) can be used to c.reate a digital elevation model (DEM) on the map which is an essential dataset for complete revision. Cette étude examine l'efficacité et la précision des images satellites de données SPOT-5 et ASTER LiDAR, du système de positionnement global (GPS), du modèle numérique de terrain (MNT) et du système d'information géographique (SIG) pour effectuer une révision des cartes topographiques nigérianes au échelle de 1:50 000. Les données de l'étude ont été recueillies par extraction de données spatiales pertinentes à partir de la carte topographique de 1964, délimitation et interprétation des données SPOT-5 de 2009 et relevés de terrain. Les changements de paysage extraits de SPOT-5 ont été utilisés pour mettre à jour le fond de carte topographique et pour déterminer la nature et la direction des changements qui ont eu lieu dans la zone d'étude. Les résultats ont révélé que des changements se sont produits dans les caractéristiques culturelles et du relief au fil du temps. Le coefficient de corrélation et le test t ont été calculés pour montrer que les changements dans les caractéristiques ponctuelles, linéaires et aréales sont significatifs. Les précisions planimétriques et altimétriques de la carte révisée étaient également importantes. L'étude montre que les données satellitaires, en particulier SPOT-5, sont utiles pour la révision des cartes topographiques à des échelles de 1:50 000 et même plus. De plus, la télédétection haute résolution aux données Sm et ASTER (30 m) avec GPS (± 1,9 m) peut être utilisée pour créer un modèle d'élévation numérique (DEM) sur la carte qui est un ensemble de données essentiel pour une révision complète.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

TRAN, T. SEN, und M. GIROUX. „DISPONIBILITÉ DU PHOSPHORE DANS LES SOLS NEUTRES ET CALCAIRES DU QUÉBEC EN RELATION AVEC LEURS CARACTÉRISTIQUES CHIMIQUES ET PHYSIQUES“. Canadian Journal of Soil Science 67, Nr. 1 (01.02.1987): 1–16. http://dx.doi.org/10.4141/cjss87-001.

Der volle Inhalt der Quelle
Annotation:
Seven chemical methods (Bray-II, Bray-I, North Carolina DA-4, DA10, Mehlich II, Mehlich III and Olsen) and two anion exchange resins (F− and [Formula: see text] forms) were evaluated on 43 soils with pH varying from 6.4 to 7.88. A greenhouse experiment was carried out with ryegrass receiving two treatments (without P fertilization and 150 mg kg−1 soil) on these soils. The Olsen's method and the two anion resins used as reference ones were effectively the better correlated with P uptakes (r = 0.83**–0.87**) and relative yield (R2 = 69.3–70.2%). The Mehlich II, Mehlich III and to a lesser extent Bray-I methods showed good correlations with these reference methods (r = 0.77**–0.83**) and with plant P uptakes (r = 0.73**–0.79**) or relative yields (R2 = 48.9–55.1%). The Bray-II, DA-4 and DA-10 methods may dissolve some calcium phosphates such as apatites or tricalcium phosphate in some soils and thus overestimated their available P content. The P amounts extracted by these methods were less correlated with P uptakes (r = 0.57*–0.67**) or relative yields (R2 = 14.4–31.4%). On the other hand, the DA-4 extractability was diminished in soils containing more than 3% of carbonates. Although the Ca-P was the predominant form in these soils, the P fixation capacity (M) and maximum P buffer (Mb) capacity were mostly related with Al and Fe-oxalate contents. However, the low Mb values obtained from these soils indicated that the P concentration in soil solution is more favored with respect to adsorbed P. Organic matter and clay contents, pH (H2O), exchangeable Ca and carbonate contents had some effects on the extraction capability of some methods without affecting plant P uptakes. Key words: Available P, soil testing, anion exchange resins, soil properties, P fixation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Far, Ali Khazaee. „Towards a Corpus-Based, Decoding Translation Dictionary“. Babel. Revue internationale de la traduction / International Journal of Translation 42, Nr. 3 (01.01.1996): 129–40. http://dx.doi.org/10.1075/babel.42.3.02far.

Der volle Inhalt der Quelle
Annotation:
Abstract A rough sketch of the concept of a decoding translation dictionary is presented based on L2-L1 translators' real and specific needs. The dictionary represents a departure, theoretically and methodologically, from conventional bilingual dictionaries. A distinction is made between single words and single units of meaning. While the former are usually taken as the entries in the conventional bilingual dictionary, the latter are proposed as the entries in the translation dictionary. Certain features of the proposed dictionary are briefly touched upon with reference to the weaknesses of the bilingual dictionary when used as a translation tool, and a corpus-based method for extracting target language equivalents is proposed. Résumé L'article donne un bref aperçu du concept d'un dictionnaire de décodage de la traduction basé sur les besoins réels et spécifiques des traducteurs travaillant dans la langue maternelle. Ce dictionnaire s'écarte des ouvrages bilingues traditionnels, tant du point de vue théorique que méthodologique. L'auteur fait la distinction entre les mots et les ensembles conceptuels. Là où les mots sont généralement utilisés comme entrées dans les dictionnaires bilingues traditionnels, les ensembles conceptuels sont proposés comme entrées dans le dictionnaire de traduction. L'auteur aborde brièvement certaines caractéristiques du dictionnaire proposé en se référant aux points faibles des dictionnaires bilingues utilisés comme outil de traduction. De plus, il propose une méthode basée sur un corpus pour extraire des équivalents dans la langue d'arrivée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Kone, Hervé Cédessia Kéassemon, Nicaise Tetchi Akedrin, Vama Etienne Tia, Fatou Bayoko und Lacina Fanlégué Coulibaly. „Qualités morpho-physiologiques et évaluation du comportement germinatif des graines du théier des savanes (Lippia multiflora Moldenke)“. International Journal of Biological and Chemical Sciences 14, Nr. 6 (06.10.2020): 1988–98. http://dx.doi.org/10.4314/ijbcs.v14i6.5.

Der volle Inhalt der Quelle
Annotation:
La domestication de Lippia multiflora, plantes aux multiples vertus en pharmacopée et médecine est un enjeu de taille en Côte d’Ivoire. Cependant, l’insuffisance de semences, due au faible taux de germination des graines, limite l’extension de sa culture. La présente étude avait pour objectif l’extraction, la purification et la caractérisation morpho-physiologique des graines de Lippia multiflora Moldenke (Verbenaceae). Il s’agissait plus spécifiquement de déterminer la pureté spécifique, le nombre de graines par unité de masse, le diamètre moyen et le taux d’humidité ; le taux de germination des graines de L. multiflora. Aussi, il s’est agi d’étudier l’impact du milieu sur le pouvoir germinatif des graines et de faire un suivi post-germination des plants en milieu réel. Après extraction des graines, des mesures physiques et des tests de germination ont permis de déterminer les caractéristiques morpho-physiologiques de celles-ci. L’étude a montré que le lot de graine étudié a une pureté spécifique de 70%, les graines ont un diamètre moyen de 0,34± 0.1 mm, une teneur en eau de 14±5.4 % et un taux de germination de 42,25%. Les tests de germination après un séjour prolongé dans divers milieux, révèlent qu’un milieu réfrigéré (7° C) confère une plus longue viabilité aux graines. Le suivi post-germination au champ montre une évolution régulière de la hauteur des plants, passant en moyenne de 2,58 cm à 8,8 cm au bout de 3 mois. Sur la même période, le nombre moyen de feuille varie de 4,03 à 21.Mots clés : Lippia multiflora, graine, caractérisation, germination, suivi post-germination. English Title: Morpho-physiological qualities and evaluation of the germination behavior of seeds of the savannah tea tree (Lippia multiflora Moldenke)The domestication of Lippia multiflora, plants with multiple virtues in pharmacopoeia and medicine is a major challenge in Côte d'Ivoire. However, the lack of seed, due to the low germination rate, limits the extension of its cultivation. The purpose of this study was the extraction, purification and morpho-physiological characterization of the seeds of Lippia multiflora Moldenke (Verbenaceae). More specifically, it involved determining the specific purity, the number of seeds per unit mass, the average diameter and the humidity rate; the germination rate of L. multiflora seeds. Also, it was a question of studying the impact of the environment on the germination power of seeds and of making a post-germination follow-up of the plants in real environment. After the seeds extraction, physical measurements and germination tests were carried out to determine the morpho-physiological characteristics. Results showed that the seed lot studied has a specific purity of 70%, an average diameter of 0.34 0.1 mm, a water content of 14 5.4% and a germination rate of 42.25%. Germination tests after a prolonged stay in various environments reveal that a refrigerated area (7 °C) confers a longer viability to the seeds. Post-germination monitoring in the field shows a steady increase in plant height from an average of 2.58 cm to 8.8 cm after 3 months. Over the same period, the average number of sheets varies from 4.03 to 21.Keywords: Lippia multiflora, seed, characterization, germination, post-germination monitoring.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Caractéristique extraction"

1

Pacheco, Do Espirito Silva Caroline. „Feature extraction and selection for background modeling and foreground detection“. Thesis, La Rochelle, 2017. http://www.theses.fr/2017LAROS005/document.

Der volle Inhalt der Quelle
Annotation:
Dans ce manuscrit de thèse, nous présentons un descripteur robuste pour la soustraction d’arrière-plan qui est capable de décrire la texture à partir d’une séquence d’images. Ce descripteur est moins sensible aux bruits et produit un histogramme court, tout en préservant la robustesse aux changements d’éclairage. Un autre descripteur pour la reconnaissance dynamique des textures est également proposé. Le descripteur permet d’extraire non seulement des informations de couleur, mais aussi des informations plus détaillées provenant des séquences vidéo. Enfin, nous présentons une approche de sélection de caractéristiques basée sur le principe d'apprentissage par ensemble qui est capable de sélectionner les caractéristiques appropriées pour chaque pixel afin de distinguer les objets de premier plan de l’arrière plan. En outre, notre proposition utilise un mécanisme pour mettre à jour l’importance relative de chaque caractéristique au cours du temps. De plus, une approche heuristique est utilisée pour réduire la complexité de la maintenance du modèle d’arrière-plan et aussi sa robustesse. Par contre, cette méthode nécessite un grand nombre de caractéristiques pour avoir une bonne précision. De plus, chaque classificateur de base apprend un ensemble de caractéristiques au lieu de chaque caractéristique individuellement. Pour compenser ces limitations, nous avons amélioré cette approche en proposant une nouvelle méthodologie pour sélectionner des caractéristiques basées sur le principe du « wagging ». Nous avons également adopté une approche basée sur le concept de « superpixel » au lieu de traiter chaque pixel individuellement. Cela augmente non seulement l’efficacité en termes de temps de calcul et de consommation de mémoire, mais aussi la qualité de la détection des objets mobiles
In this thesis, we present a robust descriptor for background subtraction which is able to describe texture from an image sequence. The descriptor is less sensitive to noisy pixels and produces a short histogram, while preserving robustness to illumination changes. Moreover, a descriptor for dynamic texture recognition is also proposed. This descriptor extracts not only color information, but also a more detailed information from video sequences. Finally, we present an ensemble for feature selection approach that is able to select suitable features for each pixel to distinguish the foreground objects from the background ones. Our proposal uses a mechanism to update the relative importance of each feature over time. For this purpose, a heuristic approach is used to reduce the complexity of the background model maintenance while maintaining the robustness of the background model. However, this method only reaches the highest accuracy when the number of features is huge. In addition, each base classifier learns a feature set instead of individual features. To overcome these limitations, we extended our previous approach by proposing a new methodology for selecting features based on wagging. We also adopted a superpixel-based approach instead of a pixel-level approach. This does not only increases the efficiency in terms of time and memory consumption, but also can improves the segmentation performance of moving objects
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Mokrane, Abdenour. „Représentation de collections de documents textuels : application à la caractéristique thématique“. Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00401651.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse s'inscrit dans le contexte d'extraction de connaissances à partir de documents textuels, appelé Fouille de textes (FdT) ou Text Mining (TM). Ce mémoire s'articule autour des problématiques liées à la modélisation de documents et la représentation de connaissances textuelles. Il s'intéresse à des collections de documents qui abordent des thématiques différentes. Le mémoire s'attache à élaborer un modèle de représentation et un système permettant d'extraire automatiquement des informations sur les différentes thématiques abordées mais également des mécanismes offrant la possibilité d'avoir des aperçus sur les contenus. Il est montré que les approches basées sur les associations de termes sont adaptées à ce contexte. Cependant, ces approches souffrent de certaines lacunes liées au choix du modèle et de la connaissance à retenir. Pour l'élaboration du modèle de représentation, le choix porte sur l'extension de l'approche d'association de termes. A cet effet, la notion de contexte est étudiée et un nouveau critère appelé « partage de contextes » est défini. Via ce critère, il est possible de détecter des liens entre termes qui n'apparaîtraient pas autrement. L'objectif est de représenter le plus de connaissances possibles. Ces dernières sont exploitées pour une meilleure représentation du contenu et des informations enfouies dans les textes. Un système appelé IC-DOC est réalisé, ce dernier met en oeuvre le modèle de représentation dans un nouvel environnement d'extraction de connaissances à partir de documents textuels. Dans un contexte de veille scientifique, la proposition de ce type de systèmes devient indispensable pour extraire et visualiser de manière automatique l'information contenue dans les collections de documents textuels. L'originalité du système IC-DOC est de tirer profit du modèle de représentation proposé. Une série d'expérimentations et de validations sur divers jeux de données sont réalisées via le système IC-DOC. Deux applications sont considérées. La première s'intéresse à la caractérisation thématique et la seconde étend la première pour une cartographie visuelle de connaissances textuelles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Nguyen, Thanh Tuan. „Représentations efficaces des textures dynamiques“. Electronic Thesis or Diss., Toulon, 2020. https://bu.univ-tln.fr/files/userfiles/file/intranet/travuniv/theses/sciences/2020/2020_Nguyen_ThanhTuan.pdf.

Der volle Inhalt der Quelle
Annotation:
La représentation des textures dynamiques (TD), considérée comme une séquence de textures en mouvement, est un défi en analyse des vidéos dans des applications diverses de la vision par ordinateur. Cela est en partie causé par la désorientation des mouvements, les impacts négatifs des problèmes bien connus dans la capture des caractéristiques turbulentes: bruit, changements d'environnement, illumination, transformations de similarité, mise en échelles, etc. Dans le cadre de cette thèse, nous introduisons des solutions significatives afin de traiter les problèmes ci-dessus. Par conséquent, trois approches principales suivantes sont proposées pour le codage efficace des TDs : i) à partir de trajectoires denses extraites d'une vidéo donnée; ii) basé sur des réponses robustes extraites par des modèles de moment; iii) basé sur des résultats filtrés qui sont calculés par des variantes de noyaux de filtrage gaussien. En parallèle, nous proposons également plusieurs opérateurs discriminants pour capturer les caractéristiques spatio-temporelles des codages de TD ci-dessus. Pour une représentation TD basée sur des trajectoires denses, nous extrayons d'abord des trajectoires denses à partir d'une vidéo donnée. Les points de mouvement le long des trajectoires sont ensuite codés par notre opérateur xLVP, une extension des modèles vectoriels locaux (LVP) dans un contexte de codage complémentaire, afin de capturer des caractéristiques directionnelles basées sur une trajectoire dense pour la représentation efficace de TD. Pour la description TD basée sur des modèles de moment, motivée par un modèle d'images de moment, nous proposons un nouveau modèle de volumes de moment basé sur des informations statistiques des régions de support sphériques centrées sur un voxel. Deux de ces modèles sont ensuite pris en compte dans l'analyse vidéo pour mettre en évidence des images/volumes de moment. Afin d'encoder les images basées sur le moment, nous nous adressons à l'opérateur CLSP, une variante des modèles binaires locaux terminés (CLBP). De plus, notre opérateur xLDP, une extension des modèles de dérivés locaux (LDP) dans un contexte de codage complémentaire, est introduit pour capturer les caractéristiques spatio-temporelles basés sur les volumes des moments. Pour la représentation DT basée sur les filtrages Gaussiens, nous étudierons de nombreux types de filtrages dans l'étape de prétraitement d'une vidéo pour mettre en évidence des caractéristiques robustes. Après cette étape, les sorties sont codées par des variantes de LBP pour construire les descripteurs de TD. Plus concrètement, nous exploitons les noyaux gaussiens et des variantes de gradients gaussiens d'ordre élevé pour le filtrage. En particulier, nous introduisons un nouveau noyau de filtrage (DoDG) en tenant compte de la différence des gradients gaussiens, qui permet de mettre en évidence des composants robustes filtrés par DoDG pour construire des descripteurs efficaces en maintenant une petite dimensionalité. Parallèlement aux filtrages gaussiens, certains novels opérateurs sont introduits pour répondre à différents contextes du codage TD local: CAIP, une adaptation de CLBP pour résoudre le problème proche de zéro causé par des caractéristiques bipolaires; LRP, basé sur un concept de cube carré de voisins locaux; CHILOP, une formulation généralisée de CLBP. Les résultats de reconnaissance TD ont validé que nos propositions fonctionnent de manière significative par rapport à l'état de l'art. Certaines d'entre elles ont des performances très proches des approches d'apprentissage profond. De plus, nos descripteurs qui ont une dimensionalité très petite par rapport à celle des méthodes d'apprentissage profond sont appréciées pour les applications mobiles
Representation of dynamic textures (DTs), well-known as a sequence of moving textures, is a challenge in video analysis for various computer vision applications. It is partly due to disorientation of motions, the negative impacts of the well-known issues on capturing turbulent features: noise, changes of environment, illumination, similarity transformations, etc. In this work, we introduce significant solutions in order to deal with above problems. Accordingly, three streams of those are proposed for encoding DTs: i) based on dense trajectories extracted from a given video; ii) based on robust responses extracted by moment models; iii) based on filtered outcomes which are computed by variants of Gaussian-filtering kernels. In parallel, we also propose several discriminative descriptors to capture spatio-temporal features for above DT encodings. For DT representation based on dense trajectories, we firstly extract dense trajectories from a given video. Motion points along the paths of dense trajectories are then encoded by our xLVP operator, an important extension of Local Vector Patterns (LVP) in a completed encoding context, in order to capture directional dense-trajectory-based features for DT representation.For DT description based on moment models, motivated by the moment-image model, we propose a novel model of moment volumes based on statistical information of spherical supporting regions centered at a voxel. Two these models are then taken into account video analysis to point out moment-based images/volumes. In order to encode the moment-based images, we address CLSP operator, a variant of completed local binary patterns (CLBP). In the meanwhile, our xLDP, an important extension of Local Derivative Patterns (LDP) in a completed encoding context, is introduced to capture spatio-temporal features of the moment-volume-based outcomes. For DT representation based on the Gaussian-based filterings, we will investigate many kinds of filterings as pre-processing analysis of a video to point out its filtered outcomes. After that, these outputs are encoded by discriminative operators to structure DT descriptors correspondingly. More concretely, we exploit the Gaussian-based kernel and variants of high-order Gaussian gradients for the filtering analysis. Particularly, we introduce a novel filtering kernel (DoDG) in consideration of the difference of Gaussian gradients, which allows to point out robust DoDG-filtered components to construct prominent DoDG-based descriptors in small dimension. In parallel to the Gaussian-based filterings, some novel operators will be introduced to meet different contexts of the local DT encoding: CAIP, an adaptation of CLBP to fix the close-to-zero problem caused by separately bipolar features; LRP, based on a concept of a square cube of local neighbors sampled at a center voxel; CHILOP, a generalized formulation of CLBP to adequately investigate local relationships of hierarchical supporting regions. Experiments for DT recognition have validated that our proposals significantly perform in comparison with state of the art. Some of which have performance being very close to deep-learning approaches, expected as one of appreciated solutions for mobile applications due to their simplicity in computation and their DT descriptors in a small number of bins
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Nguyen, Huu-Tuan. „Contributions to facial feature extraction for face recognition“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT034/document.

Der volle Inhalt der Quelle
Annotation:
La tâche la plus délicate d'un système de reconnaissance faciale est la phase d'extraction de caractéristiques significatives et discriminantes. Dans le cadre de cette thèse, nous nous sommes focalisés sur cette tâche avec comme objectif l'élaboration d'une représentation de visage robuste aux variations majeures suivantes: variations d'éclairage, de pose, de temps, images de qualité différentes (vidéosurveillance). Par ailleurs, nous avons travaillé également dans une optique de traitement temps réel. Tout d'abord, en tenant compte des caractéristiques d'orientation des traits principaux du visages (yeux, bouche), une nouvelle variante nommée ELBP de célèbre descripteur LBP a été proposée. Elle s'appuie sur les informations de micro-texture contenues dans une ellipse horizontale. Ensuite, le descripteur EPOEM est construit afin de tenir compte des informations d'orientation des contours. Puis un descripteur nommée PLPQMC qui intégre des informations obtenues par filtrage monogénique dans le descripteur LPQ est proposé. Enfin le descripteur LPOG intégrant des informations de gradient est présenté. Chacun des descripteurs proposés est testé sur les 3 bases d'images AR, FERET et SCface. Il en résulte que les descripteurs PLPQMC et LPOG sont les plus performants et conduisent à des taux de reconnaissance comparables voire supérieur à ceux des meilleurs méthodes de l'état de l'art
Centered around feature extraction, the core task of any Face recognition system, our objective is devising a robust facial representation against major challenges, such as variations of illumination, pose and time-lapse and low resolution probe images, to name a few. Besides, fast processing speed is another crucial criterion. Towards these ends, several methods have been proposed through out this thesis. Firstly, based on the orientation characteristics of the facial information and important features, like the eyes and mouth, a novel variant of LBP, referred as ELBP, is designed for encoding micro patterns with the usage of an horizontal ellipse sample. Secondly, ELBP is exploited to extract local features from oriented edge magnitudes images. By this, the Elliptical Patterns of Oriented Edge Magnitudes (EPOEM) description is built. Thirdly, we propose a novel feature extraction method so called Patch based Local Phase Quantization of Monogenic components (PLPQMC). Lastly, a robust facial representation namely Local Patterns of Gradients (LPOG) is developed to capture meaningful features directly from gradient images. Chiefs among these methods are PLPQMC and LPOG as they are per se illumination invariant and blur tolerant. Impressively, our methods, while offering comparable or almost higher results than that of existing systems, have low computational cost and are thus feasible to deploy in real life applications
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Vachier, Corinne. „Extraction de caractéristiques, segmentation d'image et morphologie mathématique“. Phd thesis, École Nationale Supérieure des Mines de Paris, 1995. http://pastel.archives-ouvertes.fr/pastel-00004230.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se propose d'explorer de nouvelles méthodes morphologiques permettant d'extraire les caractéristiques des régions qui composent une image. Ces méthodes sont en- suite destinées à être appliquées au problème de la segmentation d'image. Nous présentons tout d'abord deux approches classiques du problème de l'extraction de caractéristiques : celles basées sur les granulométries (opérations de tamisage) et celles basées sur l' étude des extrema des images numériques, en consacrant une attention particulière à la notion de dynamique. La dynamique value les extrema d'une image selon le contraste des régions qu'ils marquent ; nous montrons qu'elle équivaut à une opération de tamisage en contraste et que son principe rejoint celui des granulométries. Nous nous concentrons ensuite sur une généralisation du principe de la dynamique. Nous basons notre approche sur les opérateurs morphologiques connexes. Ces opérateurs ont pour spécificité d'agir sur les images en fusionnant leurs zones plates. Lorsqu'on ap- plique des opérateurs connexes de plus en plus sélectifs, des régions de l'image disparais- sent progressivement. Le niveau pour lequel une région disparaît caractérise la région au sens du critère du filtrage (en forme, en taille, en contraste, en volume...). Ceci nous conduit à introduire une nouvelle classe de transformations morphologiques, les fonctions d'extinction, qui valuent les extrema des images numériques selon les caractéristiques des régions qu'ils marquent. Une particularité importante des fonctions d'extinction, mise en évidence par l'algorithme de calcul efficace que nous proposons, est de fournir une descrip- tion hiérarchique des régions de l'image. Ceci se traduit, dans le calcul algorithmique, par la construction d'un arbre de fusion des extrema de l'image. Les fonctions d'extinction peuvent être utilisées pour sélectionner les régions perti- nentes d'une image et sont donc de grand intérêt dans les applications de filtrage et surtout de segmentation d'image (pour extraire les marqueurs des régions avant le cal- cul de la ligne de partage des eaux). Ce dernier point fait l'objet d'une étude appro- fondie. Nous donnons de nombreux exemples permettant d'illustrer leur intérêt pour la segmentation d'images complexes. Les résultats obtenus par cette méthode sont com- parés à ceux déduits de méthodes de marquage plus traditionnelles. L'apport le plus significatif des fonctions d'extinction pour la segmentation d'image est de systématiser et de simplifier considérablement la mise au point des algorithmes. Notamment, elles perme- ttent de mettre en oeuvre des processus rapides de segmentation hi érarchique interactive.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Auclair, Fortier Marie-Flavie. „Extraction de caractéristiques contours multispectraux, contours de texture et routes“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0021/MQ56853.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Hanifi, Majdoulayne. „Extraction de caractéristiques de texture pour la classification d'images satellites“. Toulouse 3, 2009. http://thesesups.ups-tlse.fr/675/.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le cadre général du traitement des données multimédias. Nous avons plus particulièrement exploité les images satellitaires pour la mise en application de ces traitements. Nous nous sommes intéressés à l'extraction de variables et de caractéristiques texturelles ; nous avons proposé une nouvelle méthode de pré-traitement des textures afin d'améliorer l'extraction de ces attributs caractéristiques. L'augmentation de la résolution des satellites récents a, paradoxalement, perturbé les chercheurs lors des premières classifications sur des données à haute résolution. Les cartes très homogènes, obtenues jusqu'alors en moyenne résolution, devenaient très fragmentées et difficiles à utiliser avec les mêmes algorithmes de classification. Une façon de remédier à ce problème consiste à caractériser le pixel en cours de classification par des paramètres mesurant l'organisation spatiale des pixels de son voisinage. Il existe plusieurs approches à l'analyse de texture dans les images. Dans le cadre des images satellitaires, l'approche statistique semble être habituellement retenue, ainsi que les méthodes des matrices de cooccurrences et du corrélogramme, basées sur l'analyse statistique au deuxième ordre (au sens des probabilités sur des couples de pixels). Et ce sont les deux dernières méthodes sur lesquelles nous allons se baser pour en extraire l'information texturelle sous forme d'un vecteur. Ces matrices présentent des inconvénients, tels que la taille mémoire nécessaire et le temps de calcul des paramètres élevé. Pour contourner ce problème, nous avons cherché une méthode de réduction du nombre de niveaux de gris appelée codage de rang (permettant de passer, dans un premier temps de 256 niveaux à 9 niveaux de gris, puis ensuite pour améliorer la qualité de l'image, passer de 9 à 16 niveaux de gris), tout en conservant la structure et la texture de l'image. L'ensemble de cette thèse a donc permis de montrer que la méthode de codage est une meilleure façon pour compresser une image sans toutefois perdre de l'information texturelle. Il permet de réduire la taille des données, ce qui réduira le temps de calcul des caractéristiques
This thesis joins in the general frame of the multimedia data processing. We particularly exploited the satellite images for the application of these treatments. We were interested in the extraction of variables and texturelles characteristics; we proposed a new method of pre-treatment of textures to improve the extraction of these characteristic attributes. The increase of the resolution of the satellites disrupted, paradoxically, the researchers during the first classifications on high-resolution data. The very homogeneous maps, obtained until then on average resolution, became very split up and difficult to use with the same algorithms of classification. A way of remedying this problem consists in characterizing the pixel in the classification by parameters measuring the spatial organization of the pixels of its neighbourhood. There are several approaches in the analysis of texture in the images. Within the framework of the satellite images, the statistical approach seems to be usually retained, as well as the methods of the cooccurrence matrix and the corrélogramme, based on the statistical analysis in the second order (in the sense of the probability on couples of pixels). And they are the last two methods on which we are going to base to extract the texturelle information from it in the form of a vector. These matrices present some drawbacks, such as the required memory size and the high calculation time of the parameters. To by-pass this problem, we looked for a method of reduction of the number of grey levels called rank coding (allowing to pass, at first of 256 levels at 9 grey levels, and then to improve the quality of the image, passing to 16 grey levels, while keeping the structure and the texture of the image. This thesis allowed to show that the method of coding is a better way to compress an image without losing however of the texturelle information. It allows to reduce the size of the data, what will reduce the calculation time of the characteristics
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Zubiolo, Alexis. „Extraction de caractéristiques et apprentissage statistique pour l'imagerie biomédicale cellulaire et tissulaire“. Thesis, Nice, 2015. http://www.theses.fr/2015NICE4117/document.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de s'intéresser à la classification de cellules et de tissus au sein d'images d'origine biomédicales en s'appuyant sur des critères morphologiques. Le but est de permettre aux médecins et aux biologistes de mieux comprendre les lois qui régissent certains phénomènes biologiques. Ce travail se décompose en trois principales parties correspondant aux trois problèmes typiques des divers domaines de l'imagerie biomédicale abordés. L'objet de la première est l'analyse de vidéos d'endomicroscopie du colon dans lesquelles il s'agit de déterminer automatiquement la classe pathologique des polypes qu'on y observe. Cette tâche est réalisée par un apprentissage supervisé multiclasse couplant les séparateurs à vaste marge à des outils de théorie des graphes. La deuxième partie s'intéresse à l'étude de la morphologie de neurones de souris observés par microscopie confocale en fluorescence. Afin de disposer d'une information riche, les neurones sont observés à deux grossissements, l'un permettant de bien caractériser les corps cellulaires, l'autre, plus faible, pour voir les dendrites apicales dans leur intégralité. Sur ces images, des descripteurs morphologiques des neurones sont extraits automatiquement en vue d'une classification. La dernière partie concerne le traitement multi-échelle d'images d'histologie digitale dans le contexte du cancer du rein. Le réseau vasculaire est extrait et mis sous forme de graphe afin de pouvoir établir un lien entre l'architecture vasculaire de la tumeur et sa classe pathologique
The purpose of this Ph.D. thesis is to study the classification based on morphological features of cells and tissues taken from biomedical images. The goal is to help medical doctors and biologists better understand some biological phenomena. This work is spread in three main parts corresponding to the three typical problems in biomedical imaging tackled. The first part consists in analyzing endomicroscopic videos of the colon in which the pathological class of the polyps has to be determined. This task is performed using a supervised multiclass machine learning algorithm combining support vector machines and graph theory tools. The second part concerns the study of the morphology of mice neurons taken from fluorescent confocal microscopy. In order to obtain a rich information, the neurons are imaged at two different magnifications, the higher magnification where the soma appears in details, and the lower showing the whole cortex, including the apical dendrites. On these images, morphological features are automatically extracted with the intention of performing a classification. The last part is about the multi-scale processing of digital histology images in the context of kidney cancer. The vascular network is extracted and modeled by a graph to establish a link between the architecture of the tumor and its pathological class
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Alioua, Nawal. „Extraction et analyse des caractéristiques faciales : application à l'hypovigilance chez le conducteur“. Thesis, Rouen, INSA, 2015. http://www.theses.fr/2015ISAM0002/document.

Der volle Inhalt der Quelle
Annotation:
L'étude des caractéristiques faciales a suscité l'intérêt croissant de la communauté scientifique et des industriels. En effet, ces caractéristiques véhiculent des informations non verbales qui jouent un rôle clé dans la communication entre les hommes. De plus, elles sont très utiles pour permettre une interaction entre l'homme et la machine. De ce fait, l'étude automatique des caractéristiques faciales constitue une tâche primordiale pour diverses applications telles que les interfaces homme-machine, la science du comportement, la pratique clinique et la surveillance de l'état du conducteur. Dans cette thèse, nous nous intéressons à la surveillance de l'état du conducteur à travers l'analyse de ses caractéristiques faciales. Cette problématique sollicite un intérêt universel causé par le nombre croissant des accidents routiers, dont une grande partie est provoquée par une dégradation de la vigilance du conducteur, connue sous le nom de l'hypovigilance. En effet, nous pouvons distinguer trois états d'hypovigilance. Le premier, et le plus critique, est la somnolence qui se manifeste par une incapacité à se maintenir éveillé et se caractérise par les périodes de micro-sommeil correspondant à des endormissements de 2 à 6 secondes. Le second est la fatigue qui se définit par la difficulté croissante à maintenir une tâche à terme et se caractérise par une augmentation du nombre de bâillements. Le troisième est l'inattention qui se produit lorsque l'attention est détournée de l'activité de conduite et se caractérise par le maintien de la pose de la tête en une direction autre que frontale. L'objectif de cette thèse est de concevoir des approches permettant de détecter l'hypovigilance chez le conducteur en analysant ses caractéristiques faciales. En premier lieu, nous avons proposé une approche dédiée à la détection de la somnolence à partir de l'identification des périodes de micro-sommeil à travers l'analyse des yeux. En second lieu, nous avons introduit une approche permettant de relever la fatigue à partir de l'analyse de la bouche afin de détecter les bâillements. Du fait qu'il n'existe aucune base de données publique dédiée à la détection de l'hypovigilance, nous avons acquis et annoté notre propre base de données représentant différents sujets simulant des états d'hypovigilance sous des conditions d'éclairage réelles afin d'évaluer les performances de ces deux approches. En troisième lieu, nous avons développé deux nouveaux estimateurs de la pose de la tête pour permettre à la fois de détecter l'inattention du conducteur et de déterminer son état, même quand ses caractéristiques faciales (yeux et bouche) ne peuvent être analysées suite à des positions non-frontales de la tête. Nous avons évalué ces deux estimateurs sur la base de données publique Pointing'04. Ensuite, nous avons acquis et annoté une base de données représentant la variation de la pose de la tête du conducteur pour valider nos estimateurs sous un environnement de conduite
Studying facial features has attracted increasing attention in both academic and industrial communities. Indeed, these features convey nonverbal information that plays a key role in humancommunication. Moreover, they are very useful to allow human-machine interactions. Therefore, the automatic study of facial features is an important task for various applications includingrobotics, human-machine interfaces, behavioral science, clinical practice and monitoring driver state. In this thesis, we focus our attention on monitoring driver state through its facial features analysis. This problematic solicits a universal interest caused by the increasing number of road accidents, principally induced by deterioration in the driver vigilance level, known as hypovigilance. Indeed, we can distinguish three hypovigilance states. The first and most critical one is drowsiness, which is manifested by an inability to keep awake and it is characterized by microsleep intervals of 2-6 seconds. The second one is fatigue, which is defined by the increasing difficulty of maintaining a task and it is characterized by an important number of yawns. The third and last one is the inattention that occurs when the attention is diverted from the driving activity and it is characterized by maintaining the head pose in a non-frontal direction.The aim of this thesis is to propose facial features based approaches allowing to identify driver hypovigilance. The first approach was proposed to detect drowsiness by identifying microsleepintervals through eye state analysis. The second one was developed to identify fatigue by detecting yawning through mouth analysis. Since no public hypovigilance database is available,we have acquired and annotated our own database representing different subjects simulating hypovigilance under real lighting conditions to evaluate the performance of these two approaches. Next, we have developed two driver head pose estimation approaches to detect its inattention and also to determine its vigilance level even if the facial features (eyes and mouth) cannot be analyzed because of non-frontal head positions. We evaluated these two estimators on the public database Pointing'04. Then, we have acquired and annotated a driver head pose database to evaluate our estimators in real driving conditions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Amara, Mounir. „Segmentation de tracés manuscrits. Application à l'extraction de primitives“. Rouen, 1998. http://www.theses.fr/1998ROUES001.

Der volle Inhalt der Quelle
Annotation:
Ce travail expose la modélisation de courbes par des éléments de droites, cercles et côniques dans une même formulation grâce à un filtrage étendu de Kalman. L'application est la segmentation des tracés manuscrits par une succession de primitives géométriques. Pour l'ajustement, nous décrivons les différentes courbes par des équations cartésiennes. Ces équations sont soumises à une contrainte de normalisation de manière à obtenir une estimation précise et robuste des paramètres des primitives géométriques. Ces deux équations, écrites sous forme implicite, constituent le système d'observation. Leur linéarisation est effectuée par un développement de Taylor au premier ordre. L'équation d'état du système est fixée constante pour spécifier la description d'une seule forme. La formulation de l'estimation récursive des paramètres utilise un filtre étendu de Kalman qui minimise une erreur quadratique, la distance d'un point à une forme, pondérée par la covariance du bruit d'observation. Pour reconstruire un tracé manuscrit, nous définissons une stratégie de changement de modèles. Dans notre cas, leur détection est fondée soit sur des critères spatio-temporels, en utilisant la dynamique du tracé manuscrit, soit sur des critères purement géométriques. Nous appliquons notre méthodologie à la segmentation de tracés réels constitués de chiffres ou de lettres manuscrites. Nous montrons que les différentes méthodes que nous avons développées permettent de reconstruire en temps réel, de façon précise, robuste, complète et totalement autonome, un tracé manuscrit quelconque. Ces méthodes autorisent un codage des tracés manuscrits: une stratégie est mise en œuvre pour la sélection de la primitive la plus significative au sens d'un critère approprié Nous proposons une démarche qui tient compte du taux de réduction de données et de la précision de la description. Ces méthodes ont l'avantage de réduire considérablement la quantité d'information initiale tout en gardant la partie informative. Elles ont été appliquées sur des tracés manuscrits réels en vue de l'analyse de dessins ou d'écritures d'enfants de scolarité primaire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie