Academic literature on the topic 'Données étiquetées'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Données étiquetées.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Données étiquetées"

1

Brunet, Etienne. "Qui lemmatise dilemme attise." Scolia 13, no. 1 (2000): 7–32. http://dx.doi.org/10.3406/scoli.2000.1218.

Full text
Abstract:
Après trente ans de controverses, le débat sur la lemmatisation s'apaise au moment où les programmes d'étiquetage et de codage grammatical sont enfin sur le marché. On s'emploie ici à comparer les résultats qu'on obtient pour un même corpus en traitant successivement les formes brutes, puis les données étiquetées, puis les lemmes dûment reconnus. Sur des données empruntées à des sources variées (programme Francil, monographie de Le Clézio, littérature latine recensée au LASLA), l'expérimentation montre que les méthodes se rejoignent lorsque la totalité du vocabulaire est prise en compte, notamment dans la mesure de la distance lexicale. Mais lorsque l'étude porte sur des distributions particulières, les données lemmatisées offrent une garantie supérieure.
APA, Harvard, Vancouver, ISO, and other styles
2

Embarki, Mohamed, Oussama Barakat, Thibaut Desmettre, and Stephan Robert-Nicoud. "Extraction de la prosodie émotionnelle des appels téléphoniques aux services de régulation médicale des urgences des hôpitaux en France et en Suisse." Langages N° 234, no. 2 (May 29, 2024): 135–56. http://dx.doi.org/10.3917/lang.234.0135.

Full text
Abstract:
Cette contribution s’intéresse à la prosodie émotionnelle contenue dans les appels téléphoniques aux services des urgences médicales au CHRU de Besançon et au CHUV de Lausanne. 115 appels téléphoniques ont été extraits des deux bases de données, française et suisse. Les enregistrements audio ont d’abord été totalement anonymisés, puis segmentés en énoncés complets et enfin étiquetés en fonction de l’émotion perçue. Seuls les énoncés contenant une émotion à valence négative ont été ciblés pour la suite de l’étude. 1 566 énoncés différents ont été sélectionnés et soumis pour évaluation à 3 étudiantes francophones natives. Les 1 143 énoncés ayant reçu des étiquetages convergents de la part des 3 évaluatrices ont été analysés. La fréquence fondamentale ( f o ) est le paramètre acoustique le plus discriminant, les différences entre types d’émotion sont significatives.
APA, Harvard, Vancouver, ISO, and other styles
3

Hoët-van Cauwenberghe, Christine, and Alain Jacques. "Artisanat et commerce : l’apport des étiquettes de plomb inscrites découvertes à Arras (Nemetacum)." Revue des Études Anciennes 112, no. 2 (2010): 295–317. http://dx.doi.org/10.3406/rea.2010.6669.

Full text
Abstract:
À la suite d’un diagnostic réalisé en juin 2004, le service archéologique d’Arras a mené une fouille de mars à décembre 2005 sur l’emplacement du futur parking souterrain. Ces fouilles viennent utilement compléter nos informations sur l’occupation primitive de la ville antique. Nous rappellerons d’abord l’importance de la ville de Nemetacum, capitale de la cité des Atrébates, en faisant le point tout particulièrement sur les données liées à l’artisanat. Des petites étiquettes de plomb découvertes (dont 6 étiquettes inscrites) dans un atelier de bronzier nous aident à mieux connaître le poids de la vie économique et sociale à Nemetacum.
APA, Harvard, Vancouver, ISO, and other styles
4

Shaffer, Ryan, and Benjamin Shearn. "Performing Unsupervised Machine Learning on Intelligence: An Analysis of Colonial Kenya Reports." Études françaises de renseignement et de cyber N° 2, no. 1 (June 4, 2024): 211–38. http://dx.doi.org/10.3917/efrc.232.0211.

Full text
Abstract:
Cet article applique une classification « zero-shot » aux rapports de services de renseignement déclassifiés par le gouvernement kenyan et couvrant la période coloniale britannique qui a précédé la révolte des Mau Mau et l’état d’urgence de 1952. La classification « zero-shot » (catégorisant les documents sans exemples étiquetés des catégories) est devenue fonctionnelle avec l’arrivée des grands modèles de langage (LLM), une avancée récente dans le domaine du traitement automatique des langues (TAL). Cet article démontre comment un apprentissage automatique non supervisé peut être utilisé par les chercheurs et les praticiens du renseignement pour analyser des milliers de rapports de services de renseignement sans rapports étiquetés et données d’entraînement, ou sans la capacité d’entraîner des modèles traditionnels de classification de documents.
APA, Harvard, Vancouver, ISO, and other styles
5

Blanco Escoda, Xavier. "Introduction." Langues & Parole 5 (November 30, 2020): 7–21. http://dx.doi.org/10.5565/rev/languesparole.61.

Full text
Abstract:
Ont contribué à ce numéro des chercheurs ayant participé à la planification, réalisation ou exploitation de dictionnaires à large couverture, qu’il s’agisse de ressources disponibles, de descriptions en cours ou de productions en phase de prototype. Leurs descriptions incluent des réalisations lexicographiques diverses, comme des réseaux lexicaux multidimensionnels, des lexiques de compilation coopérative, des corpus étiquetés, des bases de données terminologiques, entre autres.
APA, Harvard, Vancouver, ISO, and other styles
6

Merolla, Jennifer L., Laura B. Stephenson, and Elizabeth J. Zechmeister. "Can Canadians Take a Hint? The (In)Effectiveness of Party Labels as Information Shortcuts in Canada." Canadian Journal of Political Science 41, no. 3 (September 2008): 673–96. http://dx.doi.org/10.1017/s0008423908080797.

Full text
Abstract:
Abstract. This paper examines the usefulness of Canadian political party labels as information shortcuts. We supplement survey data analysis with the results of an experiment that tested whether knowing a party's position on an issue influenced opinion expression. We find that, contrary to findings in other countries, among our subject pool, Canadian political parties are not consistently useful as information cues. The Liberal party cue is hardly useful, and while the Conservative party cue can be effective, it appears to push partisans toward a more liberal stance on selected opinions. Only the NDP cue appears to influence opinions in the expected direction. These mixed findings run counter to foundational works on party labels as information shortcuts (mostly focused on US politics) and, instead, are consistent with previous scholarship on Canadian politics.Résumé. Cet article examine l'utilité des étiquettes politiques des partis canadiens comme sources d'information sommaire. Nous analysons des données d'enquête ainsi que les résultats d'un sondage visant à déterminer si le fait de connaître la position d'un parti sur une question donnée influençait l'expression des opinions. Contrairement aux résultats obtenus dans d'autres pays, nous constatons chez les sujets observés que les étiquettes des partis politiques canadiens ne sont pas uniformément utiles comme sources d'information sommaire. L'étiquette du Parti libéral s'avère à peine utile, tandis que l'étiquette du Parti conservateur, peut-être plus efficace, semble inciter les partisans à une position plus libérale. Seule l'étiquette du NPD semble influencer les avis dans la direction prévue. Ces conclusions mixtes contredisent des travaux fondamentaux sur le même sujet (portant pour la plupart sur la politique aux États-Unis) et confirment plutôt les études antérieures sur la politique canadienne.
APA, Harvard, Vancouver, ISO, and other styles
7

Pelletier, Jean-François, Denise Fortin, and Julie Bordeleau. "Pour nous, être citoyens à part entière, ça veut dire…" Santé mentale au Québec 39, no. 1 (July 10, 2014): 311–24. http://dx.doi.org/10.7202/1025919ar.

Full text
Abstract:
L’un des quatre principaux chapitres du document de consultation proposé par le ministère de la Santé et des Services sociaux du Québec, en préparation du Forum national sur le Plan d’action en santé mentale 2014-2020, est consacré au plein exercice de la citoyenneté. Ce témoignage est le fruit d’un dialogue tenu entre la direction générale d’un institut universitaire en santé mentale québécois et d’un groupe de personnes utilisatrices de services qui prennent part au Projet citoyen au Centre de recherche de ce même institut. Les résultats préliminaires de la validation d’une nouvelle mesure de la citoyenneté ont été utilisés pour structurer et faire progresser ce dialogue. Cette étude de cas illustre une façon de trianguler des données issues d’une recherche participative et au sein de laquelle des personnes utilisatrices de services de santé mentale ont été des partenaires de recherche à part entière. Ces pairs assistants de recherche ont notamment assumé la collecte des données auprès de 178 autres personnes utilisatrices de services de santé mentale qui ont répondu à l’échelle de la citoyenneté. Ils ont aussi animé des groupes de discussion autour des résultats préliminaires, notamment pour donner des étiquettes aux domaines émergeant des premières analyses statistiques. Ils ont ensuite dialogué avec la directrice générale venue tremper dans le Projet citoyen, et ce témoignage reflète la teneur de ce dialogue.
APA, Harvard, Vancouver, ISO, and other styles
8

Kehinde, O. O., G. E. O. Makinde, O. Agbato, O. O. Adebowale, O. J. Awoyomi, and O. G. Fasanmi. "Evaluation of dynamics and prevalence of microbial flora of soaked dry meats (Kundi and Ponmo) in Nigeria." Nigerian Journal of Animal Production 48, no. 6 (January 18, 2022): 77–87. http://dx.doi.org/10.51791/njap.v48i6.3278.

Full text
Abstract:
The manner in which dry meat is prepared in under developed countries is highly unhygienic. Preserved meats (kundi and ponmo) were obtained from three food markets in Ibadan and were properly labelled. Samples cut into 50 grams were taken to the laboratory and soaked for 0, 6, 12, 18 and 24 hours. Water used for soaking and homogenised meat samples were cultured for Salmonella, Campylobbacter, E. coli, total bacterial count (TBC), total coliform count (TCC). Data were subjected to analysis of variance (ANOVA). Comparison of microbial loads for all the parameters measured due to effects of soaking had no significant (p>0.05) differences on kundi and ponmo, and the water for soaking. There was a significant 5 5 increase of microbial load for kundi water from 0.94 ×10 cfu/g at 0hr to 4.93×10 cfu/g at 24hr for total bacterial count(TBC) at p<0.05. The highest bacterial prevalence was the isolates from Escherichia coli in water for soaking Kundi, while the highest fungal prevalence was isolates from Aspergillus niger in water for soaking ponmo. The microbial load was lesser for ponmo than kundi and the soaking of the dried meat in water over a period of time reduced the microbial load in the preserved meat with the lowest microbial count found after 24hours.It is recommended that consumers of dried meat should endeavour to soak this meat for a minimum of 24hours before they are utilized. La manière dont la viande sèche est préparée dans les pays sous-développés est très peu hygiénique. Les viandes conservées (kundi et ponmo) provenaient de trois marchés alimentaires d'Ibadan et étaient correctement étiquetées. Des échantillons coupés en 50 grammes ont été amenés au laboratoire et trempés pendant 0, 6, 12, 18 et 24 heures. L'eau utilisée pour le trempage et les échantillons de viande homogénéisée ont été cultivés pour Salmonella, Campylobbacter, E. coli, le nombre total de bactéries (NTB), le nombre total de coliformes (NTC). Les données ont été soumises à une analyse de variance (ANOVA). La comparaison des charges microbiennes pour tous les paramètres mesurés en raison des effets du trempage n'a révélé aucune différence significative (p> 0,05) sur le kundi et le ponmo, et sur l'eau de trempage. Il y a eu une augmentation significative de la charge microbienne pour l'eau de kundi de 0,94 × 105 cfu/g à 0 h à 4,93 × 105 cfu/g à 24 h pour le nombre total de bactéries (NTB) à p < 0,05. La prévalence bactérienne la plus élevée était les isolats d'Escherichia coli dans l'eau pour faire tremper Kundi, tandis que la prévalence fongique la plus élevée était les isolats d'Aspergillus niger dans l'eau pour faire tremper le ponmo. La charge microbienne était moindre pour le ponmo que pour le kundi et le trempage de la viande séchée dans l'eau sur une période de temps a réduit la charge microbienne dans la viande conservée avec le plus faible nombre de microbes trouvés après 24 heures. Il est recommandé aux consommateurs de viande séchée de s'efforcer faire tremper cette viande pendant au moins 24 heures avant de l'utiliser
APA, Harvard, Vancouver, ISO, and other styles
9

Poulin, Carole, and Maurice Lévesque. "Les représentations sociales des étiquettes associées à la maladie mentale." Santé mentale au Québec 20, no. 1 (September 11, 2007): 119–36. http://dx.doi.org/10.7202/032336ar.

Full text
Abstract:
RÉSUMÉ Le contexte social lié à la désinstitutionnalisation nous a amenés à nous interroger sur l'impact des étiquettes apposées aux personnes ayant un vécu psychiatrique. Le but de cette recherche est de saisir les nuances qu'apporte la population dans les appellations suivantes: le malade mental, l'ex-patient psychiatrique et la personne souffrant d'un problème de santé mentale. Les données recueillies auprès de 255 résidents francophones de la région de Montréal indiquent que l'expression « expatient psychiatrique » s'avère moins stigmatisante que les expressions « malade mental » ou « personne souffrant d'un problème de santé mentale » (PSPSM) puisqu'elle fait référence à un événement du passé, lequel est révolu. L'appellation « malade mental » met l'accent sur la chronicité du problème de santé dont souffre l'individu; celle de PSPSM accentue le potentiel de guérison de la personne; et celle d'« ex-patient psychiatrique » fait état de la capacité de fonctionner adéquatement dans la société.
APA, Harvard, Vancouver, ISO, and other styles
10

Bélenguier, Luc. "Hémiptères Pentatomoidea des collections du muséum Henri-Lecoq de Clermont-Ferrand." BIOM - Revue scientifique pour la biodiversité du Massif central 2, no. 1 (June 1, 2021): 19–33. http://dx.doi.org/10.52497/biom.v2i1.285.

Full text
Abstract:
L’inventaire des hémiptères Pentatomoidea des collections du muséum Henri-Lecoq a été réalisé en 2019. Six collections de naturalistes auvergnats rassemblant 210 spécimens ont été inventoriées. Cinq familles parmi les Pentatomoidea sont étudiées. Les données originales figurant sur les étiquettes et les identifications de 2019 sont présentées afin de valoriser cette connaissance historique et naturaliste. Les spécimens sont majoritairement originaires d’Auvergne mais concernent douze départements français métropolitains au total. La période couverte par les collectes s’étend de 1900 à 2005. Certains spécimens apportent des informations utiles sur la répartition des espèces au regard des connaissances actuelles.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Données étiquetées"

1

Leclerc, Gabriel. "Apprendre de données positives et non étiquetées : application à la segmentation et la détection d'évènements calciques." Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69813.

Full text
Abstract:
Deux types de neurotransmission se produisent dans les neurones du cerveau : la transmission évoquée et la transmission spontanée. Contrairement à la transmission évoquée, le rôle de la transmission spontanée sur la plasticité synaptique - un mécanisme utilisé pour doter le cerveau de capacités d'apprentissage et de mémorisation - reste incertain. Les neurotransmissions spontanées sont localisées et se produisent aléatoirement dans les synapses des neurones. Lorsqu'un tel événement spontané se produit, ce que l'on appelle un influx synaptique miniature d'ions calcium (miniature Synaptic Ca²⁺ Transient, mSCT), des ions calcium messagers secondaires pénètrent dans la synapse, activant les voies de signalisation en aval de la plasticité synaptique. L'utilisation de l'imagerie calcique du neurone in vitro permet la visualisation spatiotemporelle de l'entrée des ions calcium. Les vidéos calciques qui en résultent permettent une étude quantitative de l'impact du mSCT sur la plasticité synaptique. Cependant, la localisation des mSCTs dans l'imagerie du calcium est difficile en raison de leur petite taille, de leur faible intensité par rapport au bruit de l'imagerie et de leur caractère aléatoire inhérent. Dans ce mémoire, nous présentons une méthode d'analyse quantitative à grande échelle des vidéos d'imagerie calcique limitant la variabilité induite par les interventions humaines pour obtenir des données probantes, dans le but de caractériser l'impact des mSCTs sur la plasticité synaptique. En nous basant sur un outil semi-automatique de détection à seuil d'intensité (Intensity Thresholded Detection, ITD), nous sommes capables de générer des données pour entraîner un réseau pleinement convolutionnel (Fully Convolutional Network, FCN) afin de détecter rapidement et automatiquement les mSCTs à partir de vidéos calciques. En utilisant les segmentations bruitées de l'ITD comme données d'entraînement, combinées à un schéma d'entraînement positif (P) et non étiqueté (Unlabeled, U), les performances du FCN surpassent ITD. Le FCN détecte des mSCTs de faible intensité non détectés auparavant par ITD et offre une segmentation supérieure à ITD. Nous avons ensuite caractérisé l'impact des paramètres PU tels que le nombre de P et le ratio P:U. Le FCN entraîné est intégré dans une routine tout-en-un pour permettre une analyse à grande échelle des mSCTs. La routine offre la détection, la segmentation, la caractérisation et la visualisation des mSCTs ainsi qu'une solution logicielle pour gérer plusieurs vidéos avec différentes métadonnées.
Two types of neurotransmission occur in brain’s neurons: evoked transmission and spontaneous transmission. Unlike the former, the role of spontaneous transmission on synaptic plasticity –a mechanism used to endow the brain learning and memory abilities – remain unclear. Spontaneous neurotransmissions are localized and randomly happening in neuron’s synapses. When such spontaneous events happen, so-called miniature synaptic Ca²⁺ transients(mSCT), second messenger calcium ions entered the spine, activating downstream signaling pathways of synaptic plasticity. Using calcium imaging of in vitro neuron enable spatiotemporal visual-ization of the entry of calcium ions. Resulting calcium videos enable quantitative study of mSCT’s impact on synaptic plasticity. However, mSCT localization in calcium imaging can be challenging due to their small size, their low intensity compared with the imaging noise and their inherent randomness. In this master’s thesis, we present a method for quantitative high-through put analysis of calcium imaging videos that limits the variability induced by human interventions to obtain evidence for characterizing the impact of mSCTs on synaptic plasticity. Based on a semi-automatic intensity thresholded detection (ITD) tool, we are able to generate data to train a fully convolutional neural network (FCN) to rapidly and automaticaly detect mSCT from calcium videos. Using ITD noisy segmentations as training data combine with a positive and unlabeled (PU) training schema, we leveraged FCN performances and could even detect previously undetected low instensity mSCTs missed by ITD. The FCN also provide better segmentation than ITD. We then characterized the impact of PU parameters such as the number of P and the ratio P:U. The trained FCN is bundled in a all-in-one pipeline to permit a high-thoughtput analysis of mSCT. The pipeline offers detection, segmentation,characterization and visualization of mSCTs as well as a software solution to manage multiple videos with different metadatas.
APA, Harvard, Vancouver, ISO, and other styles
2

Magnan, Christophe Nicolas. "Apprentissage à partir de données diversement étiquetées pour l'étude du rôle de l'environnement local dans les interactions entre acides aminés." Aix-Marseille 1, 2007. http://www.theses.fr/2007AIX11022.

Full text
Abstract:
Nous étudions le problème bioinformatique de la prédiction de contacts ponctuels entre résidus distants sur la séquence d'une protéine. L'étude de l'état de l'art sur ce problème a fait ressortir des questions sur la modélisation de ce problème ainsi que sur le rôle de l'environnement local des acides aminés appariés dans la formation de ces contacts. Plusieurs considérations biologiques d'une part, et des expérimentations d'autre part, montrent la nécessité d'étudier deux contextes d'apprentissage jusqu'ici peu connus et peu étudiés pour répondre à ces questions. Nous montrons que ces deux contextes d'apprentissage sont mal posés dans le cadre général de l'apprentissage statistique, mais que certaines hypothèses sur les distributions sous-jacentes permettent de les rendre bien posés. Des adaptations de méthodes connues de l'apprentissage à ces contextes sont proposées puis utilisées pour tenter de répondre aux questions biologiques initialement posées
The 3D structure of proteins is constrained by some interactions between distant amino acids in the primary sequences. An accurate prediction of these bonds may be a step forward for the prediction of the 3D structure from sequences. A review of the literature raises questions about the role of the neighbourhood of bonded amino acids in the formation of these bonds. We show that we have to investigate uncommon learning frameworks to answer these questions. The first one is a particular case of semi-supervised learning, in which the only labelled data to learn from belong to one class, and the second one considers that the data are subject to class-conditional classification noise. We show that learning in these frameworks leads to ill-posed problems. We give some assumptions that make these problems well-posed. We propose adaptations of well-known methods to these learning frameworks. We apply them to try to answer the questions on the biological problem considered in this study
APA, Harvard, Vancouver, ISO, and other styles
3

Pelletier, Charlotte. "Cartographie de l'occupation des sols à partir de séries temporelles d'images satellitaires à hautes résolutions : identification et traitement des données mal étiquetées." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30241/document.

Full text
Abstract:
L'étude des surfaces continentales est devenue ces dernières années un enjeu majeur à l'échelle mondiale pour la gestion et le suivi des territoires, notamment en matière de consommation des terres agricoles et d'étalement urbain. Dans ce contexte, les cartes d'occupation du sol caractérisant la couverture biophysique des terres émergées jouent un rôle essentiel pour la cartographie des surfaces continentales. La production de ces cartes sur de grandes étendues s'appuie sur des données satellitaires qui permettent de photographier les surfaces continentales fréquemment et à faible coût. Le lancement de nouvelles constellations satellitaires - Landsat-8 et Sentinel-2 - permet depuis quelques années l'acquisition de séries temporelles à hautes résolutions. Ces dernières sont utilisées dans des processus de classification supervisée afin de produire les cartes d'occupation du sol. L'arrivée de ces nouvelles données ouvre de nouvelles perspectives, mais questionne sur le choix des algorithmes de classification et des données à fournir en entrée du système de classification. Outre les données satellitaires, les algorithmes de classification supervisée utilisent des échantillons d'apprentissage pour définir leur règle de décision. Dans notre cas, ces échantillons sont étiquetés, \ie{} la classe associée à une occupation des sols est connue. Ainsi, la qualité de la carte d'occupation des sols est directement liée à la qualité des étiquettes des échantillons d'apprentissage. Or, la classification sur de grandes étendues nécessite un grand nombre d'échantillons, qui caractérise la diversité des paysages. Cependant, la collecte de données de référence est une tâche longue et fastidieuse. Ainsi, les échantillons d'apprentissage sont bien souvent extraits d'anciennes bases de données pour obtenir un nombre conséquent d'échantillons sur l'ensemble de la surface à cartographier. Cependant, l'utilisation de ces anciennes données pour classer des images satellitaires plus récentes conduit à la présence de nombreuses données mal étiquetées parmi les échantillons d'apprentissage. Malheureusement, l'utilisation de ces échantillons mal étiquetés dans le processus de classification peut engendrer des erreurs de classification, et donc une détérioration de la qualité de la carte produite. L'objectif général de la thèse vise à améliorer la classification des nouvelles séries temporelles d'images satellitaires à hautes résolutions. Le premier objectif consiste à déterminer la stabilité et la robustesse des méthodes de classification sur de grandes étendues. Plus particulièrement, les travaux portent sur l'analyse d'algorithmes de classification et la sensibilité de ces algorithmes vis-à-vis de leurs paramètres et des données en entrée du système de classification. De plus, la robustesse de ces algorithmes à la présence des données imparfaites est étudiée. Le second objectif s'intéresse aux erreurs présentes dans les données d'apprentissage, connues sous le nom de données mal étiquetées. Dans un premier temps, des méthodes de détection de données mal étiquetées sont proposées et étudiées. Dans un second temps, un cadre méthodologique est proposé afin de prendre en compte les données mal étiquetées dans le processus de classification. L'objectif est de réduire l'influence des données mal étiquetées sur les performances de l'algorithme de classification, et donc d'améliorer la carte d'occupation des sols produite
Land surface monitoring is a key challenge for diverse applications such as environment, forestry, hydrology and geology. Such monitoring is particularly helpful for the management of territories and the prediction of climate trends. For this purpose, mapping approaches that employ satellite-based Earth Observations at different spatial and temporal scales are used to obtain the land surface characteristics. More precisely, supervised classification algorithms that exploit satellite data present many advantages compared to other mapping methods. In addition, the recent launches of new satellite constellations - Landsat-8 and Sentinel-2 - enable the acquisition of satellite image time series at high spatial and spectral resolutions, that are of great interest to describe vegetation land cover. These satellite data open new perspectives, but also interrogate the choice of classification algorithms and the choice of input data. In addition, learning classification algorithms over large areas require a substantial number of instances per land cover class describing landscape variability. Accordingly, training data can be extracted from existing maps or specific existing databases, such as crop parcel farmer's declaration or government databases. When using these databases, the main drawbacks are the lack of accuracy and update problems due to a long production time. Unfortunately, the use of these imperfect training data lead to the presence of mislabeled training instance that may impact the classification performance, and so the quality of the produced land cover map. Taking into account the above challenges, this Ph.D. work aims at improving the classification of new satellite image time series at high resolutions. The work has been divided into two main parts. The first Ph.D. goal consists in studying different classification systems by evaluating two classification algorithms with several input datasets. In addition, the stability and the robustness of the classification methods are discussed. The second goal deals with the errors contained in the training data. Firstly, methods for the detection of mislabeled data are proposed and analyzed. Secondly, a filtering method is proposed to take into account the mislabeled data in the classification framework. The objective is to reduce the influence of mislabeled data on the classification performance, and thus to improve the produced land cover map
APA, Harvard, Vancouver, ISO, and other styles
4

Feng, Wei. "Investigation of training data issues in ensemble classification based on margin concept : application to land cover mapping." Thesis, Bordeaux 3, 2017. http://www.theses.fr/2017BOR30016/document.

Full text
Abstract:
La classification a été largement étudiée en apprentissage automatique. Les méthodes d’ensemble, qui construisent un modèle de classification en intégrant des composants d’apprentissage multiples, atteignent des performances plus élevées que celles d’un classifieur individuel. La précision de classification d’un ensemble est directement influencée par la qualité des données d’apprentissage utilisées. Cependant, les données du monde réel sont souvent affectées par les problèmes de bruit d’étiquetage et de déséquilibre des données. La marge d'ensemble est un concept clé en apprentissage d'ensemble. Elle a été utilisée aussi bien pour l'analyse théorique que pour la conception d'algorithmes d'apprentissage automatique. De nombreuses études ont montré que la performance de généralisation d'un classifieur ensembliste est liée à la distribution des marges de ses exemples d'apprentissage. Ce travail se focalise sur l'exploitation du concept de marge pour améliorer la qualité de l'échantillon d'apprentissage et ainsi augmenter la précision de classification de classifieurs sensibles au bruit, et pour concevoir des ensembles de classifieurs efficaces capables de gérer des données déséquilibrées. Une nouvelle définition de la marge d'ensemble est proposée. C'est une version non supervisée d'une marge d'ensemble populaire. En effet, elle ne requière pas d'étiquettes de classe. Les données d'apprentissage mal étiquetées sont un défi majeur pour la construction d'un classifieur robuste que ce soit un ensemble ou pas. Pour gérer le problème d'étiquetage, une méthode d'identification et d'élimination du bruit d'étiquetage utilisant la marge d'ensemble est proposée. Elle est basée sur un algorithme existant d'ordonnancement d'instances erronées selon un critère de marge. Cette méthode peut atteindre un taux élevé de détection des données mal étiquetées tout en maintenant un taux de fausses détections aussi bas que possible. Elle s'appuie sur les valeurs de marge des données mal classifiées, considérant quatre différentes marges d'ensemble, incluant la nouvelle marge proposée. Elle est étendue à la gestion de la correction du bruit d'étiquetage qui est un problème plus complexe. Les instances de faible marge sont plus importantes que les instances de forte marge pour la construction d'un classifieur fiable. Un nouvel algorithme, basé sur une fonction d'évaluation de l'importance des données, qui s'appuie encore sur la marge d'ensemble, est proposé pour traiter le problème de déséquilibre des données. Cette méthode est évaluée, en utilisant encore une fois quatre différentes marges d'ensemble, vis à vis de sa capacité à traiter le problème de déséquilibre des données, en particulier dans un contexte multi-classes. En télédétection, les erreurs d'étiquetage sont inévitables car les données d'apprentissage sont typiquement issues de mesures de terrain. Le déséquilibre des données d'apprentissage est un autre problème fréquent en télédétection. Les deux méthodes d'ensemble proposées, intégrant la définition de marge la plus pertinente face à chacun de ces deux problèmes majeurs affectant les données d'apprentissage, sont appliquées à la cartographie d'occupation du sol
Classification has been widely studied in machine learning. Ensemble methods, which build a classification model by integrating multiple component learners, achieve higher performances than a single classifier. The classification accuracy of an ensemble is directly influenced by the quality of the training data used. However, real-world data often suffers from class noise and class imbalance problems. Ensemble margin is a key concept in ensemble learning. It has been applied to both the theoretical analysis and the design of machine learning algorithms. Several studies have shown that the generalization performance of an ensemble classifier is related to the distribution of its margins on the training examples. This work focuses on exploiting the margin concept to improve the quality of the training set and therefore to increase the classification accuracy of noise sensitive classifiers, and to design effective ensemble classifiers that can handle imbalanced datasets. A novel ensemble margin definition is proposed. It is an unsupervised version of a popular ensemble margin. Indeed, it does not involve the class labels. Mislabeled training data is a challenge to face in order to build a robust classifier whether it is an ensemble or not. To handle the mislabeling problem, we propose an ensemble margin-based class noise identification and elimination method based on an existing margin-based class noise ordering. This method can achieve a high mislabeled instance detection rate while keeping the false detection rate as low as possible. It relies on the margin values of misclassified data, considering four different ensemble margins, including the novel proposed margin. This method is extended to tackle the class noise correction which is a more challenging issue. The instances with low margins are more important than safe samples, which have high margins, for building a reliable classifier. A novel bagging algorithm based on a data importance evaluation function relying again on the ensemble margin is proposed to deal with the class imbalance problem. In our algorithm, the emphasis is placed on the lowest margin samples. This method is evaluated using again four different ensemble margins in addressing the imbalance problem especially on multi-class imbalanced data. In remote sensing, where training data are typically ground-based, mislabeled training data is inevitable. Imbalanced training data is another problem frequently encountered in remote sensing. Both proposed ensemble methods involving the best margin definition for handling these two major training data issues are applied to the mapping of land covers
APA, Harvard, Vancouver, ISO, and other styles
5

Suwareh, Ousmane. "Modélisation de la pepsinolyse in vitro en conditions gastriques et inférence de réseaux de filiation de peptides à partir de données de peptidomique." Electronic Thesis or Diss., Rennes, Agrocampus Ouest, 2022. https://tel.archives-ouvertes.fr/tel-04059711.

Full text
Abstract:
Pour faire face aux enjeux démographiques actuels, aux « maladies de civilisation » et à la possible raréfaction des ressources alimentaires, il est impératif d’optimiser l’utilisation effective des aliments et d’adapter leur conception aux besoins spécifiques des différentes populations. Cela demande d’accroître notre compréhension des différentes étapes de la digestion. En particulier, en raison du rôle majeur des protéines dans notre alimentation, leur devenir au cours de la digestion est au coeur des préoccupations. Or, les lois probabilistes qui régissent l’action de la pepsine, première protéase à agir dans le tractus gastro-intestinal, ne sont pas encore clairement identifiées.Dans une première approche s’appuyant sur des données de peptidomique, nous démontrons que l’hydrolyse parla pepsine d’une liaison peptidique dépend de la nature des résidus d’acides aminés dans son large voisinage, mais aussi de variables physicochimiques et de structure décrivant son environnement. Nous proposons dans un second temps, tenant compte de l’environnement physicochimique à l’échelle de séquences peptidiques, un modèle non-paramétrique de l’hydrolyse de ces séquences par la pepsine et un algorithme d’estimation de type Expectation-Maximisation, offrant des perspectives de valorisation des données de peptidomique. Dans cette approche dynamique, nous intégrons les réseaux de filiation des peptides dans la procédure d’estimation, ce qui conduit à un modèle plus parcimonieux et plus pertinent au regard des interprétations biologiques
Addressing the current demographic challenges, “civilization diseases” and the possible depletion of food resources, require optimization of food utilization and adapting their conception to the specific needs of each target population. This requires a better understanding of the different stages of the digestion process. In particular, how proteins are hydrolyzed is a major issue, due to their crucial role in human nutrition. However, the probabilistic laws governing the action of pepsin, the first protease to act in the gastrointestinal tract, are still unclear.In a first approach based on peptidomic data, we demonstrate that the hydrolysis by pepsin of a peptidebond depends on the nature of the amino acid residues in its large neighborhood, but also on physicochemical and structural variables describing its environment. In a second step, and considering the physicochemical environment at the peptide level, we propose a nonparametric model of the hydrolysis by pepsin of these peptides, and an Expectation-Maximization type estimation algorithm, offering novel perspectives for the valorization of peptidomic data. In this dynamic approach, we integrate the peptide kinship network into the estimation procedure, which leads to a more parsimonious model that is also more relevant regarding biological interpretations
APA, Harvard, Vancouver, ISO, and other styles
6

Gautheron, Léo. "Construction de Représentation de Données Adaptées dans le Cadre de Peu d'Exemples Étiquetés." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSES044.

Full text
Abstract:
L'apprentissage automatique consiste en l'étude et la conception d'algorithmes qui construisent des modèles capables de traiter des tâches non triviales aussi bien ou mieux que les humains et, si possible, à un moindre coût.Ces modèles sont généralement entraînés à partir d'un ensemble de données où chaque exemple décrit une instance de la même tâche et est représenté par un ensemble de caractéristiques et un résultat ou étiquette que nous voulons généralement prédire.Un élément nécessaire au succès de tout algorithme d'apprentissage automatique est lié à la qualité de l'ensemble de caractéristiques décrivant les données, également appelé représentation des données.Dans l'apprentissage supervisé, plus les caractéristiques décrivant les exemples sont corrélées avec l'étiquette, plus le modèle sera efficace.Il existe trois grandes familles de caractéristiques : les caractéristiques ``observables'', les caractéristiques ``fabriquées à la main'' et les caractéristiques ``latentes'' qui sont généralement apprises automatiquement à partir des données d'entraînement.Les contributions de cette thèse s'inscrivent dans le cadre de cette dernière catégorie. Plus précisément, nous nous intéressons au cadre spécifique de l'apprentissage d'une représentation discriminatoire lorsque le nombre de données d'intérêt est limité.Un manque de données d'intérêt peut être constaté dans différents scénarios.Tout d'abord, nous abordons le problème de l'apprentissage déséquilibré avec une classe d'intérêt composée de peu d'exemples en apprenant une métrique qui induit un nouvel espace de représentation où les modèles appris ne favorisent pas les exemples majoritaires.Deuxièmement, nous proposons de traiter un scénario avec peu d'exemples disponibles en apprenant en même temps une représentation de données pertinente et un modèle qui généralise bien en boostant des modèles basés sur des noyaux et des caractéristiques de Fourier aléatoires.Enfin, pour traiter le scénario d'adaptation de domaine où l'ensemble cible ne contient pas d'étiquette alors que les exemples sources sont acquis dans des conditions différentes, nous proposons de réduire l'écart entre les deux domaines en ne conservant que les caractéristiques les plus similaires qui optimisent la solution d'un problème de transport optimal entre les deux domaines
Machine learning consists in the study and design of algorithms that build models able to handle non trivial tasks as well as or better than humans and hopefully at a lesser cost.These models are typically trained from a dataset where each example describes an instance of the same task and is represented by a set of characteristics and an expected outcome or label which we usually want to predict.An element required for the success of any machine learning algorithm is related to the quality of the set of characteristics describing the data, also referred as data representation or features.In supervised learning, the more the features describing the examples are correlated with the label, the more effective the model will be.There exist three main families of features: the ``observable'', the ``handcrafted'' and the ``latent'' features that are usually automatically learned from the training data.The contributions of this thesis fall into the scope of this last category. More precisely, we are interested in the specific setting of learning a discriminative representation when the number of data of interest is limited.A lack of data of interest can be found in different scenarios.First, we tackle the problem of imbalanced learning with a class of interest composed of a few examples by learning a metric that induces a new representation space where the learned models do not favor the majority examples.Second, we propose to handle a scenario with few available examples by learning at the same time a relevant data representation and a model that generalizes well through boosting models using kernels as base learners approximated by random Fourier features.Finally, to address the domain adaptation scenario where the target set contains no label while the source examples are acquired in different conditions, we propose to reduce the discrepancy between the two domains by keeping only the most similar features optimizing the solution of an optimal transport problem between the two domains
APA, Harvard, Vancouver, ISO, and other styles
7

Ettaleb, Mohamed. "Approche de recommandation à base de fouille de données et de graphes étiquetés multi-couches : contributions à la RI sociale." Electronic Thesis or Diss., Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0588.

Full text
Abstract:
D’une manière générale, l’objectif d’un système de recommandation est d’assister les utilisateurs dans le choix d’éléments pertinents parmi un ensemble vaste d’éléments. Dans le contexte actuel de l’explosion du nombre de publications académiques disponibles (livres, articles, etc.) en ligne, fournir un service de recommandations personnalisées devient une nécessité. En outre, la recommandation automatique de livres à partir d’une requête est un thème émergent avec de nombreux verrous scientifiques. Il combine plusieurs problématiques liées à la recherche d’information et la fouille de données pour l’estimation du degré d’opportunité de recommander un livre. Cette estimation doit être effectuée en tenant compte de la requête mais aussi du profil de l’utilisateur (historique de lecture, centres d’intérêts, notes et commentaires associés à ses lectures précédentes) et de l’ensemble de la collection à laquelle appartient le document. Deux grandes pistes ont été abordés dans cette thèse pour traiter le problème de la recommandation automatique des livres : - Identification des intentions de l’utilisateur à partir d’une requête. - Recommandation des livres pertinents selon les besoins de l’utilisateur
In general, the purpose of a recommendation system is to assist users in selecting relevant elements from a wide range of elements. In the context of the explosion in the number of academic publications available (books, articles, etc.) online, providing a personalized recommendation service is becoming a necessity. In addition, automatic book recommendation based on a query is an emerging theme with many scientific locks. It combines several issues related to information retrieval and data mining for the assessment of the degree of opportunity to recommend a book. This assessment must be made taking into account the query but also the user profile (reading history, interest, notes and comments associated with previous readings) and the entire collection to which the document belongs. Two main avenues have been addressed in this paper to deal with the problem of automatic book recommendation : - Identification of the user’s intentions from a query. - Recommendation of relevant books according to the user’s needs
APA, Harvard, Vancouver, ISO, and other styles
8

Gerald, Thomas. "Representation Learning for Large Scale Classification." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS316.

Full text
Abstract:
Ces précédentes décennies ont vu l'essor des nouvelles technologies simplifiant le partage de l'information. Aujourd'hui, une importante part des données est accessible pour un grand nombre d'utilisateurs. Dans cette thèse, nous proposons d'étudier les problématiques d'annotations de documents avec comme objectif à posteriori de faciliter l'accès à l'information à partir des mots clefs retrouvés. On s'intéressera au domaine de la classification extrême qui caractérise la tâche d'annotation automatique dès lors que le nombre d'étiquettes est important. De nombreuses difficultés découlent de la taille et de la complexité de ces données : le temps de prédiction, le stockage ainsi que la pertinence des annotations en sont les plus représentatifs. Les récentes recherches traitant de cette problématique reposent aujourd'hui sur trois types d'approches: les approches "un contre tous" apprenant autant de classifieurs que d'étiquettes; les méthodes "hiérarchiques" organisant une structure de classifieur simple ; les approches par représentations plongeant dans des espaces de faible dimension les documents. Dans cette thèse, nous étudions le schéma de classification par représentation. À travers nos contributions, nous étudions différentes approches soit pour accélérer la prédiction ou structurer les représentations. Dans un premier temps, nous étudierons des représentations discrètes à l'instar des méthodes "ECOC" pour accélérer le processus d'annotation. Dans un deuxième temps, nous considérerons les plongements hyperboliques afin de profiter des qualités de cet espace pour la représentation de données structurées
The past decades have seen the rise of new technologies that simplify information sharing. Today, a huge part of the data is accessible to most users. In this thesis, we propose to study the problems of document annotation to ease access to information thanks to retrieved annotations. We will be interested in extreme classification-related tasks which characterizes the tasks of automatic annotation when the number of labels is important. Many difficulties arise from the size and complexity of this data: prediction time, storage and the relevance of the annotations are the most representative. Recent research dealing with this issue is based on three classification schemes: "one against all" approaches learning as many classifiers as labels; "hierarchical" methods organizing a simple classifier structure; representation approaches embedding documents into small spaces. In this thesis, we study the representation classification scheme. Through our contributions, we study different approaches either to speed up prediction or to better structure representations. In a first part, we will study discrete representations such as "ECOC" methods to speed up the annotation process. In a second step, we will consider hyperbolic embeddings to take advantage of the qualities of this space for the representation of structured data
APA, Harvard, Vancouver, ISO, and other styles
9

Dalloux, Clément. "Fouille de texte et extraction d'informations dans les données cliniques." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S050.

Full text
Abstract:
Avec la mise en place d'entrepôts de données cliniques, de plus en plus de données de santé sont disponibles pour la recherche. Si une partie importante de ces données existe sous forme structurée, une grande partie des informations contenues dans les dossiers patients informatisés est disponible sous la forme de texte libre qui peut être exploité pour de nombreuses tâches. Dans ce manuscrit, deux tâches sont explorées~: la classification multi-étiquette de textes cliniques et la détection de la négation et de l'incertitude. La première est étudiée en coopération avec le centre hospitalier universitaire de Rennes, propriétaire des textes cliniques que nous exploitons, tandis que, pour la seconde, nous exploitons des textes biomédicaux librement accessibles que nous annotons et diffusons gratuitement. Afin de résoudre ces tâches, nous proposons différentes approches reposant principalement sur des algorithmes d'apprentissage profond, utilisés en situations d'apprentissage supervisé et non-supervisé
With the introduction of clinical data warehouses, more and more health data are available for research purposes. While a significant part of these data exist in structured form, much of the information contained in electronic health records is available in free text form that can be used for many tasks. In this manuscript, two tasks are explored: the multi-label classification of clinical texts and the detection of negation and uncertainty. The first is studied in cooperation with the Rennes University Hospital, owner of the clinical texts that we use, while, for the second, we use publicly available biomedical texts that we annotate and release free of charge. In order to solve these tasks, we propose several approaches based mainly on deep learning algorithms, used in supervised and unsupervised learning situations
APA, Harvard, Vancouver, ISO, and other styles
10

Raoui, Younès. "Indexation d'une base de données images : Application à la localisation et la cartographie fondées sur des radio-étiquettes et des amers visuels pour la navigation d'un robot en milieu intérieur." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2011. http://tel.archives-ouvertes.fr/tel-00633980.

Full text
Abstract:
Ce mémoire concerne les techniques d'indexation dans des bases d'image, ainsi que les méth- odes de localisation en robotique mobile. Il fait le lien entre les travaux en Perception du pôle Robotique et Intelligence Artificilelle du LAAS-CNRS, et les recherches sur la fouille de données menées à l'Université de Rabat. Depuis une dizaine d'années, la vision est devenue une source de données sensorielles essentielles sur les robots mobiles: elle fournit en particulier des représentations de l'environnement dans lequel doit se déplacer un robot. Deux types de représentations peuvent être construites. D'une part les modèles géométriques 3D sont consti- tués de points, de courbes ou de surfaces extraits et reconstruits depuis une séquence d'images; ces modèles permettent au robot de se localiser précisément sous la forme d'une position et d'une orientation dans un repère métrique. D'autre part les modèles fondés sur l'apparence, sont obtenus à partir d'une base d'images acquises lors de déplacements effectués de manière supervisée durant une phase d'apprentissage: des techniques d'analyse de données (ACP, ACI) permettent d'extraire les données les plus pertinentes de cette base; ces modèles permettent au robot de se localiser de manière qualitative ou topologique dans l'environnement. Concernant la vision, seules les représentations fondées sur l'apparence ont été considérées. Le robot se localise en recherchant dans la base d'images, celle qui ressemble le plus à l'image courante : les techniques exploitées pour ce faire sont des méthodes d'indexation, similaires à celles exploitées en fouille de données sur Internet par exemple. De nombreux travaux en Robotique ont déjà exploité ces techniques: citons au LAAS-CNRS une thèse soutenue en 2004, qui traitait déjà de localisation qualitative dans un milieu naturel à partir d'une base d'images panoramiques, indexée par des histogrammes couleur; plus récemment, des travaux menés à Amsterdam, Rennes, Clermont-Ferrand, Lausanne. . . traitaient de l'indexation par des techniques d'appariements de points d'intérêt. Par ailleurs, nous présentons une technique de navigation par RFID (Radio Frequency IDentifier) qui utilise la méthode MonteCarlo, appliquée soit de manière intuitive, soit de manière formelle. Enfin, nous donnons des résultats très péliminaires sur la combinaison d'une perception par capteurs RFID et par capteurs visuels afin d'améliorer la précision de la localisation du robot mobile.
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Données étiquetées"

1

PERKO, Gregor, and Patrice Pognan. "Dictionnaire langue maternelle - langue étrangère." In Dictionnaires et apprentissage des langues, 15–24. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.4499.

Full text
Abstract:
Nous proposons des traitements informatiques qui permettent de réaliser des dictionnaires doublement étiquetés (langue maternelle - langue étrangère) à partir d’une base de données lexicale langue étrangère avec traduction dans la langue maternelle ou même d’un dictionnaire langue étrangère - langue maternelle. Un tel dictionnaire à finalité d’apprentissage de la langue a déjà été proposé pour la méthode d’apprentissage du slovaque dans le cadre d’un contrat européen ALPCU. Nous présentons ici la réalisation en cours d’un dictionnaire français - slovène à partir du dictionnaire slovène - français de Gregor Perko.
APA, Harvard, Vancouver, ISO, and other styles
2

ATTO, Abdourrahmane M., Héla HADHRI, Flavien VERNIER, and Emmanuel TROUVÉ. "Apprentissage multiclasse multi-étiquette de changements d’état à partir de séries chronologiques d’images." In Détection de changements et analyse des séries temporelles d’images 2, 247–71. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9057.ch6.

Full text
Abstract:
Ce chapitre étudie les capacités de généralisation d’une bibliothèque de réseaux de neurones convolutifs pour la classification d’états de surface terrestre dans le temps, avec une granularité variable sur la nature des états. L’ensemble de données utilisé pour réaliser cette étude est constitué d'images à sémantique descriptible au sens de propriétés géophysiques et des impacts des conditions météorologiques en zone de glaciers.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Données étiquetées"

1

Ordioni, U., G. Labrosse, F. Campana, R. Lan, J. H. Catherine, and A. F. Albertini. "Granulomatose oro-faciale révélatrice d’une maladie de Crohn : présentation d’un cas." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603017.

Full text
Abstract:
La granulomatoses oro-faciale (GOF) est une entité rare regroupant toutes les pathologies caractérisées par une inflammation granulomateuse non caséeuse de la région oro-faciale. Le diagnostic est histologique. L’étiologie n’est pas connue. L’oedème labial d’abord intermittent, pouvant s’installer de manière permanente, est un symptôme classique de la GOF. D’autres signes cliniques, extra-oraux, peuvent être associées lorsque la GOF s’inscrit dans le cadre d’une pathologie systémique : maladie de Crohn, Sarcoïdose, maladie de Wegener. Nous présentons le cas d’un patient pour qui l’exploration de sa GOF a conduit au diagnostic de maladie de Crohn (MC). Un patient de 29 ans consultait pour une tuméfaction labiale évoluant depuis an après échec de traitement locaux (dermocorticoïdes). On notait des diarrhées chroniques étiquetées maladie coeliaque et un épisode d’hyperplasie gingivale à l’âge de 14 ans (gingivectomie réalisée par un parodontiste mais sans analyse anatomopathologique). L’examen clinique montrait un oedème labial supérieur et inférieur associé à un érythème, une hyperplasie gingivale, une ulcération vestibulaire et une langue géographique associée à une langue plicaturée. On ne notait pas de paralysie faciale. Des biopsies étaient réalisées. La biopsie labiale montrait une muqueuse normokératosique, avec des remaniements spongiotiques, sans micro-abcès. Le chorion sous-jacent était oedémateux avec des vaisseaux dilatés. On observait plus en profondeur un vaisseau altéré avec un granulome lympho-épithéioïde sans cellule géante et sans nécrose. La biopsie gingivale montrait une muqueuse oedémateuse sans granulome. L’examen biologique (NFS, VS, CRP, bilan martial, dosage enzyme conversion angiotensine, sérologie VIH, VHC, VHB) et la radiologie thoracique était sans particularité. Compte tenu de la présente d’une pathologie intestinale et à la vue de ces nouvelles données, un avis gastro-entérologique était demandé. L’examen proctologique montrait des marisques anales. L’entero-IRM confirmait le diagnostic de MC. La macrochéilie a été traité par injection de triamcinolone retard 40ml. Un traitement par anti- TNF était instauré. La MC est une maladie inflammatoire chronique de l’intestin pouvant atteindre le tube digestif de la bouche à l’anus. Les manifestations oro-faciales (macrochéilie, ulcérations buccales, hyperplasie gingivale, pseudo-polypes, erythèmes muqueux, fissures gingivales ou pyostomatite végétante) de la maladie de Crohn peuvent précéder l’atteinte intestinale. Des atteintes extra-intestinales peuvent exister : érythème noueux, uvéite, arthralgie, arthrite entéropathique. Le diagnostic de GOF doit faire rechercher des signes extra-oraux afin de déterminer si elle est isolée ou associée à une MC, à une sarcoidose ou un Wegener. En cas de GOF isolé, la question du suivi de dépistage d’une MC reste non élucidée.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography