Academic literature on the topic 'Détection de contenu explicite'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Détection de contenu explicite.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Détection de contenu explicite":

1

Sénéchal, Carole. "Le contenu explicite de la convention collective, un leurre ?" Revue générale de droit 43, no. 1 (December 11, 2013): 89–129. http://dx.doi.org/10.7202/1020840ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des dix dernières années, un débat houleux s’est engagé au sujet du rapport des diverses sources en droit des rapports collectifs de travail. Devant la multiplication des seuils minima de conditions de travail décrétés par le corpus législatif et la prolifération des instances spécialisées chargées d’en assurer la mise en oeuvre, un des enjeux sous-jacents est de préserver la spécificité du régime collectif nord-américain, qui s’appuie sur les trois piliers historiques que sont le monopole de représentation syndicale, l’existence d’une convention collective applicable à l’ensemble des salariés compris dans l’unité d’accréditation et le recours exclusif à l’arbitrage de griefs pour toute mésentente qui relève de l’application ou de l’interprétation de ladite convention. Cet article se propose d’explorer les diverses implications que soulève cette dynamique renouvelée entre l’essence contractuelle des rapports collectifs et l’ensemble de l’ordonnancement juridique.
2

Ostiguy, Luc, and Gilles Gagné. "Proposition d’un contenu linguistique à l’oral pour l’école primaire : une expérience réalisée en classe de 4e année." Revue québécoise de linguistique 16, no. 2 (May 12, 2009): 103–42. http://dx.doi.org/10.7202/602596ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé On propose dans cet article un contenu linguistique à l’oral pour l’école primaire. Un pareil contenu est actuellement absent du Programme d’étude en français, dont l’orientation est inspirée des perspectives fonctionnelles et sociolinguistiques. Ce contenu consiste en un ensemble de variantes soutenues correspondant à des marqueurs stylistiques et respectant certains critères. Il a été expérimenté dans le cadre d’une recherche préliminaire effectuée en classe de 4ème année visant à développer chez l’écolier l’utilisation des variantes soutenues en situation formelle. Les écoliers ont été enregistrés lors de situations de communication et ont participé à des activités métalinguistiques sur une partie du contenu proposé. Les résultats démontrent que (i) les écoliers montrent une variation linguistique suivant la formalité de la situation et ont conscience de cette variation sans être conscients toutefois des variantes impliquées, (ii) suite aux activités métalinguistiques, les élèves ont développé une conscience explicite de plusieurs variantes et ont utilisé davantage de variantes soutenues.
3

Beaulieu, Suzie, Leif French, and Samuel Gagnon. "I’veulent-tu parler comme nous-autres ? Opinions d’apprenants sur la forme interrogative totale en français laurentien." Arborescences, no. 7 (August 22, 2018): 90–105. http://dx.doi.org/10.7202/1050970ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
D’une part, les recherches s’intéressant aux attitudes langagières d’apprenants de français langue seconde au Québec montrent que ces derniers entretiennent généralement des perceptions négatives à l’égard du français québécois. D’autre part, les apprenants de français qui ont reçu un enseignement explicite sur les phénomènes de variation propres à toutes les variétés de français semblent, eux, développer une appréciation pour la diversité des usages de la langue française. Cependant, le lien entre l’enseignement explicite de traits sociolinguistiques appartenant uniquement au français laurentien et les attitudes linguistiques ainsi développées chez les apprenants n’a jamais encore été observé. Pour combler cette lacune, les perceptions de trois cohortes d’apprenants de français (N=46), inscrits dans un cours universitaire avancé de français portant sur la variation du français, ont été sondées. Après avoir reçu un enseignement explicite sur les différentes variantes pouvant former l’interrogation totale (inversion, est-ce que, intonation montante et intonation montante suivie de la particule –tu), les participants ont répondu à un court questionnaire à questions ouvertes explorant leurs opinions quant à l’interrogation montante suivie de –tu. L’analyse de contenu effectuée sur les données qualitatives a démontré que suite à l’enseignement explicite, la majorité des participants (43/46) avaient une perception positive de cette forme. Cependant, les attitudes positives envers cette forme n’amènent pas forcément tous les apprenants à vouloir adopter cet usage. Diverses raisons sont évoquées pour intégrer ou non cet usage à leur répertoire sociolinguistique.
4

Crelier, Damien. "L’étiquette déchirée ? De quelques cas d’incivilité dans les Mémoires de Saint-Simon." Littératures classiques N° 111, no. 2 (October 23, 2023): 53–67. http://dx.doi.org/10.3917/licla1.111.0053.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Saint-Simon, que l’on sait très attaché aux prérogatives ducales, se montre particulièrement attentif aux questions d’étiquette et de cérémonial, d’où un intérêt de sa part pour la question de l’incivilité. Cette étude se propose d’envisager l’incivilité – telle que la conçoit le mémorialiste – comme entorse : tout d’abord comme entorse objective, explicite, par opposition à d’autres conceptions de l’incivilité ; ensuite, s’agissant de son contenu et de sa portée, comme entorse qui n’est bénigne qu’en apparence ; enfin, la fausse monnaie chassant la bonne, comme entorse éminemment contagieuse.
5

Hidri, Oumaya. "Faut-il travailler son corps pour réussir un entretien d’embauche ? La place de l’apparence physique dans les manuels d’Aide à la recherche d’emploi." Lien social et Politiques, no. 59 (September 15, 2008): 21–32. http://dx.doi.org/10.7202/018811ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé La relation entre corps et emploi constitue un enjeu explicite pour les politiques publiques, notamment à travers la législation en matière de discrimination. Ainsi, depuis le 16 novembre 2001, « aucune personne ne peut être écartée d’une procédure de recrutement […] en raison […] de son apparence physique ». Cet article s’intéresse aux ouvrages de préconisation à l’usage des chercheurs d’emploi, censés faciliter leurs accès ou leur retour au marché du travail. Comment parviennent-ils à assurer leur activité de conseils au regard du cadre législatif antidiscriminatoire français ? Comment traitent-ils du corps des candidats sans nuire à la crédibilité du processus de recrutement ? Quelles normes corporelles véhiculent-ils ? Cet article répond à ces questions en s’appuyant sur l’analyse de contenu de 31 manuels.
6

Boudreau, Christian, and Daniel J. Caron. "La participation citoyenne en ligne au Québec : Conditions organisationnelles et leviers de transformation." Recherche 57, no. 1 (June 3, 2016): 155–76. http://dx.doi.org/10.7202/1036625ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La présente étude jette un éclairage original sur la participation citoyenne en ligne en montrant de façon explicite les règles qui orientent les pratiques gouvernementales en cette matière, à savoir le souci de neutralité et de rigueur méthodologique, la préservation de l’image et de l’unicité du message, la crédibilité du mécanisme et la qualité du contenu. Ces règles bien ancrées dans le fonctionnement administratif de l’État québécois amènent les organismes publics à privilégier une gestion hiérarchique des mécanismes de participation citoyenne et, ainsi, à jouer de prudence avec les médias sociaux, en particulier les forums en ligne. L’étude montre aussi qu’Internet contribue à la consolidation des outils traditionnels de consultation publique au Québec. Enfin, les auteurs proposent quelques pistes pour mieux exploiter le potentiel délibératif et collaboratif des nouvelles plateformes interactives de participation citoyenne.
7

Hoehn, L. A., J. Faros Barros, J. Desmeules, and K. Ing-Lorenzini. "Importance des interactions médicamenteuses néfastes chez le patient oncologique : comparaison de programmes de détection informatisés." Douleur et Analgésie 32, no. 1 (March 2019): 21–36. http://dx.doi.org/10.3166/dea-2019-0046.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Contexte : Les patients atteints de cancer sont soumis à divers traitements pharmacologiques (antinéoplasiques, analgésiques, antinauséeux et/ou anticoagulants principalement). Le risque d’augmenter la morbidité et la mortalité au travers des interactions médicamenteuses engendrées existe et est souvent prédictible. Des programmes informatisés d’aide à la détection d’interactions médicamenteuses sont utiles pour le médecin et le pharmacien, pour limiter ce risque, ils sont cependant nombreux et diffèrent tant par leur disponibilité que par les bases de données utilisées, et leurs limites d’utilisation restent souvent méconnues. Objectif : Évaluer la performance de plusieurs programmes de détection des interactions médicamenteuses. Méthode : Cinq programmes de détection des interactions médicamenteuses fréquemment cités dans la littérature (Compendium®, Thériaque, Epocrates®, Vidal et Lexi- Interact®) ont été évalués par l’analyse de 40 paires médicamenteuses préalablement définies sur la base du Stockley’s Drug Interaction, ouvrage de référence. Vingt-trois paires de médicaments sans interaction décrite dans ce dernier ont en outre aussi été choisies. Les médicaments sélectionnés appartenaient principalement à des classes thérapeutiques potentiellement utilisées en oncologie. Des analyses quantitative, semi-quantitative et qualitative ont permis d’évaluer la performance de la détection des interactions à risque mais également la qualité, le contenu et l’ergonomie générale d’utilisation de chaque programme. Résultats : Tous les programmes montraient une bonne performance en termes de spécificité et de valeur prédictive positive (VPP), alors que Compendium® (73 % ; 67 %), Thériaque (68 % ; 63 %) et Vidal (60 % ; 58 %) étaient caractérisés par une sensibilité et une valeur prédictive négative (VPN) basses. L’analyse semi-quantitative a mis en avant le Compendium®, recensant davantage d’informations concernant les délais d’apparition et propositions d’intervention, et Lexi-Interact®, renseignant le plus souvent sur les effets et mécanismes des interactions à risque. Lexi-Interact ® s’est révélé être le programme le plus performant à la détection des interactions néfastes sur tous les paramètres d’intérêt (sensibilité : 98 %, spécificité : 96 %, VPP : 98 %, VPN : 96 %). Conclusion : Tous les programmes testés ont montré une bonne performance, et le Lexi-Interact® s’est révélé être le programme de détection informatisé d’interactions médicamenteuses le plus performant dans les traitements du cancer, avec notamment la meilleure spécificité, sensibilité, VPP et VPN.
8

Ichau, Elke, and Leen d’Haenens. "Images de l’islam. Représentations de l’islam et des musulmans dans les journaux télévisés flamands." Diversité urbaine 15, no. 1 (November 7, 2016): 47–67. http://dx.doi.org/10.7202/1037871ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude s’intéresse à la manière dont les journaux télévisés flamands présentent l’islam et les musulmans au moyen d’une analyse de contenu quantitative et qualitative d’un échantillon de 100 sujets d’actualité diffusés par une chaîne publique et une chaîne commerciale en 2010. Nos résultats montrent que l’islam et les musulmans n’ont pas fait l’objet d’une grande attention médiatique en 2010. La majorité des sujets axés sur l’islam concernent des événements survenus à l’étranger, principalement en Europe et aux États-Unis. Les thèmes les plus récurrents sont le terrorisme et la religion. Les sujets consacrés spécifiquement à l’islam en tant que religion sont généralement assez complets, présentant une information de fond, différents points de vue et différentes sources. La plupart des sujets portent toutefois sur d’autres questions qui associent souvent, de manière plus ou moins explicite, l’islam et les musulmans à des thématiques négatives, telles que le terrorisme et la violence.
9

Pampalon, R., D. Hamel, P. Gamache, A. Simpson, and MD Philibert. "Valider un indice de défavorisation en santé publique : un exercice complexe, illustré par l'indice québécois." Maladies chroniques et blessures au Canada 34, no. 1 (February 2014): 14–25. http://dx.doi.org/10.24095/hpcdp.34.1.03f.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction Malgré l'usage répandu d'indices de défavorisation en santé publique, leur validation est rarement abordée de manière explicite ou élaborée, car il s'agit là d'un exercice complexe. Méthodologie En nous fondant sur les propositions de chercheurs britanniques, nous avons cherché à valider l'indice québécois de défavorisation matérielle et sociale en utilisant des critères de validité (validité de contenu, validité sur critère et validité de construit), de fiabilité, de sensibilité et d'autres propriétés pertinentes en santé publique (intelligibilité, objectivité et praticabilité). Résultats Nous avons passé en revue la littérature internationale sur les indices de défavorisation ainsi que les publications et les utilisations de l'indice québécois et nous avons ajouté des données factuelles. Conclusion Après examen, il appert que l'indice québécois répond favorablement aux critères et propriétés de validation proposés. Des validations additionnelles s'imposent toutefois afin de mieux cerner les facteurs contextuels associés à cet indice.
10

Barancy, Félix. "Pascal aux limites de la philosophie : permanences et reconfigurations d’une figure philosophique." Revue de métaphysique et de morale N° 120, no. 4 (November 14, 2023): 459–76. http://dx.doi.org/10.3917/rmm.234.0459.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pascal semble toujours s’être tenu dans les marges de l’historiographie philosophique. Cette situation tient d’abord à la méfiance explicite qu’il nourrit à l’égard des « philosophes ». Mais elle s’explique aussi par l’influence d’un acteur décisif dans l’institutionnalisation de la discipline : Victor Cousin. Pour le montrer, nous étudions les effets produits sur le long terme par la construction d’une « figure philosophique » qui articule, sous le nom de Pascal, des textes et un contenu philosophique spécifique, en se focalisant sur sa réception chez Havet, Brunschvicg et Heidegger. Un tel retour historique permet de mettre en évidence des points aveugles dans notre interprétation de ce que peut être la philosophie de Pascal, voire dans notre conception de ce qui constitue l’en dehors de la philosophie en général. Il offre en outre un éclairage original sur les opérations de sélection qui ont présidé à la constitution de ce que nous appelons notre « modernité » philosophique.

Dissertations / Theses on the topic "Détection de contenu explicite":

1

Vaglio, Andrea. "Leveraging lyrics from audio for MIR." Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAT027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les paroles de chansons fournissent un grand nombre d’informations sur la musique car ellescontiennent une grande partie de la sémantique des chansons. Ces informations pourraient aider les utilisateurs à naviguer facilement dans une large collection de chansons et permettre de leur offrir des recommandations personnalisées. Cependant, ces informations ne sont souvent pas disponibles sous leur forme textuelle. Les systèmes de reconnaissance de la voix chantée pourraient être utilisés pour obtenir des transcriptions directement à partir de la source audio. Ces approches sont usuellement adaptées de celles de la reconnaissance vocale. La transcription de la parole est un domaine vieux de plusieurs décennies qui a récemment connu des avancées significatives en raison des derniers développements des techniques d’apprentissage automatique. Cependant, appliqués au chant, ces algorithmes donnent des résultats peu satisfaisants et le processus de transcription des paroles reste difficile avec des complications particulières. Dans cette thèse, nous étudions plusieurs problèmes de ’Music Information Retrieval’ scientifiquement et industriellement complexes en utilisant des informations sur les paroles générées directement à partir de l’audio. L’accent est mis sur la nécessité de rendre les approches aussi pertinentes que possible dans le monde réel. Cela implique par exemple de les tester sur des ensembles de données vastes et diversifiés et d’étudier leur extensibilité. A cette fin, nous utilisons un large ensemble de données publiques possédant des annotations vocales et adaptons avec succès plusieurs des algorithmes de reconnaissance de paroles les plus performants. Nous présentons notamment, pour la première fois, un système qui détecte le contenu explicite directement à partir de l’audio. Les premières recherches sur la création d’un système d’alignement paroles audio multilingue sont également décrites. L’étude de la tâche alignement paroles-audio est complétée de deux expériences quantifiant la perception de la synchronisation de l’audio et des paroles. Une nouvelle approche phonotactique pour l’identification de la langue est également présentée. Enfin, nous proposons le premier algorithme de détection de versions employant explicitement les informations sur les paroles extraites de l’audio
Lyrics provide a lot of information about music since they encapsulate a lot of the semantics of songs. Such information could help users navigate easily through a large collection of songs and to recommend new music to them. However, this information is often unavailable in its textual form. To get around this problem, singing voice recognition systems could be used to obtain transcripts directly from the audio. These approaches are generally adapted from the speech recognition ones. Speech transcription is a decades-old domain that has lately seen significant advancements due to developments in machine learning techniques. When applied to the singing voice, however, these algorithms provide poor results. For a number of reasons, the process of lyrics transcription remains difficult. In this thesis, we investigate several scientifically and industrially difficult ’Music Information Retrieval’ problems by utilizing lyrics information generated straight from audio. The emphasis is on making approaches as relevant in real-world settings as possible. This entails testing them on vast and diverse datasets and investigating their scalability. To do so, a huge publicly available annotated lyrics dataset is used, and several state-of-the-art lyrics recognition algorithms are successfully adapted. We notably present, for the first time, a system that detects explicit content directly from audio. The first research on the creation of a multilingual lyrics-toaudio system are as well described. The lyrics-toaudio alignment task is further studied in two experiments quantifying the perception of audio and lyrics synchronization. A novel phonotactic method for language identification is also presented. Finally, we provide the first cover song detection algorithm that makes explicit use of lyrics information extracted from audio
2

Loukkas, Nassim. "Synthèse d'observateurs ensemblistes pour l’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT040/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail, nous proposons deux nouvelles approches ensemblistes pourl’estimation d’état basées sur la caractérisation explicite des bornes d’erreur d’estimation. Ces approches peuvent être vues comme la combinaison entre un observateur ponctuel et une caractérisation ensembliste de l’erreur d’estimation. L’objectif est de réduire la complexité de leur implémentation, de réduire le temps de calcul en temps réel et d’améliorer la précision et des encadrements des vecteurs d’état.La première approche propose un observateur ensembliste basé sur des ensembles invariants ellipsoïdaux pour des systèmes linéaires à temps-discret et aussi des systèmes à paramètres variables. L’approche proposée fournit un intervalle d’état déterministe qui est construit comme une somme entre le vecteur état estimé du système et les bornes de l’erreur d’estimation. L’avantage de cette approche est qu’elle ne nécessite pas la propagation des ensemble d’état dans le temps.La deuxième approche est une version intervalle de l’observateur d’état de Luenberger, pour les systèmes linéaires incertains à temps-discret, basés sur le calcul d’intervalle et les ensembles invariants. Ici, le problème d’estimation ensembliste est considéré comme un problème d’estimation d’état ponctuel couplé à une caractérisation intervalle de l’erreur d’estimation
In This work, we propose two main new approaches for the set-membershipstate estimation problem based on explicit characterization of the estimation error bounds. These approaches can be seen as a combination between a punctual observer and a setmembership characterization of the observation error. The objective is to reduce the complexity of the on-line implimentation, reduce the on-line computation time and improve the accuracy of the estimated state enclosure.The first approach is a set-membership observer based on ellipsoidal invariant sets for linear discrete-time systems and also for Linear Parameter Varying systems. The proposed approach provides a deterministic state interval that is build as the sum of the estimated system states and its corresponding estimation error bounds. The important feature of the proposed approach is that does not require propagation of sets.The second approach is an interval version of the Luenberger state observer for uncertain discrete-time linear systems based on interval and invariant set computation. The setmembership state estimation problem is considered as a punctual state estimation issue coupled with an interval characterization of the estimation error
3

Cámara, Chávez Guillermo. "Analyse du contenu vidéo par apprentissage actif." Cergy-Pontoise, 2007. http://www.theses.fr/2007CERG0380.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objet de cette thèse est de proposer un système d’indexation semi-automatique et de recherche interactive pour la vidéo. Nous avons développé un algorithme de détection des plans automatique sans paramètre, ni seuil. Nous avons choisi un classifieur SVM pour sa capacité à traiter des caractéristiques de grandes dimensions tout en préservant des garanties de généralisation pour peu d’exemples d’apprentissage. Nous avons étudié plusieurs combinaisons de caractéristiques et de fonctions noyaux et présenté des résultats intéressants pour la tâche de détection de plan de TRECVID 2006. Nous avons proposé un système interactif de recherche de contenu vidéo : RETINVID, qui permet de réduire le nombre d’images à annoter par l’utilisateur. Ces images sont sélectionnées pour leur capacité à accroître la connaissance sur les données. Nous avons effectué de nombreuses simulations sur les données de la tâche de concepts haut-niveaux de TRECVID 2005
This thesis presents work towards a unified framework for semi-automated video indexing and interactive retrieval. To create an efficient index, a set of representative key frames are selected from the entire video content. We developed an automatic shot boundary detection algorithm to get rid of parameters and thresholds. We adopted a SVM classifier due to its ability to use very high dimensional feature spaces while at the same time keeping strong generalization guarantees from few training examples. We deeply evaluated the combination of features and kernels and present interesting results obtained, for shot extraction TRECVID 2006 Task. We then propose an interactive video retrieval system: RETINVID, to significantly reduce the number of key frames annotated by the user. The key frames are selected based on their ability to increase the knowledge of the data. We perform an experiment against the 2005 TRECVID benchmark for high-level task
4

Derbas, Nadia. "Contributions à la détection de concepts et d'événements dans les documents vidéos." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM035/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'explosion de la quantité de documents multimédias, suite à l'essor des technologies numériques, a rendu leur indexation très coûteuse et manuellement impossible. Par conséquent, le besoin de disposer de systèmes d'indexation capables d'analyser, de stocker et de retrouver les documents multimédias automatiquement, et en se basant sur leur contenu (audio, visuel), s'est fait ressentir dans de nombreux domaines applicatifs. Cependant, les techniques d'indexation actuelles rencontrent encore des problèmes de faisabilité ou de qualité. Leur performance reste très limitée et est dépendante de plusieurs facteurs comme la variabilité et la quantité de données à traiter. En effet, les systèmes d'indexation cherchent à reconnaître des concepts statiques, comme des objets (vélo, chaise,...), ou des événements (mariage, manifestation,...). Ces systèmes se heurtent donc au problème de variabilité de formes, de positions, de poses, d'illuminations, d'orientations des objets. Le passage à l'échelle pour pouvoir traiter de très grands volumes de données tout en respectant des contraintes de temps de calcul et de stockage est également une contrainte.Dans cette thèse, nous nous intéressons à l'amélioration de la performance globale de ces systèmes d'indexation de documents multimédias par le contenu. Pour cela nous abordons le problème sous différents angles et apportons quatre contributions à divers stades du processus d'indexation. Nous proposons tout d'abord une nouvelle méthode de fusion "doublement précoce " entre différentes modalités ou différentes sources d'informations afin d'exploiter au mieux la corrélation entre les modalités. Cette méthode est ensuite appliquée à la détection de scènes violentes dans les films. Nous développons ensuite une méthode faiblement supervisée pour la localisation des concepts basiques (comme les objets) dans les images qui pourra être utilisé plus tard comme un descripteur et une information supplémentaire pour la détection de concepts plus complexes (comme des événements). Nous traitons également la problématique de réduction du bruit généré par des annotations ambiguës sur les données d'apprentissage en proposant deux méthodes: une génération de nouvelles annotations au niveau des plans et une méthode de pondération des plans. Enfin, nous avons mis en place une méthode d'optimisation des représentations du contenu multimédia qui combine une réduction de dimension basée sur une ACP et des transformations non linéaires.Les quatre contributions sont testées et évaluées sur les collections de données faisant référence dans le domaine, comme TRECVid ou MediaEval. Elles ont participé au bon classement de nos soumissions dans ces campagnes
A consequence of the rise of digital technology is that the quantity of available collections of multimedia documents is permanently and strongly increasing. The indexing of these documents became both very costly and impossible to do manually. In order to be able to analyze, classify and search multimedia documents, indexing systems have been defined. However, most of these systems suffer quality or practicability issues. Their performance is limited and depends on the data volume and data variability. Indexing systems analyze multimedia documents, looking for static concepts (bicycle, chair,...), or events (wedding, protest,...). Therefore, the variability in shapes, positions, lighting or orientation of objects hinders the process. Another aspect is that systems must be scalable. They should be able to handle big data while using reasonable amount of computing time and memory.The aim of this thesis is to improve the general performance of content-based multimedia indexing systems. Four main contributions are brought in this thesis for improving different stages of the indexing process. The first one is an "early-early fusion method" that merges different information sources in order to extract their deep correlations. This method is used for violent scenes detection in movies. The second contribution is a weakly supervised method for basic concept (objects) localization in images. This can be used afterwards as a new descriptor to help detecting complex concepts (events). The third contribution tackles the noise reduction problem on ambiguously annotated data. Two methods are proposed: a shot annotation generator, and a shot weighing method. The last contribution is a generic descriptor optimization method, based on PCA and non-linear transforms.These four contributions are tested and evaluated using reference data collections, including TRECVid and MediaEval. These contributions helped our submissions achieving very good rankings in those evaluation campaigns
5

Carlier, Axel. "Compréhension de contenus visuels par analyse conjointe du contenu et des usages." Thesis, Toulouse, INPT, 2014. http://www.theses.fr/2014INPT0085/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous traitons de la compréhension de contenus visuels, qu’il s’agisse d’images, de vidéos ou encore de contenus 3D. On entend par compréhension la capacité à inférer des informations sémantiques sur le contenu visuel. L’objectif de ce travail est d’étudier des méthodes combinant deux approches : 1) l’analyse automatique des contenus et 2) l’analyse des interactions liées à l’utilisation de ces contenus (analyse des usages, en plus bref). Dans un premier temps, nous étudions l’état de l’art issu des communautés de la vision par ordinateur et du multimédia. Il y a 20 ans, l’approche dominante visait une compréhension complètement automatique des images. Cette approche laisse aujourd’hui plus de place à différentes formes d’interventions humaines. Ces dernières peuvent se traduire par la constitution d’une base d’apprentissage annotée, par la résolution interactive de problèmes (par exemple de détection ou de segmentation) ou encore par la collecte d’informations implicites issues des usages du contenu. Il existe des liens riches et complexes entre supervision humaine d’algorithmes automatiques et adaptation des contributions humaines via la mise en œuvre d’algorithmes automatiques. Ces liens sont à l’origine de questions de recherche modernes : comment motiver des intervenants humains ? Comment concevoir des scénarii interactifs pour lesquels les interactions contribuent à comprendre le contenu manipulé ? Comment vérifier la qualité des traces collectées ? Comment agréger les données d’usage ? Comment fusionner les données d’usage avec celles, plus classiques, issues d’une analyse automatique ? Notre revue de la littérature aborde ces questions et permet de positionner les contributions de cette thèse. Celles-ci s’articulent en deux grandes parties. La première partie de nos travaux revisite la détection de régions importantes ou saillantes au travers de retours implicites d’utilisateurs qui visualisent ou acquièrent des con- tenus visuels. En 2D d’abord, plusieurs interfaces de vidéos interactives (en particulier la vidéo zoomable) sont conçues pour coordonner des analyses basées sur le contenu avec celles basées sur l’usage. On généralise ces résultats en 3D avec l’introduction d’un nouveau détecteur de régions saillantes déduit de la capture simultanée de vidéos de la même performance artistique publique (spectacles de danse, de chant etc.) par de nombreux utilisateurs. La seconde contribution de notre travail vise une compréhension sémantique d’images fixes. Nous exploitons les données récoltées à travers un jeu, Ask’nSeek, que nous avons créé. Les interactions élémentaires (comme les clics) et les données textuelles saisies par les joueurs sont, comme précédemment, rapprochées d’analyses automatiques des images. Nous montrons en particulier l’intérêt d’interactions révélatrices des relations spatiales entre différents objets détectables dans une même scène. Après la détection des objets d’intérêt dans une scène, nous abordons aussi le problème, plus ambitieux, de la segmentation
This thesis focuses on the problem of understanding visual contents, which can be images, videos or 3D contents. Understanding means that we aim at inferring semantic information about the visual content. The goal of our work is to study methods that combine two types of approaches: 1) automatic content analysis and 2) an analysis of how humans interact with the content (in other words, usage analysis). We start by reviewing the state of the art from both Computer Vision and Multimedia communities. Twenty years ago, the main approach was aiming at a fully automatic understanding of images. This approach today gives way to different forms of human intervention, whether it is through the constitution of annotated datasets, or by solving problems interactively (e.g. detection or segmentation), or by the implicit collection of information gathered from content usages. These different types of human intervention are at the heart of modern research questions: how to motivate human contributors? How to design interactive scenarii that will generate interactions that contribute to content understanding? How to check or ensure the quality of human contributions? How to aggregate human contributions? How to fuse inputs obtained from usage analysis with traditional outputs from content analysis? Our literature review addresses these questions and allows us to position the contributions of this thesis. In our first set of contributions we revisit the detection of important (or salient) regions through implicit feedback from users that either consume or produce visual contents. In 2D, we develop several interfaces of interactive video (e.g. zoomable video) in order to coordinate content analysis and usage analysis. We also generalize these results to 3D by introducing a new detector of salient regions that builds upon simultaneous video recordings of the same public artistic performance (dance show, chant, etc.) by multiple users. The second contribution of our work aims at a semantic understanding of fixed images. With this goal in mind, we use data gathered through a game, Ask’nSeek, that we created. Elementary interactions (such as clicks) together with textual input data from players are, as before, mixed with automatic analysis of images. In particular, we show the usefulness of interactions that help revealing spatial relations between different objects in a scene. After studying the problem of detecting objects on a scene, we also adress the more ambitious problem of segmentation
6

Hamroun, Mohamed. "Indexation et recherche par contenu visuel, sémantique et multi-niveaux des documents multimédia." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0372.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Suite aux derniers progrès technologiques, la quantité de données multimédias ne cesse d'augmenter. Dans ce contexte, le problème qui se pose est comment exploiter efficacement ces données ? il est nécessaire de mettre en place des outils facilitant leur accès et leur manipulation.Pour répondre à ces besoins, nous avons proposé, tout d’abord, un modèle d’indexation et de recherche de planes vidéos (ou images) par son contenu visuel (ISE). Les fonctionnalités innovantes d'ISE sont les suivantes : (i) définition d'un nouveau descripteur "PMC" et (ii) application de l'algorithme génétique (AG) pour améliorer la recherche (PMGA).Ensuite, nous nous sommes intéressés à la détection des concepts dans les plans vidéo (Approche LAMIRA). Dans ce même contexte, nous avons proposé une méthode d’annotation semi-automatique des plans vidéo afin d’améliorer la qualité d’indexation basée sur l’AG.Puis, nous avons fourni une méthode d’indexation sémantique séparant le niveau donné, d’un niveau conceptuel et d’un autre, plus abstrait, contextuel. Ce nouveau système intègre, aussi, des mécanismes d’expansion de la requête et de retour de pertinence. Pour donner plus de fluidité dans la requête utilisateur, l’utilisateur peut effectuer une recherche par navigation sur les trois niveaux d’abstraction. Deux systèmes appelés VISEN et VINAS ont été mis en place pour valider ces dernières positions.Finalement, un Framework SIRI a été propose sur la base d’une fusion multi-niveaux combinant nos 3 systèmes : ISE, VINAS et VISEN. Ce Framework fournit une représentation bidimensionnelle de vecteurs descripteurs (haut niveau et bas niveau) pour chaque image
Due to the latest technological advances, the amount of multimedia data is constantly increasing. In this context, the problem is how to effectively use this data? it is necessary to set up tools to facilitate its access and manipulation.To achieve this goal, we first propose an indexation and retrieval model for video shots (or images) by their visual content (ISE). The innovative features of ISE are as follows: (i) definition of a new descriptor "PMC" and (ii) application of the genetic algorithm (GA) to improve the retrieval (PMGA).Then, we focus on the detection of concepts in video shots (LAMIRA approach). In the same context, we propose a semi-automatic annotation method for video shots in order to improve the quality of indexation based on the GA.Then, we provide a semantic indexation method separating the data level from a conceptual level and a more abstract, contextual level. This new system also incorporates mechanisms for expanding the request and relevance feedback. To add more fluidity to the user query, the user can perform a navigation using the three levels of abstraction. Two systems called VISEN and VINAS have been set up to validate these last positions.Finally, a SIRI Framework was proposed on the basis of a multi-level indexation combining our 3 systems: ISE, VINAS and VISEN. This Framework provides a two-dimensional representation of features (high level and low level) for each image
7

Artaud, Chloé. "Détection des fraudes : de l’image à la sémantique du contenu : application à la vérification des informations extraites d’un corpus de tickets de caisse." Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS002/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les entreprises, les administrations, et parfois les particuliers, doivent faire face à de nombreuses fraudes sur les documents qu’ils reçoivent de l’extérieur ou qu’ils traitent en interne. Les factures, les notes de frais, les justificatifs... tout document servant de preuve peut être falsifié dans le but de gagner plus d’argent ou de ne pas en perdre. En France, on estime les pertes dues aux fraudes à plusieurs milliards d’euros par an. Étant donné que le flux de documents échangés, numériques ou papiers, est très important, il serait extrêmement coûteux en temps et en argent de les faire tous vérifier par des experts de la détection des fraudes. C’est pourquoi nous proposons dans notre thèse un système de détection automatique des faux documents. Si la plupart des travaux en détection automatique des faux documents se concentrent sur des indices graphiques, nous cherchons quant à nous à vérifier les informations textuelles du document afin de détecter des incohérences ou des invraisemblances. Pour cela, nous avons tout d’abord constitué un corpus de tickets de caisse que nous avons numérisés et dont nous avons extrait le texte. Après avoir corrigé les sorties de l’OCR et fait falsifier une partie des documents, nous en avons extrait les informations et nous les avons modélisées dans une ontologie, afin de garder les liens sémantiques entre elles. Les informations ainsi extraites, et augmentées de leurs possibles désambiguïsations, peuvent être vérifiées les unes par rapport aux autres au sein du document et à travers la base de connaissances constituée. Les liens sémantiques de l’ontologie permettent également de chercher l’information dans d’autres sources de connaissances, et notamment sur Internet
Companies, administrations, and sometimes individuals, have to face many frauds on documents they receive from outside or process internally. Invoices, expense reports, receipts...any document used as proof can be falsified in order to earn more money or not to lose it. In France, losses due to fraud are estimated at several billion euros per year. Since the flow of documents exchanged, whether digital or paper, is very important, it would be extremely costly and time-consuming to have them all checked by fraud detection experts. That’s why we propose in our thesis a system for automatic detection of false documents. While most of the work in automatic document detection focuses on graphic clues, we seek to verify the textual information in the document in order to detect inconsistencies or implausibilities.To do this, we first compiled a corpus of documents that we digitized. After correcting the characters recognition outputs and falsifying part of the documents, we extracted the information and modelled them in an ontology, in order to keep the semantic links between them. The information thus extracted, and increased by its possible disambiguation, can be verified against each other within the document and through the knowledge base established. The semantic links of ontology also make it possible to search for information in other sources of knowledge, particularly on the Internet
8

Sahli, Samir. "Extraction de l'objet de référence par la transformation multiéchelle Beamlet : détection de pistes d'atterrissage dans une image aérienne." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25100/25100.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Meng, Zide. "Analyse temporelle et sémantique des réseaux sociaux typés à partir du contenu de sites généré par des utilisateurs sur le Web." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4090/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons une approche pour détecter les sujets, les communautés d'intérêt non disjointes,l'expertise, les tendances et les activités dans des sites où le contenu est généré par les utilisateurs et enparticulier dans des forums de questions-réponses tels que StackOverFlow. Nous décrivons d'abordQASM (Questions & Réponses dans des médias sociaux), un système basé sur l'analyse de réseauxsociaux pour gérer les deux principales ressources d’un site de questions-réponses: les utilisateurs et lecontenu. Nous présentons également le vocabulaire QASM utilisé pour formaliser à la fois le niveaud'intérêt et l'expertise des utilisateurs. Nous proposons ensuite une approche efficace pour détecter lescommunautés d'intérêts. Elle repose sur une autre méthode pour enrichir les questions avec un tag plusgénéral en cas de besoin. Nous comparons trois méthodes de détection sur un jeu de données extrait dusite populaire StackOverflow. Notre méthode basée sur le se révèle être beaucoup plus simple et plusrapide, tout en préservant la qualité de la détection. Nous proposons en complément une méthode pourgénérer automatiquement un label pour un sujet détecté en analysant le sens et les liens de ses mots-clefs.Nous menons alors une étude pour comparer différents algorithmes pour générer ce label. Enfin, nousétendons notre modèle de graphes probabilistes pour modéliser conjointement les sujets, l'expertise, lesactivités et les tendances. Nous le validons sur des données du monde réel pour confirmer l'efficacité denotre modèle intégrant les comportements des utilisateurs et la dynamique des sujets
We propose an approach to detect topics, overlapping communities of interest, expertise, trends andactivities in user-generated content sites and in particular in question-answering forums such asStackOverFlow. We first describe QASM (Question & Answer Social Media), a system based on socialnetwork analysis to manage the two main resources in question-answering sites: users and contents. Wealso introduce the QASM vocabulary used to formalize both the level of interest and the expertise ofusers on topics. We then propose an efficient approach to detect communities of interest. It relies onanother method to enrich questions with a more general tag when needed. We compared threedetection methods on a dataset extracted from the popular Q&A site StackOverflow. Our method basedon topic modeling and user membership assignment is shown to be much simpler and faster whilepreserving the quality of the detection. We then propose an additional method to automatically generatea label for a detected topic by analyzing the meaning and links of its bag of words. We conduct a userstudy to compare different algorithms to choose the label. Finally we extend our probabilistic graphicalmodel to jointly model topics, expertise, activities and trends. We performed experiments with realworlddata to confirm the effectiveness of our joint model, studying the users’ behaviors and topicsdynamics
10

Ollagnier, Anaïs. "Analyse de requêtes en langue naturelle et extraction d'informations bibliographiques pour une recherche de livres orientée contenu efficace." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0556/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des dernières années, le Web a connu une énorme croissance en matière de contenus et d'utilisateurs. Ce phénomène a entraîné des problèmes liés à la surcharge d'information face à laquelle les utilisateurs ont des difficultés à trouver les bonnes informations. Des systèmes de recommandation ont été développés pour résoudre ce problème afin de guider les utilisateurs dans ce flux d'informations. Les approches de recommandation se sont multipliées et ont été mises en œuvre avec succès, notamment au travers d’approches telles que le filtrage collaboratif. Cependant, il existe encore des défis et des limites qui offrent des opportunités pour de nouvelles recherches. Parmi ces défis, la conception de systèmes de recommandation de lectures est devenue un axe de recherche en pleine expansion suite à l’apparition des bibliothèques numériques.Traditionnellement, les bibliothèques jouent un rôle passif dans l’interaction avec les lecteurs et ce, faute d’outils efficaces de recherche et de recommandation. Dans ce manuscrit, nous nous sommes penchée sur la création d’un système de recommandation de lectures. Nos objectifs portent sur :- améliorer la compréhension des besoins utilisateurs exprimés au sein des requêtes en langage naturel de recherches de livres, articles et billets ; - pallier l'absence de liens explicites entre ouvrages et articles de revues par la détection et l'analyse automatique des références bibliographiques afin de proposer des liens ; - parvenir à un système de recommandation de lectures s'appuyant sur des données textuelles permettant de fournir une liste de recommandations personnalisées aux utilisateurs actifs
In the recent years, the Web has undergone a tremendous growth regarding both content and users. This has led to an information overload problem in which people are finding it increasingly difficult to locate the right information at the right time. Recommender systems have been developed to address this problem, by guiding users through the big ocean of information. The recommendation approaches have multiplied and have been successfully implemented, particularly through approaches such as collaborative filtering. However, there are still challenges and limitations that offer opportunities for new research. Among these challenges, the design of reading recommendation systems has become a new expanding research focus following the emergence of digital libraries.Traditionally, libraries play a passive role in interaction with users due to the lack of effective search and recommendation tools. In this manuscript, we will study the creation of a reading recommendation system in which we'll try to exploit the possibilities of digital access to scientific information. Our objectives are: - to improve the understanding of user needs expressed in natural language search queries for books, articles and posts. This work will require the establishment of processes capable of exploiting the structures of data and their dimension; - to compensate for the absence of explicit links between books and journal articles by automatically detecting and analyzing bibliographic references, and then to propose links;- to achieve a reading recommendation system based on textual data to provide a customized recommendation list to active users, similar to systems already used by users profiles

Books on the topic "Détection de contenu explicite":

1

Shelton, Warren. Contenu Explicite: Histoires Chaudes de l'érotisme Hardcore. Independently Published, 2022.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Détection de contenu explicite":

1

PHAM, Minh-Tan, and Grégoire MERCIER. "Détection de changements sur les graphes de séries SAR." In Détection de changements et analyse des séries temporelles d’images 1, 183–219. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons d'exploiter l'interaction entre des points-clés/caractéristiques dans un modèle de graphe pondéré pour développer une nouvelle méthode de suivi de texture afin de traiter la tâche de détection de changements. Dans ce chapitre, nous montrons que les points-clés d'extrema locaux sont susceptibles de capturer les informations radiométriques et contextuelles importantes de l'image. Leur interaction peut être codée par un modèle de graphe basé sur leurs mesures de similarité, qui ne néessitent que des petits patchs de pixels autour des point&-clés. Qui plus est, le graphe construit est capable de caractériser à la fois des informations d'intensité et de géométrie à partir du contenu d'images, donc pertinentes pour le suivi de texture. À cette fin, si un graphe est construit à partir d'une des deux images SAR, le niveau de changement entre celle&-ci peut être mesuré d'après le degré auquel l'information de l'autre image reste conforme à la structure du graphe en question. Cette remarque conduit à notre stratégie proposée de suivi de texture pour la détection de changements.

To the bibliography