Siga este enlace para ver otros tipos de publicaciones sobre el tema: Traitement automatique du son.

Tesis sobre el tema "Traitement automatique du son"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Traitement automatique du son".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Emiya, Valentin. "Transcription automatique de la musique de piano". Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004867.

Texto completo
Resumen
La transcription automatique de la musique (TAM) s'inscrit dans le champ de l'indexation audio et de la recherche d'informations musicales. Elle vise à extraire l'information relative aux notes jouées - début, fin, hauteur - dans un enregistrement numérique. Cette thèse aborde la TAM dans le cadre du piano, instrument difficile à transcrire par les systèmes actuels et qui occupe une place majeure d'instrument solo dans la musique occidentale. La problématique générale de la TAM étant vaste et complexe, nous exploitons certains aspects spécifiques du piano pour spécialiser la tâche, tout en abordant des thématiques générales comme l'estimation de fréquences fondamentales (F0) ou l'évaluation. Nous étudions tout d'abord la caractérisation spectrale des sons de piano pour la transcription à travers la distribution inharmonique des partiels, la modélisation de l'enveloppe spectrale des notes et celle du bruit. Nous proposons ensuite une méthode d'estimation de F0 isolées performante dans des conditions d'analyse difficiles qui sont réunies dans le cas du piano: les contraintes d'une fenêtre d'analyse courte et d'un registre étendu. L'estimation de F0 multiples et du degré de polyphonie est abordée via une modélisation conjointe paramétrique (autorégressive/à moyenne ajustée). Cette méthode spectrale s'intègre dans un système de TAM pour le piano analysant tout enregistrement avec des limites raisonnables en termes de polyphonie, de vélocité et de tessiture. Enfin, nous proposons de nouvelles métriques d'évaluation des transcriptions, un cadre d'évaluation de la qualité des métriques et une base de données de sons de piano pour l'estimation de F0 multiples et la TAM.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Gianola, Lucie. "Aspects textuels de la procédure judiciaire exploitée en analyse criminelle et perspectives pour son traitement automatique". Thesis, CY Cergy Paris Université, 2020. http://www.theses.fr/2020CYUN1065.

Texto completo
Resumen
L’analyse criminelle est une discipline d’appui aux enquêtes pratiquée au sein de la Gendarmerie Nationale. Elle repose sur l’exploitation des documents compilés dans le dossier de procédure judiciaire (auditions, perquisitions, rapports d’expertise, données téléphoniques et bancaires, etc.) afin de synthétiser les informations collectées et de proposer un regard neuf sur les faits examinés. Si l’analyse criminelle a recours à des logiciels de visualisation de données (i. e. Analyst’s Notebook d’IBM) pour la mise en forme des hypothèses formulées, la gestion informatique et textuelle des documents de la procédure est entièrement manuelle. Or, l’analyse criminelle s’appuie entre autres sur le concept d’entités pour formaliser son travail.La présentation du contexte de recherche détaille la pratique de l’analyse criminelle ainsi que la constitution du dossier de procédure judiciaire en tant que corpustextuel.Nous proposons ensuite des perspectives pour l’adaptation des méthodes de traitement automatique de la langue (TAL) et d’extraction d’information au cas d’étude, notamment la mise en parallèle des concepts d’entité en analyse criminelle et d’entité nommée en TAL. Cette comparaison est réalisée sur les plans conceptuels et linguistiques. Une première approche de détection des entités dans les auditions de témoins est présentée.Enfin, le genre textuel étant un paramètre à prendre en compte lors de l’appli-cation de traitements automatiques à du texte, nous construisons une structuration du genre textuel « légal » en discours, genres et sous-genres par le biais d’une étude textométrique visant à caractériser différents types de textes (dont les auditions de témoins) produits par le domaine de la justice
Criminal analysis is a discipline that supports investigations practiced within the National Gendarmerie. It is based on the use of the documents compiled in the judicial procedure file (witness interviews, search warrants, expert reports, phone and bank data, etc.) to synthesize the information collected and to propose a new understanding of the facts examined. While criminal analysis uses data visualization software (i. e. IBM Analyst’s Notebook) to display the hypotheses formulated, the digital and textual management of the file documents is entirely manual. However, criminal analysis relies on entities to formalize its practice.The presentation of the research context details the practice of criminal analysis as well as the constitution of judicial procedure files as textual corpora.We then propose perspectives for the adaptation of natural language processing(NLP) and information extraction methods to the case study, including a comparison of the concepts of entity in criminal analysis and named entity in NLP. This comparison is done on the conceptual and linguistic plans. A first approach to the detection of entities in witness interviews is presented.Finally, since textual genre is a parameter to be taken into account when applying automatic processing to text, we develop a structure of the « legal » textual genre into discourse, genres, and sub-genres through a textometric study aimed at characterizing different types of texts (including witness interviews) produced by the field of justice
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Vercruysse, Michel. "Mesure en temps réel de l'orthogonalité des fils de trame d'un tissu en défilement et son traitement automatique". Lille 1, 1991. http://www.theses.fr/1991LIL10034.

Texto completo
Resumen
Cette thèse est un ensemble de travaux visant à résoudre les problèmes de la mesure de l'orthogonalité des fils de trame par rapport aux fils de chaîne d'un tissu en défilement. Cette mesure est nécessaire pour réguler la position des fils de trame des tissus qui subissent des déformations lors des opérations d'ennoblissement. L'origine des problèmes est due à la très grande diversité des tissus. Pour solutionner l'ensemble de ces problèmes, nous avons introduit une technique entièrement numérique et procédé en plusieurs étapes commuées en chapitres dans la thèse. Dans un premier temps, nous avons établi une base de données dont la constitution a nécessité l'étude et la réalisation d'un analyseur temps réel. Après étude statistique de cette base, un modèle mathématique du signal observé ainsi que les traitements théoriques optimaux ont pu être définis. Dans un deuxième temps, nous avons développé un mesureur prototype contenant ces traitements, en tenant compte du mode d'exploitation sur site du mesureur, ainsi que de l'environnement de mesure qui transforme le modèle du signal en une fonction de deux variables aléatoires non-stationnaires. Nous avons abouti à l'étude et à la mise au point d'un filtrage numérique auto-adaptatif ainsi qu'aux développements d'un opérateur de reconnaissance structurelle de formes et d'une reconnaissance par modélisation. L'ensemble de ces traitements est architecturé pour former un plan matriciel des états du système sur lequel sont prises les décisions de mesure. Les différentes fonctions ont été implémentées sur des processeurs numériques de signaux afin de satisfaire le critère du temps réel. Parallélement aux traitements numériques, nous avons développé un traitement optique, consistant à introduire un procédé de mesure par réflexion. Avant notre étude, 75% des tissus étaient considérés mesurables, nous estimons que plus de 95% le sont maintenant. Ce résultat obtenu avec le prototype confirme la justesse des principes et des concepts avancés
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Ouldja, Hadj. "Réalisation d'une interface en langage naturel et son application à l'enseignement assisté par ordinateur". Paris 6, 1988. http://www.theses.fr/1988PA066456.

Texto completo
Resumen
Évaluation technique sur la faisabilité d'interfaces homme machine sur microordinateurs et sur leurs qualités linguistiques. Prolog a été choisi comme langage de représentation de connaissances linguistiques et comme langage de programmation, permettant d'assurer la portabilité des programmes développés. Réalisation d'un ensemble de modules constitutifs de l'architecture d'un système interface homme machine en langue naturelle, intégrant des solutions techniques efficaces aux problèmes linguistiques
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Fedosov, Andrey. "Assistance automatique au mixage de microphones d'appoint dans une prise de son HOA". Thesis, Brest, 2017. http://www.theses.fr/2017BRES0016/document.

Texto completo
Resumen
Dans ce travail nous étudions la problématique des ingénieurs du son face au mixage d’un microphone principal HOA avec des microphones d’appoint, et notamment l’estimation des paramètres tels que le retard, la position et le gain des sources acoustiques associées aux microphones d’appoint. Nous proposons un algorithme fournissant les paramètres estimés (retard, position, gain) basé sur des équations d’encodage spatial au format HOA qui peuvent alors être utilisées pour traiter les signaux des microphones d’appoint durant le mixage. Cette extraction automatique des paramètres peut être vue comme une assistance pour les ingénieurs du son, leur permettant d’éviter un travail à faible valeur ajoutée (mesure de la distance et des angles entre microphones) afin de pouvoir se concentrer sur des problèmes artistiques comme l’ajustement des paramètres de niveau, d’égalisation ou de compression, voire l’ajustement fin des paramètres de retard, position, gain. La robustesse de l’algorithme est bien présentée pour les scènes sonores de différents niveaux de complexité (plusieurs sources acoustiques, réverbération, encodage réel du microphone…). Nous proposons des tests de performances pour les scènes sonores simulées et réels afin de montrer l’efficacité de l’algorithme ainsi que ces limites. La conclusion et les perspectives pour des futurs travaux complètent cette thèse à la fin du document
In this thesis we study the problematic of a sound engineer mixing HOA (Higher Order Ambisonics) and spot microphones, namely the estimation of parameters such as delay, position and gain of acoustic sources associated to spot microphones. We present a typical workflow in this context, and also propose an algorithm extracting parameters that could be applied to the spot microphone signals. This mixing assistance allows sound engineers to easily work with HOA 3D sound and to concentrate on artistic choices (fine adjustments of the parameters), by avoiding a low-added value work (coarse parameter estimation). The robustness of the estimators is evaluated on recorded and artificial sound scenes, with different degrees of complexity in terms of number of sources and acoustic conditions (reverberation, effect of real microphone encoding, …). We also provide performance evaluations, based on both sound scene simulations and real recordings, showing encouraging results along with actual limits, and conclude on perspectives
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Perlerin, Vincent. "Sémantique légère pour le document : assistance personnalisée pour l'accès au document et l'exploration de son contenu". Caen, 2004. http://www.theses.fr/2004CAEN2048.

Texto completo
Resumen
Cette thèse met en place les principes d'une sémantique légère pour le Traitement Automatique des Langues qui suppose une limitation à la fois des ressources et des processus utilisés pour proposer des services personnalisés aux utilisateurs. Elle s'inscrit en cela dans le courant des recherches récentes qui tentent de pallier les inconvénients des objectifs maximalistes de l'IA classique pour la compréhension et le calcul du sens des textes. Les ressources utilisées sont des entités lexicales catégorisées et décrites de façon componentielle et différentielle par l'usager. Ces données sont exploitées pour des calculs fondés sur la récurrence et la différence. Le modèle proposé permet l'expression de besoins spécifiques à un usager ou à un groupe d'usagers dans le cadre de tâches génériques nécessitant l'exploration du contenu des textes. Les ressources du système sont construites en interaction avec la machine ; elles peuvent être acquises à partir d'un corpus. Nos efforts ont porté à la fois sur la modélisation lexicale et sur les moyens de l'interaction entre l'utilisateur et la machine. Les champs d'évaluation sont la veille documentaire et l'analyse d'un fait de langue (une métaphore conventionnelle). Cette thèse d'informatique participe aux recherches qui ont pour but de transformer la machine en un média à valeur ajoutée pour l'accès personnalisé aux documents textuels. Elle se situe à l'intersection de trois courants de recherche : celui de la mise en oeuvre de la sémantique lexicale de tradition saussurienne (la Sémantique Interprétative de F. Rastier), celui de l'exploitation assistée de corpus numériques et enfin, celui de l'interaction homme / machine située.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Lesage, Sylvain Bimbot Frédéric. "Apprentissage de dictionnaires structurés pour la modélisation parcimonieuse des signaux multicanaux". [S.l.] : [s.n.], 2007. ftp://ftp.irisa.fr/techreports/theses/2007/lesage.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Liuni, Marco. "Adaptation Automatique de la Résolution pour l'Analyse et la Synthèse du Signal Audio". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00773550.

Texto completo
Resumen
Dans cette thèse, on s'intéresse à des méthodes qui permettent de varier localement la résolution temps-fréquence pour l'analyse et la re-synthèse du son. En Analyse Temps-Fréquence, l'adaptativité est la possibilité de concevoir de représentations et opérateurs avec des caractéristiques qui peuvent être modifiées en fonction des objets à analyser: le premier objectif de ce travail est la définition formelle d'un cadre mathématique qui puisse engendrer des méthodes adaptatives pour l'analyse du son. Le deuxième est de rendre l'adaptation automatique; on établit des critères pour définir localement la meilleure résolution temps-fréquence, en optimisant des mesures de parcimonie appropriées. Afin d'exploiter l'adaptativité dans le traitement spectral du son, on introduit des méthodes de reconstruction efficaces, basées sur des analyses à résolution variable, conçues pour préserver et améliorer les techniques actuelles de manipulation du son. L'idée principale est que les algorithmes adaptatifs puissent contribuer à la simplification de l'utilisation de méthodes de traitement du son qui nécessitent aujourd'hui un haut niveau d'expertise. En particulier, la nécessité d'une configuration manuelle détaillée constitue une limitation majeure dans les applications grand public de traitement du son de haute qualité (par exemple: transposition, compression/dilatation temporelle). Nous montrons des exemples où la gestion automatique de la résolution temps-fréquence permet non seulement de réduire significativement les paramètres à régler, mais aussi d'améliorer la qualité des traitements.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Cara, Hervé. "Conception d'un dispositif pour la détection automatique des premières variations du niveau de vigilance du conducteur au volant de son véhicule : capteur non-contraignant et électronique associée". Vandoeuvre-les-Nancy, INPL, 1992. http://www.theses.fr/1992INPL010N.

Texto completo
Resumen
Actuellement, il n'existe pas de moyen non-contraignant et suffisamment fiable pour détecter automatiquement les premières variations du niveau de vigilance d'un conducteur au volant de son véhicule. Cette étude est centrée sur la détermination d'un paramètre physiologique "la régularité du rythme respiratoire" pour prédire l'assoupissement dans la ou les deux minutes qui le précèdent. Les tests en laboratoire de sommeil ont permis de constater que l'activité électro¬encéphalographique spécifique de l'endormissement est précédée de la régularisation de la fréquence respiratoire. Outre les tests d'expérimentations médicales, ce mémoire présente l'lectronique inhérente à la chaîne d'acquisition et de traitement du signal représentatif des variations de l'impédance thoracique: capteur, signal utile et critères de détection. Ensuite, ce mémoire expose. Les résultats des tests de validation du dispositif de détection et les tests en situation réelle de conduite automobile
At the present time, there is no strainless and reliable mean to automatically detect the first variations of vigilance- state of a vehicule driver. This study is based upon the determination of the physiological parameter (breathing rhythm regularity) to predict sleeping one or two minutes before it occurs. Tests in a leepinglaboratory have pointed out that the EEG activity, during the early sleeping phase is characterized by a breathing rhythm regularization. Besides, this study deals with aH associated electronics of the data acquisition and processing device to seize the signal of thoracic impedance criterions : sens or, useful signal and detection criterions. After that, this report presents the results of the validation tests of detection device and the tests in real condition
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Gauthier, Elodie. "Collecter, Transcrire, Analyser : quand la machine assiste le linguiste dans son travail de terrain". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM011/document.

Texto completo
Resumen
Depuis quelques décennies, de nombreux scientifiques alertent au sujet de la disparition des langues qui ne cesse de s'accélérer.Face au déclin alarmant du patrimoine linguistique mondial, il est urgent d'agir afin de permettre aux linguistes de terrain, a minima, de documenter les langues en leur fournissant des outils de collecte innovants et, si possible, de leur permettre de décrire ces langues grâce au traitement des données assisté par ordinateur.C'est ce que propose ce travail, en se concentrant sur trois axes majeurs du métier de linguiste de terrain : la collecte, la transcription et l'analyse.Les enregistrements audio sont primordiaux, puisqu'ils constituent le matériau source, le point de départ du travail de description. De plus, tel un instantané, ils représentent un objet précieux pour la documentation de la langue. Cependant, les outils actuels d'enregistrement n'offrent pas au linguiste la possibilité d'être efficace dans son travail et l'ensemble des appareils qu'il doit utiliser (enregistreur, ordinateur, microphone, etc.) peut devenir encombrant.Ainsi, nous avons développé LIG-AIKUMA, une application mobile de collecte de parole innovante, qui permet d'effectuer des enregistrements directement exploitables par les moteurs de reconnaissance automatique de la parole (RAP). Les fonctionnalités implémentées permettent d'enregistrer différents types de discours (parole spontanée, parole élicitée, parole lue) et de partager les enregistrements avec les locuteurs. L'application permet, en outre, la construction de corpus alignés << parole source (peu dotée)-parole cible (bien dotée) >>, << parole-image >>, << parole-vidéo >> qui présentent un intérêt fort pour les technologies de la parole, notamment pour l'apprentissage non supervisé.Bien que la collecte ait été menée de façon efficace, l'exploitation (de la transcription jusqu'à la glose, en passant par la traduction) de la totalité de ces enregistrements est impossible, tant la tâche est fastidieuse et chronophage.Afin de compléter l'aide apportée aux linguistes, nous proposons d'utiliser des techniques de traitement automatique de la langue pour lui permettre de tirer partie de la totalité de ses données collectées. Parmi celles-ci, la RAP peut être utilisée pour produire des transcriptions, d'une qualité satisfaisante, de ses enregistrements.Une fois les transcriptions obtenues, le linguiste peut s'adonner à l'analyse de ses données. Afin qu'il puisse procéder à l'étude de l'ensemble de ses corpus, nous considérons l'usage des méthodes d'alignement forcé. Nous démontrons que de telles techniques peuvent conduire à des analyses linguistiques fines. En retour, nous montrons que la modélisation de ces observations peut mener à des améliorations des systèmes de RAP
In the last few decades, many scientists were concerned with the fast extinction of languages. Faced with this alarming decline of the world's linguistic heritage, action is urgently needed to enable fieldwork linguists, at least, to document languages by providing them innovative collection tools and to enable them to describe these languages. Machine assistance might be interesting to help them in such a task.This is what we propose in this work, focusing on three pillars of the linguistic fieldwork: collection, transcription and analysis.Recordings are essential, since they are the source material, the starting point of the descriptive work. Speech recording is also a valuable object for the documentation of the language.The growing proliferation of smartphones and other interactive voice mobile devices offer new opportunities for fieldwork linguists and researchers in language documentation. Field recordings should also include ethnolinguistic material which is particularly valuable to document traditions and way of living. However, large data collections require well organized repositories to access the content, with efficient file naming and metadata conventions.Thus, we have developed LIG-AIKUMA, a free Android app running on various mobile phones and tablets. The app aims to record speech for language documentation, over an innovative way.It includes a smart generation and handling of speaker metadata as well as respeaking and parallel audio data mapping.LIG-AIKUMA proposes a range of different speech collection modes (recording, respeaking, translation and elicitation) and offers the possibility to share recordings between users. Through these modes, parallel corpora are built such as "under-resourced speech - well-resourced speech", "speech - image", "speech - video", which are also of a great interest for speech technologies, especially for unsupervised learning.After the data collection step, the fieldwork linguist transcribes these data. Nonetheless, it can not be done -currently- on the whole collection, since the task is tedious and time-consuming.We propose to use automatic techniques to help the fieldwork linguist to take advantage of all his speech collection. Along these lines, automatic speech recognition (ASR) is a way to produce transcripts of the recordings, with a decent quality.Once the transcripts are obtained (and corrected), the linguist can analyze his data. In order to analyze the whole collection collected, we consider the use of forced alignment methods. We demonstrate that such techniques can lead to fine evaluation of linguistic features. In return, we show that modeling specific features may lead to improvements of the ASR systems
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Ratajczak, Rémi. "Analyse automatique d'images aériennes historiques : application à une étude épidémiologique". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE2063.

Texto completo
Resumen
Cette thèse, co-financée par l’ADEME, se place dans le cadre d’une collaboration entre le LIRIS et le Centre Léon Bérard autour de l’étude épidémiologique TESTIS. L’étude TESTIS vise à estimer l’impact des pesticides sur le développement de la tumeur germinale du cancer du testicule. Cette maladie ayant un temps de développement long, il est nécessaire d’avoir accès à des informations remontant jusqu’à la naissance des sujets considérés. Dans le cas de TESTIS, les sujets les plus âgés sont nés au début des années 1970. Afin de tenir compte des expositions résidentielles individuelles aux pesticides propagés par les vents, le Centre Léon Bérard a mis au point une métrique se basant sur l’occupation du sol autour des habitations. Malheureusement, aucune base de données d’occupation du sol avant 1990 n’est actuellement suffisamment précise pour être utilisée. Afin d’obtenir ces informations, les géomaticiens du Centre Léon Bérard sont chargés de photo-interpréter des images aériennes historiques en niveaux de gris. Ce processus manuel étant particulièrement long et fastidieux, l’utilisation de méthodes automatiques ou semi-automatiques a été suggérée. L’objectif de cette thèse est de développer des algorithmes pour aider les géomaticiens à obtenir des cartes d’occupation du sol en un temps raisonnable. Pour cela, nous nous sommes intéressés à l’utilisation de méthodes de classification de textures que nous avons intégrées au sein d’un logiciel d’aide à l’annotation. Celui-ci est actuellement utilisé dans le cadre de l’étude TESTIS. Nous nous sommes ensuite intéressés à la colorisation automatique et non-supervisée des images aériennes historiques afin de proposer une visualisation alternative aux géomaticiens. Ces travaux nous ont également menés à étudier l’intérêt des couleurs générées artificiellement pour la classification des données historiques. Enfin, nous avons cherché à améliorer les cartes d’occupation du sol générées par notre logiciel au travers de méthodes de post-traitement, ouvrant la voie au développement de chaines de traitements plus performantes
This thesis, co-funded by the ADEME, takes place in the context of a collaboration between the LIRIS laboratory and the Centre Léon Bérard as part of the TESTIS epidemiological study. The TESTIS study aims to estimate the impact of pesticides on the development of germ cell tumor of testicular cancer. As this disease has a long development time, it is necessary to have access to data dating back to the birth of the subjects. In the case of TESTIS, the oldest subjects were born in the early 1970s. In order to take into account individual residential exposures to pesticides spread by winds, the Centre Léon Bérard has developed a metric based on land use around dwellings. Unfortunately no land use database before 1990 is sufficiently accurate to be used. In order to obtain this information, the geomatics specialists at the Centre Léon Bérard are tasked with photo-interpreting historical aerial images in grayscale. This manual process is particularly long and tedious. Therefore, the use of automatic or semi-automatic methods has been suggested. The objective of this thesis is to develop algorithms to help geomatics specialists obtain land cover maps in a reasonable time. For that, we were interested in the use of texture classification methods that we have integrated into an annotation assistance software. This software is currently used in the TESTIS study. We then put our focus on the development of unsupervised colorization methods to provide alternative visualizations of the historical aerial images. This work also led us to study the interest of the artificially generated colors for land use classification. Finally, we sought to improve the land use maps generated by our software through post-processing methods, paving the way for the development of more efficient pipelines
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Fourer, Dominique. "Approche informée pour l’analyse du son et de la musique". Thesis, Bordeaux 1, 2013. http://www.theses.fr/2013BOR14973/document.

Texto completo
Resumen
En traitement du signal audio, l’analyse est une étape essentielle permettant de comprendre et d’inter-agir avec les signaux existants. En effet, la qualité des signaux obtenus par transformation ou par synthèse des paramètres estimés dépend de la précision des estimateurs utilisés. Cependant, des limitations théoriques existent et démontrent que la qualité maximale pouvant être atteinte avec une approche classique peut s’avérer insuffisante dans les applications les plus exigeantes (e.g. écoute active de la musique). Le travail présenté dans cette thèse revisite certains problèmes d’analyse usuels tels que l’analyse spectrale, la transcription automatique et la séparation de sources en utilisant une approche dite “informée”. Cette nouvelle approche exploite la configuration des studios de musique actuels qui maitrisent la chaîne de traitement avant l’étape de création du mélange. Dans les solutions proposées, de l’information complémentaire minimale calculée est transmise en même temps que le signal de mélange afin de permettre certaines transformations sur celui-ci tout en garantissant le niveau de qualité. Lorsqu’une compatibilité avec les formats audio existants est nécessaire, cette information est cachée à l’intérieur du mélange lui-même de manière inaudible grâce au tatouage audionumérique. Ce travail de thèse présente de nombreux aspects théoriques et pratiques dans lesquels nous montrons que la combinaison d’un estimateur avec de l’information complémentaire permet d’améliorer les performances des approches usuelles telles que l’estimation non informée ou le codage pur
In the field of audio signal processing, analysis is an essential step which allows interactions with existing signals. In fact, the quality of transformed or synthesized audio signals depends on the accuracy over the estimated model parameters. However, theoretical limits exist and show that the best accuracy which can be reached by a classic estimator can be insufficient for the most demanding applications (e.g. active listening of music). The work which is developed in this thesis revisits well known audio analysis problems like spectral analysis, automatic transcription of music and audio sources separation using the novel ``informed'' approach. This approach takes advantage of a specific configuration where the parameters of the elementary signals which compose a mixture are known before the mixing process. Using the tools which are proposed in this thesis, the minimal side information is computed and transmitted with the mixture signal. This allows any kind of transformation of the mixture signal with a constraint over the resulting quality. When the compatibility with existing audio formats is required, the side information is embedded directly into the analyzed audio signal using a watermarking technique. This work describes several theoretical and practical aspects of audio signal processing. We show that a classic estimator combined with the sufficient side information can obtain better performances than classic approaches (classic estimation or pure coding)
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Doucy, Jérémie. "Méthodologie pour l’orchestration sémantique de services, application au traitement de documents multimédia". Thesis, Rouen, INSA, 2011. http://www.theses.fr/2011ISAM0014.

Texto completo
Resumen
Après un état de l'art complet nous avons détaillé notre approche de services sémantiques utilisant une méthode innovante pour la composition de services, les patrons de chaînes de traitements. Notre approche est constituée d'un annuaire sémantique hybride proposant différents niveaux de correspondances entre services, de règles de compositions automatiques dans le cas où une demande de services n'est pas fructueuse et enfin d'un moteur d'exécution supportant la résolution et la composition dynamique de services. Par la suite nous avons défini une méthodologie innovante, basée sur l'utilisation de taxonomies de services permettant de peupler rapidement un annuaire sémantique de services. Pour ce faire, nous avons mis au point une ontologie de haut niveau qui permet de lier la classe d'une taxonomie avec un service abstrait annoté sémantiquement. Enfin, nous avons évalué notre prototype à partir des chaînes de traitement mises en place dans les plate-formes déployées par Cassidian
After a complete state of the art we detailed our semantic services approach which uses an innovative method for services composition: processing chains patterns. Our approach is composed on an hybrid semantic servicers registry which propose different levels of matching between services, some composition rules when the matching phase failde and an execution engine which is able to dynamically resolve and com^pose services. In order to solve the service regitry population issue, we have designed an upper ontology, which enables links between a service taxonomy class with a semantically annotated abstract service. Finally, we have evaluated our prototype using real processing chains used by Cassidian platforms
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Kaddah, Wissam. "Apports de nouveaux outils de traitement d'images et de programmation pour le relevé automatique de dégradations sur chaussées". Thesis, Brest, 2018. http://www.theses.fr/2018BRES0102/document.

Texto completo
Resumen
Le réseau routier subit des dégradations sous l’effet du trafic et des conditions climatiques. Le relevé dans les images de différents types de défauts de surface permet d’évaluer l’état du réseau et de programmer des opérations de maintenance nécessaires. Le but de cette thèse est ainsi de développer des méthodes non-supervisées dédiées à l'analyse des images 2D et 3D. Nous nous focalisons sur la détection de dégradations du marquage routier et la détection des fissures sur la chaussée. Dans le cadre de la signalisation horizontale, notre objectif est de réaliser un algorithme capable de détecter, reconnaitre, géolocaliser et quantifier l’état du marquage routier à l’aide d’un système d’imagerie panoramique. Le traitement d’images effectué utilise une méthode de segmentation couleur pour faciliter la phase d’extraction des zones de marquages routiers. Ensuite, une technique de perspective inverse est appliquée pour faciliter l’identification des objets détectés. L’état du marquage est établi à partir des variations des caractéristiques géométriques (longueur, largeur, etc.) et colorimétriques (niveau de couleur blanche) des objets identifiés dans l’image. Dans le cadre de la détection des fissures, notre aspiration consiste à extraire automatiquement les fissures en surface de chaussée, en supposant que celles-ci sont des structures fines et sombres dans l’image. Parmi les nombreuses méthodes existantes, nos approches retenues suivent un schéma classique composé de trois phases principales, à savoir une phase de pré-traitement pour réduire la quantité d’information à traiter, une phase de traitement pour extraire les points ayant une forte vraisemblance d’appartenir à une fissure et une phase de post-traitement pour estimer la gravité du matériel. Les performances de nos algorithmes sont évaluées sur des images réelles 2D et 3D issues de 3 capteurs différents (VIAPIX®, LCMS et Aigle-RN)
The road network is subject to degradations due to traffic and weather conditions. The detection of surface defects within pavement images is used to evaluate the road network and to schedule the necessary maintenance operations. The goal of this thesis is to develop unsupervised processing techniques for the analysis of 2D and 3D pavement images, which originate from imaging systems operating in the field of road engineering. We focus on the detection of road marking damage and the detection of cracks on the pavement. In the context of road marking, our objective is to realize an algorithm for detecting, recognizing, geo-locating and monitoring the wearing conditions of road marking using a panoramic imaging system. The performed image processing uses a color segmentation method to facilitate the extraction phase of the road marking zones. Then, an inverse perspective technique is applied to ease the identification of detected objects.The wearing conditions of road marking is established from the variations in the geometric (length, width, etc.) and colorimetric (white color level) characteristics of the objects identified in the image.In the context of road crack detection, our aspiration is the automatic segmentation of cracks within pavement images, assuming that they represent fine and dark features in the image. Among the many existing methods, our chosen approaches follow a classical scheme composed of three main phases, namely, a pre-processing phase to reduce the amount of information to be processed in the image, a processing phase to extract the points having a high likelihood of belonging to a crack on the road and a post-processing phase to estimate the severity and the damage level of the pavement. The performances of our proposed algorithms are evaluated on 2D and 3D real images, coming from 3 types of existing imaging devices for road engineering (VIAPIX®, LCMS and Aigle-RN)
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Dufour, Olivier. "Reconnaissance automatique de sons d'oiseaux et d'insectes". Thesis, La Réunion, 2016. http://www.theses.fr/2016LARE0005.

Texto completo
Resumen
Cette thèse consiste en l'utilisation d'outils d'informatiques pour recueillir des informations concernant l'écologie d'espèces animales. L'objectif de départ était d'assembler des algorithmes capables de traiter des enregistrements acoustiques et de détecter, lister et dénombrer les sons éventuellement présents d'insectes, amphibiens et oiseaux. Pour ce faire nous avons testé de manière non exhaustive différents classifieurs et descripteurs de signal audio9 pour (première partie) organiser et participer à trois concours internationaux de reconnaissance automatique de sons d'animaux et (seconde partie) construire un outil de suivi d'abondance de deux espèces d'oiseaux marins pélagiques sur l'île de la Réunion. La première moitié de la thèse (chapitre 7) a été dédiée à la construction et au test de modèles de reconnaissance multi-classes (92 espèces animales : 82 espèces d'oiseaux (dont 66 passériformes), 9 espèces d'insectes, et 1 espèce d'amphibien, Pelophylax kl. grafi). La seconde moitié de la thèse (chapitre 8) s'est concentrée sur la construction de détecteurs de cris de deux espèces d'oiseaux protégées dont les colonies sont particulièrement difficiles d'accès et menacées par le développement et les éclairages urbains : Le Pétrel de Barau (Pterodroma baraui, endémique de la Réunion et en danger d'extinction depuis 2008 d'après l'UICN) et le Puffin tropical (Puffinus bailloni)
The present manuscript deals with computer science applied to ecology. The main objective was to assembly algorithms able to analyse acoustic recordings and automatically detect, list and count sounds of insects, amphibiansand birds. We tested a non exhaustive list of audio features and classifiers to (first part) organize and participate to three international challenges of automatic regnotion of animal's sounds and (second part) build a automatic and passive acoustic monitoring of two species of pelagic seabirds on the Reunion island
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Pasquier, David. "Imagerie par Résonance Magnétique et radiothérapie conformationnelle : caractérisation de l'Imagerie par Résonance Magnétique pour son utilisation dans l'établissement des plans de traitement en radiothérapie conformationnelle : développement et évaluation d'un outil de délinéation automatique et semi-automatique des volumes d'intérêt pour la radiothérapie conformationnelle du cancer prostatique". Lille 2, 2006. http://www.theses.fr/2006LIL2S045.

Texto completo
Resumen
La radiothérapie fait partie des traitements à visée curative des tumeurs malignes. Les techniques de radiothérapie ont considérablement évolué ces dernières années avec l'intégration croissante de l'imagerie en radiothérapie conformationnelle. Cette technique permet d'élaborer une balistique complexe se conformant le mieux possible au volume cible en préservant les tissus sains. L'examen utilisé pour la définition des volumes d'intérêt est actuellement la tomodensitométrie ou " scanner " en raison des on exactitude géométrique et de l'information donnée sur les densités électroniques utilisées pour les calculs dosimétriques. L'Imagerie par Résonance Magnétique (IRM) permet cependant une définition plus précise des volumes cibles dans les localisations pelviennes et cérébrales. Dans le cadre des localisations pelviennes, l'utilisation de l'IRM passe à l'heure actuelle par la fusion d'images, ce qui complexifie la phase de préparation du traitement et pose le problème de l'abscence de méthode " standard " de validation in vivo de cette fusion d'images. Nous avons évalué les contraintes posées par l'utilisation de l'IRM seule dans la planification dosimétrique. Nos résultats montrent que ni la distorsion liée au système et au patient ni l'absence d'informations sur les densités électroniques ne représentent des obstacles rédhibitoires à l'utilisation de l'IRM seule dans ce contexte. La distorsion reste contenue y compris en bordure de grands champs de vue sur des machines modernes. Nous avons montré que l'assignation de densités aux structures osseuses et aux tissus mous permettait d'obtenir une dosimétrie équivalente à celle réalisée sur le scanner original avec une bonne reproductibilité et une répartition de dose homogène au sein du volume cible. L'assignation de densités électroniques pourrait même ne pas être réalisée avec des photons de 20 MV et une balistique appropriée. Le développement de la radiothérapie guidée par l'image pourrait faciliter l'utilisation de l'IRM seule dans la planification dosimétrique. La délinéation des volumes d'intérêt est une tâche nécessitant de plus en plus de temps. Nous avons participé au développement et évalué une méthode de segmentation automatique et semi automatique des volumes d''ntérêt d'après des images IRM pour la radiothérapie du cancer prostatique. La délinéation automatique de la prostate repose sur un modèle d'organe déformable ; une méthode par extension de régions a été utilisée pour la délinéation du rectum et de la vessie. Nos résultats sont reproductibles et le retentissement dosimétrique de la délinéation automatique est minime
Radiotherpy is a curative treatment of malignant tumours. Radiotherapy techniques considerably evolved last years with the increasing integration of medical images in conformal radiotherapy. This technique makes it possible to elaborate a complex ballistics conforming to target volume ans sparing healthy tissues. The examination currently used to delineate volumes of interest is Computed Tomography (CT), on account of its geometrical precision and the information that it provides on electronic densities needed to dose calculation. Magnetic Resonance Imaging (MRI) ensures a more precise delineation of target volumes in many locations, such as pelvis and brain. For pelvic tumours, the use of MRI needs image registration, which complicates treatment planning and poses the problem of the lack of in vivo standard method of validation. The obstacles in the use of MRI alone on treatment planning were evaluated. Neither geometrical distorsion linked with the system and the patient nor the lack of information on electronic densities represent stumbling obstacles. Distortion remained low even in edge of large field of view on medern machines. The assignment of electronic densities to bone structures and soft tissues in MR images permitted to obtain equivalent dosimetry to that carried out on the original CT, with a good reproducibility and homogeneous distribution within target volume. The assignment of electronic densities could not be carried out using 20 MV photons and suitable ballistics. The development of Image Guided Radiotherapy could facilitate the use of MRI alone in treatment planning. Target volumes and organ at risk delineation is a time consuming task in radiotherapy planning. We took part in the development and evaluated a method of automatic and semi automatic delineation of volumes of interst from MRI images for prostate cancer radiotherapy. For prostate and organ at risk automatic delineation an organ model-based method and a seeded region growing method were used respectively. Our results are reproducible with minimal repercussion on dosimetry
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Durrieu, Jean-Louis. "Transcription et séparation automatique de la mélodie principale dans les signaux de musique polyphoniques". Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00006123.

Texto completo
Resumen
Nous proposons de traiter l'extraction de la mélodie principale, ainsi que la séparation de l'instrument jouant cette mélodie. La première tâche appartient au domaine de la recherche d'information musicale (MIR) : nous cherchons à indexer les morceaux de musique à l'aide de leur mélodie. La seconde application est la séparation aveugle de sources sonores (BASS) : extraire une piste audio pour chaque source présente dans un mélange sonore. La séparation de la mélodie principale et de l'accompagnement et l'extraction de cette mélodie sont traitées au sein d'un même cadre statistique. Le modèle pour l'instrument principal est un modèle de production source/filtre. Il suppose deux états cachés correspondant à l'état du filtre et de la source. Le modèle spectral choisi permet de prendre compte les fréquences fondamentales de l'instrument désiré et de séparer ce dernier de l'accompagnement. Deux modèles de signaux sont proposés, un modèle de mélange de gaussiennes amplifiées (GSMM) et un modèle de mélange instantané (IMM). L'accompagnement est modélisé par un modèle spectral plus général. Cinq systèmes sont proposés, trois systèmes fournissent la mélodie sous forme de séquence de fréquences fondamentales, un système fournit les notes de la mélodie et le dernier système sépare l'instrument principal de l'accompagnement. Les résultats en estimation de la mélodie et en séparation sont du niveau de l'état de l'art, comme l'ont montré nos participations aux évaluations internationales (MIREX'08, MIREX'09 et SiSEC'08). Nous avons ainsi réussi à intégrer de la connaissance musicale améliorant les résultats de travaux antérieurs sur la séparation de sources sonores.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Durrieu, Jean-Louis. "Transcription et séparation automatique de la mélodie principale dans les signaux de musique polyphoniques". Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00006123.

Texto completo
Resumen
Nous proposons de traiter l'extraction de la mélodie principale, ainsi que la séparation de l'instrument jouant cette mélodie. La première tâche appartient au domaine de la recherche d'information musicale (MIR) : nous cherchons à indexer les morceaux de musique à l'aide de leur mélodie. La seconde application est la séparation aveugle de sources sonores (BASS) : extraire une piste audio pour chaque source présente dans un mélange sonore. La séparation de la mélodie principale et de l'accompagnement et l'extraction de cette mélodie sont traitées au sein d'un même cadre statistique. Le modèle pour l'instrument principal est un modèle de production source/filtre. Il suppose deux états cachés correspondant à l'état du filtre et de la source. Le modèle spectral choisi permet de prendre compte les fréquences fondamentales de l'instrument désiré et de séparer ce dernier de l'accompagnement. Deux modèles de signaux sont proposés, un modèle de mélange de gaussiennes amplifiées (GSMM) et un modèle de mélange instantané (IMM). L'accompagnement est modélisé par un modèle spectral plus général. Cinq systèmes sont proposés, trois systèmes fournissent la mélodie sous forme de séquence de fréquences fondamentales, un système fournit les notes de la mélodie et le dernier système sépare l'instrument principal de l'accompagnement. Les résultats en estimation de la mélodie et en séparation sont du niveau de l'état de l'art, comme l'ont montré nos participations aux évaluations internationales (MIREX'08, MIREX'09 et SiSEC'08). Nous avons ainsi réussi à intégrer de la connaissance musicale améliorant les résultats de travaux antérieurs sur la séparation de sources sonores
We propose to address the problem of melody extraction along with the monaural lead instrument and accompaniment separation problem. The first task is related to Music Information Retrieval (MIR), since it aims at indexing the audio music signals with their melody. The separation problem is related to Blind Audio Source Separation (BASS), as it aims at breaking an audio mixture into several source tracks. Leading instrument source separation and main melody extraction are addressed within a unified framework. The lead instrument is modelled thanks to a source/filter production model. Its signal is generated by two hidden states, the filter state and the source state. The proposed signal spectral model therefore explicitly uses pitches both to separate the lead instrument from the others and to transcribe the pitch sequence played by that instrument, the "main melody". This model gives rise to two alternative models, a Gaussian Scaled Mixture Model (GSMM) and the Instantaneous Mixture Model (IMM). The accompaniment is modelled with a more general spectral model. Five systems are proposed. Three systems detect the fundamental frequency sequence of the lead instrument, i. E. They estimate the main melody. A system returns a musical melody transcription and the last system separates the lead instrument from the accompaniment. The results in melody transcription and source separation are at the state of the art, as shown by our participations to international evaluation campaigns (MIREX'08, MIREX'09 and SiSEC'08). The proposed extension of previous source separation works using "MIR" knowledge is therefore a very successful combination
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Caillon, Antoine. "Hierarchical temporal learning for multi-instrument and orchestral audio synthesis". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS115.

Texto completo
Resumen
Les progrès récents en matière d'apprentissage automatique ont permis l'émergence de nouveaux types de modèles adaptés à de nombreuses tâches, ce grâce à l'optimisation d'un ensemble de paramètres visant à minimiser une fonction de coût. Parmi ces techniques, les modèles génératifs probabilistes ont permis des avancées notables dans la génération de textes, d'images et de sons. Cependant, la génération de signaux audio musicaux reste un défi. Cela vient de la complexité intrinsèque des signaux audio, une seule seconde d'audio brut comprenant des dizaines de milliers d'échantillons individuels. La modélisation des signaux musicaux est plus difficile encore, étant donné que d'importantes informations sont structurées sur différentes échelles de temps, allant du micro (timbre, transitoires, phase) au macro (genre, tempo, structure). La modélisation simultanée de toutes ces échelles implique l'utilisation de larges architectures de modèles, rendant impossible leur utilisation en temps réel en raison de la complexité de calcul. Dans cette thèse, nous proposons une approche hiérarchique de la modélisation du signal audio musical, permettant l'utilisation de modèles légers tout en offrant différents niveaux de contrôle à l'utilisateur. Notre hypothèse principale est que l'extraction de différents niveaux de représentation d'un signal audio permet d'abstraire la complexité des niveaux inférieurs pour chaque étape de modélisation. Dans un premier temps, nous proposons un modèle audio combinant Auto Encodeur Variationnel et Réseaux Antagonistes Génératifs, appliqué directement sur la forme d'onde brute et permettant une synthèse audio neuronale de haute qualité à 48 kHz, tout en étant 20 fois plus rapide que le temps réel sur CPU. Nous étudions ensuite l'utilisation d'approches autoregressives pour modéliser le comportement temporel de la représentation produite par ce modèle audio bas niveau, tout en utilisant des signaux de conditionnement supplémentaires tels que des descripteurs acoustiques ou le tempo. Enfin, nous proposons une méthode pour utiliser tous les modèles proposés directement sur des flux audio, ce qui les rend utilisables dans des applications temps réel que nous avons développées au cours de cette thèse. Nous concluons en présentant diverses collaborations créatives menées en parallèle de ce travail avec plusieurs compositeurs et musiciens, intégrant directement l'état actuel des technologies proposées au sein de pièces musicales
Recent advances in deep learning have offered new ways to build models addressing a wide variety of tasks through the optimization of a set of parameters based on minimizing a cost function. Amongst these techniques, probabilistic generative models have yielded impressive advances in text, image and sound generation. However, musical audio signal generation remains a challenging problem. This comes from the complexity of audio signals themselves, since a single second of raw audio spans tens of thousands of individual samples. Modeling musical signals is even more challenging as important information are structured across different time scales, from micro (e.g. timbre, transient, phase) to macro (e.g. genre, tempo, structure) information. Modeling every scale at once would require large architectures, precluding the use of resulting models in real time setups for computational complexity reasons.In this thesis, we study how a hierarchical approach to audio modeling can address the musical signal modeling task, while offering different levels of control to the user. Our main hypothesis is that extracting different representation levels of an audio signal allows to abstract the complexity of lower levels for each modeling stage. This would eventually allow the use of lightweight architectures, each modeling a single audio scale. We start by addressing raw audio modeling by proposing an audio model combining Variational Auto Encoders and Generative Adversarial Networks, yielding high-quality 48kHz neural audio synthesis, while being 20 times faster than real time on CPU. Then, we study how autoregressive models can be used to understand the temporal behavior of the representation yielded by this low-level audio model, using optional additional conditioning signals such as acoustic descriptors or tempo. Finally, we propose a method for using all the proposed models directly on audio streams, allowing their use in realtime applications that we developed during this thesis. We conclude by presenting various creative collaborations led in parallel of this work with several composers and musicians, directly integrating the current state of the proposed technologies inside musical pieces
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Pasquier, David. "Imagerie par Résonance Magnétique et radiothérapie conformationnelle: Caractérisation de l' Imagerie par Résonance Magnétique pour son utilisation dans l' établissement des plans de traitement en radiothérapie conformationnelle. Développement et évaluation d'un outil de délinéation automatique et semi- automatique des volumes d'intérêt pour la radiothérapie conformationnelle du cancer prostatique". Phd thesis, Université du Droit et de la Santé - Lille II, 2006. http://tel.archives-ouvertes.fr/tel-00483654.

Texto completo
Resumen
La radiothérapie fait partie des traitements à visée curative des tumeurs malignes. Les techniques de radiothérapie ont considérablement évolué ces dernières années avec l' intégration croissante de l'imagerie en radiothérapie conformationnelle. Cette technique permet d'élaborer une balistique complexe se conformant le mieux possible au volume cible en préservant les tissus sains. L'examen utilisé pour la définition des volumes d'intérêt est actuellement la tomodensitométrie ou « scanner » en raison de son exactitude géométrique et de l'information donnée sur les densités électroniques utilisées pour les calculs dosimétriques. L'Imagerie par Résonance Magnétique (IRM) permet cependant une définition plus précise des volumes cibles dans les localisations pelviennes et cérébrales. Dans le cadre des localisations pelviennes, l'utilisation de l'IRM passe à l'heure actuelle par la fusion d'images, ce qui complexifie la phase de préparation du traitement et pose le problème de l'absence de méthode « standard » de validation in vivo de cette fusion d'images. Nous avons évalué les contraintes posées par l'utilisation de l'IRM seule dans la planification dosimétrique. Nos résultats montrent que ni la distorsion liée au système et au patient ni l'absence d'informations sur les densités électroniques ne représentent des obstacles rédhibitoires à l'utilisation de l'IRM seule dans ce contexte. La distorsion reste contenue y compris en bordure de grands champs de vue sur des machines modernes. Nous avons montré que l'assignation de densités aux structures osseuses et aux tissus mous permettait d'obtenir une dosimétrie équivalente à celle réalisée sur le scanner original avec une bonne reproductibilité et une répartition de dose homogène au sein du volume cible. L'assignation de densités électroniques pourrait même ne pas être réalisée avec des photons de 20 MV et une balistique appropriée. Le développement de la radiothérapie guidée par l'image pourrait faciliter l'utilisation de l'IRM seule dans la planification dosimétrique. La délinéation des volumes d'intérêt est une tâche nécessitant de plus en plus de temps. Nous avons participé au développement et évalué une méthode de segmentation automatique et semi automatique des volumes d'intérêt d'après des images IRM pour la radiothérapie du cancer prostatique. La délinéation automatique de la prostate repose sur un modèle d'organe déformable; une méthode par extension de régions a été utilisée pour la délinéation du rectum et de la vessie. Nos résultats sont reproductibles et le retentissement dosimétrique de la délinéation automatique est minime.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Fourer, Dominique. "Approche informée pour l'analyse du son et de la musique". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00954965.

Texto completo
Resumen
En traitement du signal audio, l'analyse est une étape essentielle permettant de comprendre et d'inter-agir avec les signaux existants. En effet, la qualité des signaux obtenus par transformation ou par synthèse des paramètres estimés dépend de la précision des estimateurs utilisés. Cependant, des limitations théoriques existent et démontrent que la qualité maximale pouvant être atteinte avec une approche classique peut s'avérer insuffisante dans les applications les plus exigeantes (e.g. écoute active de la musique). Le travail présenté dans cette thèse revisite certains problèmes d'analyse usuels tels que l'analyse spectrale, la transcription automatique et la séparation de sources en utilisant une approche dite "informée". Cette nouvelle approche exploite la configuration des studios de musique actuels qui maitrisent la chaîne de traitement avant l'étape de création du mélange. Dans les solutions proposées, de l'information complémentaire minimale calculée est transmise en même temps que le signal de mélange afin de permettre certaines transformations sur celui-ci tout en garantissant le niveau de qualité. Lorsqu'une compatibilité avec les formats audio existants est nécessaire, cette information est cachée à l'intérieur du mélange lui-même de manière inaudible grâce au tatouage audionumérique. Ce travail de thèse présente de nombreux aspects théoriques et pratiques dans lesquels nous montrons que la combinaison d'un estimateur avec de l'information complémentaire permet d'améliorer les performances des approches usuelles telles que l'estimation non informée ou le codage pur.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Douwes, Constance. "On the Environmental Impact of Deep Generative Models for Audio". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS074.

Texto completo
Resumen
Cette thèse étudie l'impact environnemental des modèles d'apprentissage profond pour la génération audio et vise à mettre le coût de calcul au cœur du processus d'évaluation. En particulier, nous nous concentrons sur différents types de modèles d'apprentissage profond spécialisés dans la synthèse audio de formes d'onde brutes. Ces modèles sont désormais un élément clé des systèmes audio modernes, et leur utilisation a considérablement augmenté ces dernières années. Leur flexibilité et leurs capacités de généralisation en font des outils puissants dans de nombreux contextes, de la synthèse de texte à la parole à la génération audio inconditionnelle. Cependant, ces avantages se font au prix de sessions d'entraînement coûteuses sur de grandes quantités de données, exploitées sur du matériel dédié à forte consommation d'énergie, ce qui entraîne d'importantes émissions de gaz à effet de serre. Les mesures que nous utilisons en tant que communauté scientifique pour évaluer nos travaux sont au cœur de ce problème. Actuellement, les chercheurs en apprentissage profond évaluent leurs travaux principalement sur la base des améliorations de la précision, de la log-vraisemblance, de la reconstruction ou des scores d'opinion, qui occultent tous le coût de calcul des modèles génératifs. Par conséquent, nous proposons d'utiliser une nouvelle méthodologie basée sur l'optimalité de Pareto pour aider la communauté à mieux évaluer leurs travaux tout en ramenant l'empreinte énergétique -- et in fine les émissions de carbone -- au même niveau d'intérêt que la qualité du son. Dans la première partie de cette thèse, nous présentons un rapport complet sur l'utilisation de diverses mesures d'évaluation des modèles génératifs profonds pour les tâches de synthèse audio. Bien que l'efficacité de calcul soit de plus en plus abordée, les mesures de qualité sont les plus couramment utilisées pour évaluer les modèles génératifs profonds, alors que la consommation d'énergie n'est presque jamais mentionnée. Nous abordons donc cette question en estimant le coût en carbone de la formation des modèles génératifs et en le comparant à d'autres coûts en carbone notables pour démontrer qu'il est loin d'être insignifiant. Dans la deuxième partie de cette thèse, nous proposons une évaluation à grande échelle des vocodeurs neuronaux pervasifs, qui sont une classe de modèles génératifs utilisés pour la génération de la parole, conditionnée par le mel-spectrogramme. Nous introduisons une analyse multi-objectifs basée sur l'optimalité de Pareto à la fois de la qualité de l'évaluation humaine et de la consommation d'énergie. Dans ce cadre, nous montrons que des modèles plus légers peuvent être plus performants que des modèles plus coûteux. En proposant de s'appuyer sur une nouvelle définition de l'efficacité, nous entendons fournir aux praticiens une base de décision pour choisir le meilleur modèle en fonction de leurs exigences. Dans la dernière partie de la thèse, nous proposons une méthode pour réduire les coûts associés à l'inférence des modèle génératif profonds, basée sur la quantification des réseaux de neurones. Nous montrons un gain notable sur la taille des modèles et donnons des pistes pour l'utilisation future de ces modèles dans des systèmes embarqués. En somme, nous fournissons des clés pour mieux comprendre l'impact des modèles génératifs profonds pour la synthèse audio ainsi qu'un nouveau cadre pour développer des modèles tout en tenant compte de leur impact environnemental. Nous espérons que ce travail permettra de sensibiliser les chercheurs à la nécessité d'étudier des modèles efficaces sur le plan énergétique tout en garantissant une qualité audio élevée
In this thesis, we investigate the environmental impact of deep learning models for audio generation and we aim to put computational cost at the core of the evaluation process. In particular, we focus on different types of deep learning models specialized in raw waveform audio synthesis. These models are now a key component of modern audio systems, and their use has increased significantly in recent years. Their flexibility and generalization capabilities make them powerful tools in many contexts, from text-to-speech synthesis to unconditional audio generation. However, these benefits come at the cost of expensive training sessions on large amounts of data, operated on energy-intensive dedicated hardware, which incurs large greenhouse gas emissions. The measures we use as a scientific community to evaluate our work are at the heart of this problem. Currently, deep learning researchers evaluate their works primarily based on improvements in accuracy, log-likelihood, reconstruction, or opinion scores, all of which overshadow the computational cost of generative models. Therefore, we propose using a new methodology based on Pareto optimality to help the community better evaluate their work's significance while bringing energy footprint -- and in fine carbon emissions -- at the same level of interest as the sound quality. In the first part of this thesis, we present a comprehensive report on the use of various evaluation measures of deep generative models for audio synthesis tasks. Even though computational efficiency is increasingly discussed, quality measurements are the most commonly used metrics to evaluate deep generative models, while energy consumption is almost never mentioned. Therefore, we address this issue by estimating the carbon cost of training generative models and comparing it to other noteworthy carbon costs to demonstrate that it is far from insignificant. In the second part of this thesis, we propose a large-scale evaluation of pervasive neural vocoders, which are a class of generative models used for speech generation, conditioned on mel-spectrogram. We introduce a multi-objective analysis based on Pareto optimality of both quality from human-based evaluation and energy consumption. Within this framework, we show that lighter models can perform better than more costly models. By proposing to rely on a novel definition of efficiency, we intend to provide practitioners with a decision basis for choosing the best model based on their requirements. In the last part of the thesis, we propose a method to reduce the inference costs of neural vocoders, based on quantizated neural networks. We show a significant gain on the memory size and give some hints for the future use of these models on embedded hardware. Overall, we provide keys to better understand the impact of deep generative models for audio synthesis as well as a new framework for developing models while accounting for their environmental impact. We hope that this work raises awareness on the need to investigate energy-efficient models simultaneously with high perceived quality
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Baelde, Maxime. "Modèles génératifs pour la classification et la séparation de sources sonores en temps-réel". Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I058/document.

Texto completo
Resumen
Cette thèse s'inscrit dans le cadre de l'entreprise A-Volute, éditrice de logiciels d'amélioration d'expérience audio. Elle propose un radar qui transpose l'information sonore multi-canale en information visuelle en temps-réel. Ce radar, bien que pertinent, manque d'intelligence car il analyse uniquement le flux audio en terme d'énergie et non en termes de sources sonores distinctes. Le but de cette thèse est de développer des algorithmes de classification et de séparation de sources sonores en temps-réel. D'une part, la classification de sources sonores a pour but d'attribuer un label (par exemple voix) à un son monophonique (un label) ou polyphonique (plusieurs labels). La méthode développée utilise un attribut spécifique, le spectre de puissance normalisé, utile à la fois dans le cas monophonique et polyphonique de part sa propriété d'additivité des sources sonores. Cette méthode utilise un modèle génératif qui permet de dériver une règle de décision basée sur une estimation non paramétrique. Le passage en temps-réel est réalisé grâce à un pré-traitement des prototypes avec une classification hiérarchique ascendante. Les résultats sont encourageants sur différentes bases de données (propriétaire et de comparaison), que ce soit en terme de précision ou de temps de calcul, notamment dans le cas polyphonique. D'autre part, la séparation de sources consiste à estimer les sources en terme de signal dans un mélange. Deux approches de séparation ont été considérées dans la thèse. La première considère les signaux à retrouver comme des données manquantes et à les estimer via un schéma génératif et une modélisation probabiliste. L'autre approche consiste, à partir d'exemples sonores présent dans une base de données, à calculer des transformations optimales de plusieurs exemples dont la combinaison tends vers le mélange observé. Les deux propositions sont complémentaires, avec chacune des avantages et inconvénients (rapidité de calcul pour la première, interprétabilité du résultat pour la deuxième). Les résultats expérimentaux semblent prometteurs et nous permettent d'envisager des perspectives de recherches intéressantes pour chacune des propositions
This thesis is part of the A-Volute company, an audio enhancement softwares editor. It offers a radar that translates multi-channel audio information into visual information in real-time. This radar, although relevant, lacks intelligence because it only analyses the audio stream in terms of energy and not in terms of separate sound sources. The purpose of this thesis is to develop algorithms for classifying and separating sound sources in real time. On the one hand, audio source classification aims to assign a label (e.g. voice) to a monophonic (one label) or polyphonic (several labels) sound. The developed method uses a specific feature, the normalized power spectrum, which is useful in both monophonic and polyphonic cases due to its additive properties of the sound sources. This method uses a generative model that allows to derive a decision rule based on a non-parametric estimation. The real-time constraint is achieved by pre-processing the prototypes with a hierarchical clustering. The results are encouraging on different databases (owned and benchmark), both in terms of accuracy and computation time, especially in the polyphonic case. On the other hand, source separation consists in estimating the sources in terms of signal in a mixture. Two approaches to this purpose were considered in this thesis. The first considers the signals to be found as missing data and estimates them through a generative process and probabilistic modelling. The other approach consists, from sound examples present in a database, in computing optimal transformations of several examples whose combination tends towards the observed mixture. The two proposals are complementary, each having advantages and drawbacks (computation time for the first, interpretability of the result for the second). The experimental results seem promising and allow us to consider interesting research perspectives for each of the proposals
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Guilment, Thomas. "Classification de vocalises de mammifères marins en environnement sismique". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0080/document.

Texto completo
Resumen
En partenariat avec l’entreprise Sercel, la thèse concerne la mise en œuvre d’algorithmes de reconnaissance des sons émis par les mysticètes (baleines à fanons). Cessons peuvent être étudiés grâce aux systèmes de surveillance par acoustique passive. L’entreprise Sercel, par ses activités sismiques liées à la prospection pétrolière, a son propre logiciel pour détecter et localiser les sources d’énergie sonores sous-marines. Le travail de la thèse consiste dès lors à ajouter un module de reconnaissance pour identifier si l'énergie détectée et localisée correspond bien à un éventuel mysticète. Les campagnes de tirs sismiques étant onéreuses, la méthode utilisée doit pouvoir réduire la probabilité de fausse alarme, la reconnaissance pouvant infirmer la détection. La méthode proposée est basée sur l’apprentissage de dictionnaire. Elle est dynamique, modulaire, ne dépend que de peu de paramètres et est robuste aux fausses alarmes. Une expérimentation sur cinq types de vocalises est présentée. Nous obtenons un rappel moyen de 92.1 % tout en rejetant 97.3 % des bruits (persistants et transitoires). De plus, un coefficient de confiance est associé à chaque reconnaissance et permet de réaliser de l’apprentissage incrémental semi-supervisé. Enfin, nous proposons une méthode capable de gérer la détection et la reconnaissance conjointement. Ce « détecteur multiclasses » respecte au mieux les contraintes de gestion des fausses alarmes et permet d’identifier plusieurs types de vocalises au même instant. Cette méthode est bien adaptée au contexte industriel pour lequel elle est dédiée. Elle ouvre également des perspectives très prometteuses dans le contexte bioacoustique
In partnership with Sercel, the thesis concerns the implementation of algorithms for recognizing the sounds emitted by mysticetes (baleen whales). These sounds can be studiedusing passive acoustic monitoring systems. Sercel, through its seismic activities related to oïl exploration, has its own software to detect and locate underwater sound energy sources. The thesis work therefore consists in adding a recognition module to identify if the detected andlocalized energy corresponds to a possible mysticete. Since seismic shooting campaigns areexpensive, the method used must be able to reduce the probability of false alarms, as recognitioncan invalidate detection. The proposed method is based on dictionary learning. It is dynamic, modular, depends on few parameters and is robust to false alarms. An experiment on five types of vocalizations is presented. We obtain an average recall of 92.1% while rejecting 97.3% of the noises (persistent and transient). In addition, a confidence coefficient is associated with each recognition and allows semi-supervised incremental learning to be achieved. Finally, we propose a method capable of managing detection and recognition together. This "multiclassdetector" best respects the constraints of false alarm management and allows several types of vocalizations to be identified at the same time. This method is well adapted to the industrial context for which it is dedicated. It also opens up very promising prospects in the bioacoustic context
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Ota, Kenko. "Traitement du signal pour la reconnaissance de la parole robuste dans des environnements bruités et réverbérants". Phd thesis, Ecole Centrale de Lille, 2008. http://tel.archives-ouvertes.fr/tel-00260343.

Texto completo
Resumen
Les technologies de la reconnaissance de la parole ont des performances acceptables si l'on utilise un micro dans des environnements calmes. Si des micros se situent à une position distante d'un locuteur, il faut développer des techniques de la soustraction de bruits et de réverbération. Une technique pour réduire des sons émis par les appareils environnants est proposée. Bien que l'annulation adaptative du bruit (ANC) soit une solution possible, l'excès de soustraction peut causer la distorsion de la parole estimée. Le système proposé utilise la structure harmonique des segments vocaliques que les ANCs conventionnels n'a pas prise en compte directement. La méthode de déréverbération conventionnelle provoque l'excès de soustraction car on suppose que la caractéristique de fréquence, est plate. Il faut donc estimer le temps réel de réverbération pour résoudre ce problème. On propose une méthode de déréverbération aveugle utilisant un micro avec des fonctions d'autocorrélation sur la séquence de composants à chaque fréquence. Une technique pour échapper au problème de permutation qui se provoque lorsqu'on utilise l'analyse en composantes indépendantes (ICA) dans le domaine de fréquence, est également proposée : le Multi-bin ICA. Enfin, ce travail propose une technique pour estimer les spectres de bruit et de parole sans développer de modèle de gaussienne à mélange (GMM). Le spectre de la parole est modélisé à l'aide mélange de processus de Dirichlet (Dirichlet Process Mixture : ‘DPM') au lieu du GMM.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Lesage, Sylvain. "Apprentissage de dictionnaires structurés pour la modélisation parcimonieuse des signaux multicanaux". Phd thesis, Université Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00564061.

Texto completo
Resumen
Les décompositions parcimonieuses décrivent un signal comme une combinaison d'un petit nombre de formes de base, appelées atomes. Le dictionnaire d'atomes, crucial pour l'efficacité de la décomposition, peut résulter d'un choix a priori (ondelettes, Gabor, ...) qui fixe la structure du dictionnaire, ou d'un apprentissage à partir d'exemples représentatifs du signal. Nous proposons ici un cadre hybride combinant des contraites structurelles et une approche par apprentissage. Les dictionnaires ainsi structurés apportent une meilleure adaptation aux propriétés du signal et permettent de traiter des volumes importants de données. Nous exposons les concepts et les outils qui étayent cette approche, notamment l'adaptation des algorithmes Matching Pursuit et K-SVD à des dictionnaires d'atomes constitués de motifs linéairement déformables, via une propriété d'adjonction. Nous présentons également des résultats de séparation de signaux monocanaux dans le cadre proposé.
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Meseguer, Brocal Gabriel. "Multimodal analysis : informed content estimation and audio source separation". Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS111.

Texto completo
Resumen
Cette thèse propose l'étude de l'apprentissage multimodal dans le contexte de signaux musicaux. Tout au long de ce manuscrit, nous nous concentrerons sur l'interaction entre les signaux audio et les informations textuelles. Parmi les nombreuses sources de texte liées à la musique qui peuvent être utilisées (par exemple les critiques, les métadonnées ou les commentaires des réseaux sociaux), nous nous concentrerons sur les paroles. La voix chantée relie directement le signal audio et les informations textuelles d'une manière unique, combinant mélodie et paroles où une dimension linguistique complète l'abstraction des instruments de musique. Notre étude se focalise sur l'interaction audio et paroles pour cibler la séparation de sources et l'estimation de contenu informé. Les stimuli du monde réel sont produits par des phénomènes complexes et leur interaction constante dans divers domaines. Notre compréhension apprend des abstractions utiles qui fusionnent différentes modalités en une représentation conjointe. L'apprentissage multimodal décrit des méthodes qui analysent les phénomènes de différentes modalités et leur interaction afin de s'attaquer à des tâches complexes. Il en résulte des représentations meilleures et plus riches qui améliorent les performances des méthodes d'apprentissage automatique actuelles. Pour développer notre analyse multimodale, nous devons d'abord remédier au manque de données contenant une voix chantée avec des paroles alignées. Ces données sont obligatoires pour développer nos idées. Par conséquent, nous étudierons comment créer une telle base de données en exploitant automatiquement les ressources du World Wide Web. La création de ce type de base de données est un défi en soi qui soulève de nombreuses questions de recherche. Nous travaillons constamment avec le paradoxe classique de la `` poule ou de l'œuf '': l'acquisition et le nettoyage de ces données nécessitent des modèles précis, mais il est difficile de former des modèles sans données. Nous proposons d'utiliser le paradigme enseignant-élève pour développer une méthode où la création de bases de données et l'apprentissage de modèles ne sont pas considérés comme des tâches indépendantes mais plutôt comme des efforts complémentaires. Dans ce processus, les paroles et les annotations non-expertes de karaoké décrivent les paroles comme une séquence de notes alignées sur le temps avec leurs informations textuelles associées. Nous lions ensuite chaque annotation à l'audio correct et alignons globalement les annotations dessus
This dissertation proposes the study of multimodal learning in the context of musical signals. Throughout, we focus on the interaction between audio signals and text information. Among the many text sources related to music that can be used (e.g. reviews, metadata, or social network feedback), we concentrate on lyrics. The singing voice directly connects the audio signal and the text information in a unique way, combining melody and lyrics where a linguistic dimension complements the abstraction of musical instruments. Our study focuses on the audio and lyrics interaction for targeting source separation and informed content estimation. Real-world stimuli are produced by complex phenomena and their constant interaction in various domains. Our understanding learns useful abstractions that fuse different modalities into a joint representation. Multimodal learning describes methods that analyse phenomena from different modalities and their interaction in order to tackle complex tasks. This results in better and richer representations that improve the performance of the current machine learning methods. To develop our multimodal analysis, we need first to address the lack of data containing singing voice with aligned lyrics. This data is mandatory to develop our ideas. Therefore, we investigate how to create such a dataset automatically leveraging resources from the World Wide Web. Creating this type of dataset is a challenge in itself that raises many research questions. We are constantly working with the classic ``chicken or the egg'' problem: acquiring and cleaning this data requires accurate models, but it is difficult to train models without data. We propose to use the teacher-student paradigm to develop a method where dataset creation and model learning are not seen as independent tasks but rather as complementary efforts. In this process, non-expert karaoke time-aligned lyrics and notes describe the lyrics as a sequence of time-aligned notes with their associated textual information. We then link each annotation to the correct audio and globally align the annotations to it. For this purpose, we use the normalized cross-correlation between the voice annotation sequence and the singing voice probability vector automatically, which is obtained using a deep convolutional neural network. Using the collected data we progressively improve that model. Every time we have an improved version, we can in turn correct and enhance the data
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Haffner, Julien. "Conception d'un sol instrumenté pour la détection de chutes de personnes à l'aide de capteurs capacitifs et de techniques de l'apprentissage statistique". Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066117.

Texto completo
Resumen
Chaque année, près de 9000 personnes âgées de plus de 65 ans décèdent des suites d'une chute en France. Les chutes constituent plus de 80% des accidents de la vie courante chez les plus de 65 ans. Ce chiffre devrait s’accroître considérablement du fait de l’évolution démographique, avec l’augmentation programmée de la population gériatrique. Les séquelles d'une chute sont d'autant plus graves que la personne reste longtemps au sol sans pouvoir se relever. Pour limiter les effets des chutes des personnes âgées, il est nécessaire de développer une offre de services et de technologies permettant aux personnes seules de rester en contact avec l'extérieur. Dans cette thèse, deux systèmes de détection de chutes de personne constitués de capteurs capacitifs intégrés dans le sol sont présentés. Les capteurs sont totalement invisibles par les occupants de la pièce, de manière à déranger le moins possible la tranquillité de l'utilisateur. Dans le premier système, les capteurs sont disposés parallèlement entre eux selon une dimension de la salle. Un capteur est constitué de plusieurs électrodes, dont l'écartement relatif a été déterminé pour favoriser la reconnaissance d'une personne allongée sur le sol. Le deuxième système est constitué de deux couches de capteurs perpendiculaires entre elles. Plusieurs pièces ont été instrumentées avec les capteurs capacitifs. Un changement d'environnement a une influence sur le signal capacitif mesuré, en raison de la configuration du sol propre à chaque installation. Des méthodes de pré-traitement des mesures sont proposées pour conférer aux classifieurs sélectionnés une capacité de performance équivalente sur tous les environnements
Almost 9000 people aged over 65 die each year in France, as consequences of a fall. Falls represent over 80% of all domestic accidents in this part of the population. This number should substantially increase, as the average age of the population is expected to constantly grow up in the next decades. The longest the fallen person stay on the floor without being rescued, the worst are the consequences of the fall. In order to decrease negative effects of falls in older people, it is decisive to develop a technological way to keep isolated people in contact with outside world. In this thesis two fall detection systems are presented, made up with capacitive sensors integrated into the floor. Sensors are totally hidden to the view of people living in the room, in a way that their privacy is most respected. In the first system, parallel sensors are laid out in one direction of the room. One sensor is composed of four electrodes, whose relative spaces have been chosen to favor the detection of a person laying down on the floor. The second system consists of two perpendicular layers of capacitive sensors. Several rooms have been equipped with such sensors. Installing sensors in a new environment has an influence on the measured capacitive signal, due to the own floor configuration in each room. Methods of data preprocessing are proposed, in order to give equivalent detection performances in each environment
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Joder, Cyril. "Alignement temporel musique-sur-partition par modèles graphiques discriminatifs". Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00664260.

Texto completo
Resumen
Cette thèse étudie le problème de l'alignement temporel d'un enregistrement musical et de la partition correspondante. Cette tâche peut trouver de nombreuses applications dans le domaine de l'indexation automatique de documents musicaux. Nous adoptons une approche probabiliste et nous proposons l'utilisation de modèles graphiques discriminatifs de type champs aléatoires conditionnels pour l'alignement, en l'exprimant comme un problème d'étiquetage de séquence. Cette classe de modèles permet d'exprimer des modèles plus flexibles que les modèles de Markov cachés ou les modèles semi-markoviens cachés, couramment utilisés dans ce domaine. En particulier, elle rend possible l'utilisation d'attributs (ou descripteurs acoustiques) extraits de séquences de trames audio qui se recouvrent, au lieu d'observations disjointes. Nous tirons parti de cette propriété pour introduire des attributs qui réalisent une modélisation implicite du tempo au plus bas niveau du modèle. Nous proposons trois structures de modèles différentes de complexité croissant, correspondant à différents niveaux de précision dans la modélisation de la durées des évènements musicaux. Trois types de descripteurs acoustiques sont utilisés, pour caractériser localement l'harmonie, les attaques de notes et le tempo de l'enregistrement. Une série d'expériences réalisées sur une base de données de piano classique et de musique pop permet de valider la grande précision de nos modèles. En effet, avec le meilleur des systèmes proposés, plus de 95 % des attaques de notes sont détectées à moins de 100 ms de leur position réelle. Plusieurs attributs acoustiques classiques, calculés à partir de différentes représentation de l'audio, sont utiliser pour mesurer la correspondance instantanée entre un point de la partition et une trame de l'enregistrement. Une comparaison de ces descripteurs est alors menée sur la base de leurs performances d'alignement. Nous abordons ensuite la conception de nouveaux attributs, grâce à l'apprentissage d'une transformation linéaire de la représentation symbolique vers une représentation temps-fréquence quelconque de l'audio. Nous explorons deux stratégies différentes, par minimum de divergence et maximum de vraisemblance, pour l'apprentissage de la transformation optimale. Les expériences effectuées montrent qu'une telle approche peut améliorer la précision des alignements, quelle que soit la représentation de l'audio utilisée. Puis, nous étudions différents ajustements à effectuer afin de confronter les systèmes à des cas d'utilisation réalistes. En particulier, une réduction de la complexité est obtenue grâce à une stratégie originale d'élagage hiérarchique. Cette méthode tire parti de la structure hiérarchique de la musique en vue d'un décodage approché en plusieurs passes. Une diminution de complexité plus importante que celle de la méthode classique de recherche par faisceaux est observée dans nos expériences. Nous examinons en outre une modification des modèles proposés afin de les rendre robustes à d'éventuelles différences structurelles entre la partition et l'enregistrement. Enfin, les propriétés de scalabilité des modèles utilisés sont étudiées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Pelletier, Charlotte. "Cartographie de l'occupation des sols à partir de séries temporelles d'images satellitaires à hautes résolutions : identification et traitement des données mal étiquetées". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30241/document.

Texto completo
Resumen
L'étude des surfaces continentales est devenue ces dernières années un enjeu majeur à l'échelle mondiale pour la gestion et le suivi des territoires, notamment en matière de consommation des terres agricoles et d'étalement urbain. Dans ce contexte, les cartes d'occupation du sol caractérisant la couverture biophysique des terres émergées jouent un rôle essentiel pour la cartographie des surfaces continentales. La production de ces cartes sur de grandes étendues s'appuie sur des données satellitaires qui permettent de photographier les surfaces continentales fréquemment et à faible coût. Le lancement de nouvelles constellations satellitaires - Landsat-8 et Sentinel-2 - permet depuis quelques années l'acquisition de séries temporelles à hautes résolutions. Ces dernières sont utilisées dans des processus de classification supervisée afin de produire les cartes d'occupation du sol. L'arrivée de ces nouvelles données ouvre de nouvelles perspectives, mais questionne sur le choix des algorithmes de classification et des données à fournir en entrée du système de classification. Outre les données satellitaires, les algorithmes de classification supervisée utilisent des échantillons d'apprentissage pour définir leur règle de décision. Dans notre cas, ces échantillons sont étiquetés, \ie{} la classe associée à une occupation des sols est connue. Ainsi, la qualité de la carte d'occupation des sols est directement liée à la qualité des étiquettes des échantillons d'apprentissage. Or, la classification sur de grandes étendues nécessite un grand nombre d'échantillons, qui caractérise la diversité des paysages. Cependant, la collecte de données de référence est une tâche longue et fastidieuse. Ainsi, les échantillons d'apprentissage sont bien souvent extraits d'anciennes bases de données pour obtenir un nombre conséquent d'échantillons sur l'ensemble de la surface à cartographier. Cependant, l'utilisation de ces anciennes données pour classer des images satellitaires plus récentes conduit à la présence de nombreuses données mal étiquetées parmi les échantillons d'apprentissage. Malheureusement, l'utilisation de ces échantillons mal étiquetés dans le processus de classification peut engendrer des erreurs de classification, et donc une détérioration de la qualité de la carte produite. L'objectif général de la thèse vise à améliorer la classification des nouvelles séries temporelles d'images satellitaires à hautes résolutions. Le premier objectif consiste à déterminer la stabilité et la robustesse des méthodes de classification sur de grandes étendues. Plus particulièrement, les travaux portent sur l'analyse d'algorithmes de classification et la sensibilité de ces algorithmes vis-à-vis de leurs paramètres et des données en entrée du système de classification. De plus, la robustesse de ces algorithmes à la présence des données imparfaites est étudiée. Le second objectif s'intéresse aux erreurs présentes dans les données d'apprentissage, connues sous le nom de données mal étiquetées. Dans un premier temps, des méthodes de détection de données mal étiquetées sont proposées et étudiées. Dans un second temps, un cadre méthodologique est proposé afin de prendre en compte les données mal étiquetées dans le processus de classification. L'objectif est de réduire l'influence des données mal étiquetées sur les performances de l'algorithme de classification, et donc d'améliorer la carte d'occupation des sols produite
Land surface monitoring is a key challenge for diverse applications such as environment, forestry, hydrology and geology. Such monitoring is particularly helpful for the management of territories and the prediction of climate trends. For this purpose, mapping approaches that employ satellite-based Earth Observations at different spatial and temporal scales are used to obtain the land surface characteristics. More precisely, supervised classification algorithms that exploit satellite data present many advantages compared to other mapping methods. In addition, the recent launches of new satellite constellations - Landsat-8 and Sentinel-2 - enable the acquisition of satellite image time series at high spatial and spectral resolutions, that are of great interest to describe vegetation land cover. These satellite data open new perspectives, but also interrogate the choice of classification algorithms and the choice of input data. In addition, learning classification algorithms over large areas require a substantial number of instances per land cover class describing landscape variability. Accordingly, training data can be extracted from existing maps or specific existing databases, such as crop parcel farmer's declaration or government databases. When using these databases, the main drawbacks are the lack of accuracy and update problems due to a long production time. Unfortunately, the use of these imperfect training data lead to the presence of mislabeled training instance that may impact the classification performance, and so the quality of the produced land cover map. Taking into account the above challenges, this Ph.D. work aims at improving the classification of new satellite image time series at high resolutions. The work has been divided into two main parts. The first Ph.D. goal consists in studying different classification systems by evaluating two classification algorithms with several input datasets. In addition, the stability and the robustness of the classification methods are discussed. The second goal deals with the errors contained in the training data. Firstly, methods for the detection of mislabeled data are proposed and analyzed. Secondly, a filtering method is proposed to take into account the mislabeled data in the classification framework. The objective is to reduce the influence of mislabeled data on the classification performance, and thus to improve the produced land cover map
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Ambroise-Renault, Valérie. "L'hyperhidrose et son traitement". Nancy 1, 1996. http://www.theses.fr/1996NAN10055.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Montels, Isabelle. "Le zona : son traitement allopathique ; son traitement homéopathique : Apis mellifica, Arsenicum album, Rhus toxicodendron". Bordeaux 2, 1993. http://www.theses.fr/1993BOR2P043.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Colin, Émilie. "Traitement automatique des langues et génération automatique d'exercices de grammaire". Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0059.

Texto completo
Resumen
Le thème support de cette thèse la génération de paraphrases sur support neuronal. Nos perspectives sont éducatives : créer des exercices de grammaire pour le français. La paraphrase est une opération de reformulation. Nos travaux tendent à attester que les modèles séquence vers séquence ne sont pas de simples répétiteurs mais peuvent apprendre la syntaxe. Nous avons montré, en combinant divers modèles, que la représentation de l'information sous de multiples formes (en utilisant de la donnée formelle (RDF), couplée à du texte pour l'étendre ou le réduire, ou encore seulement du texte) permet d'exploiter un corpus sous différents angles, augmentant la diversité des sorties, exploitant les leviers syntaxiques mis en place. Nous nous sommes penchée sur un problème récurrent, celui de la qualité des données, et avons obtenu des paraphrases avec une haute adéquation syntaxique (jusqu'à 98% de couverture de la demande) et un très bon niveau linguistique. Nous obtenons jusqu'à 83.97 points de BLEU*, 78.41 de plus que la moyenne de nos lignes de base, sans levier syntaxique. Ce taux indique un meilleur contrôle des sorties, pourtant variées et de bonne qualité en l'absence de levier. Nous avons ensuite travaillé depuis du texte brut en passant, pour la génération de phrases, par la production d'une représentation du sens de ce texte qui puisse servir d'entrée à la génération de paraphrases. Le passage à du texte en français était aussi pour nous un impératif. Travailler depuis du texte brut, en automatisant les procédures, nous a permis de créer un corpus de plus de 450 000 couples représentations/phrases, grâce auquel nous avons appris à générer des textes massivement corrects (92% sur la validation qualitative). Anonymiser ce qui n'est pas fonctionnel a participé notablement à la qualité des résultats (68.31 de BLEU, soit +3.96 par rapport à la ligne de base, qui était la génération depuis des données non anonymisées). La représentation formelle de l'information dans un cadre linguistique particulier à une langue est une tâche ardue. Cette thèse offre des pistes de méthodes pour automatiser cette opération. Par ailleurs, nous n'avons pu traiter que des phrases relativement courtes. L'utilisation de modèles neuronaux plus récents permettrait sans doute d'améliorer les résultats. Enfin, l'usage de traits adéquats en sortie permettrait des vérifications poussées. *BLEU (Papineni et al., 2002) : qualité d'un texte sur une échelle de 0 (pire) à 100 (meilleur)
Our perspectives are educational, to create grammar exercises for French. Paraphrasing is an operation of reformulation. Our work tends to attest that sequence-to-sequence models are not simple repeaters but can learn syntax. First, by combining various models, we have shown that the representation of information in multiple forms (using formal data (RDF), coupled with text to extend or reduce it, or only text) allows us to exploit a corpus from different angles, increasing the diversity of outputs, exploiting the syntactic levers put in place. We also addressed a recurrent problem, that of data quality, and obtained paraphrases with a high syntactic adequacy (up to 98% coverage of the demand) and a very good linguistic level. We obtain up to 83.97 points of BLEU-4*, 78.41 more than our baseline average, without syntax leverage. This rate indicates a better control of the outputs, which are varied and of good quality in the absence of syntax leverage. Our idea was to be able to work from raw text : to produce a representation of its meaning. The transition to French text was also an imperative for us. Working from plain text, by automating the procedures, allowed us to create a corpus of more than 450,000 sentence/representation pairs, thanks to which we learned to generate massively correct texts (92% on qualitative validation). Anonymizing everything that is not functional contributed significantly to the quality of the results (68.31 of BLEU, i.e. +3.96 compared to the baseline, which was the generation of text from non-anonymized data). This second work can be applied the integration of a syntax lever guiding the outputs. What was our baseline at time 1 (generate without constraint) would then be combined with a constrained model. By applying an error search, this would allow the constitution of a silver base associating representations to texts. This base could then be multiplied by a reapplication of a generation under constraint, and thus achieve the applied objective of the thesis. The formal representation of information in a language-specific framework is a challenging task. This thesis offers some ideas on how to automate this operation. Moreover, we were only able to process relatively short sentences. The use of more recent neural modelswould likely improve the results. The use of appropriate output strokes would allow for extensive checks. *BLEU : quality of a text (scale from 0 (worst) to 100 (best), Papineni et al. (2002))
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Sananes, Anne-Marie. "La cystite et son traitement". Bordeaux 2, 1994. http://www.theses.fr/1994BOR2P090.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Haffner, Julien. "Conception d'un sol instrumenté pour la détection de chutes de personnes à l'aide de capteurs capacitifs et de techniques de l'apprentissage statistique". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066117.

Texto completo
Resumen
Chaque année, près de 9000 personnes âgées de plus de 65 ans décèdent des suites d'une chute en France. Les chutes constituent plus de 80% des accidents de la vie courante chez les plus de 65 ans. Ce chiffre devrait s’accroître considérablement du fait de l’évolution démographique, avec l’augmentation programmée de la population gériatrique. Les séquelles d'une chute sont d'autant plus graves que la personne reste longtemps au sol sans pouvoir se relever. Pour limiter les effets des chutes des personnes âgées, il est nécessaire de développer une offre de services et de technologies permettant aux personnes seules de rester en contact avec l'extérieur. Dans cette thèse, deux systèmes de détection de chutes de personne constitués de capteurs capacitifs intégrés dans le sol sont présentés. Les capteurs sont totalement invisibles par les occupants de la pièce, de manière à déranger le moins possible la tranquillité de l'utilisateur. Dans le premier système, les capteurs sont disposés parallèlement entre eux selon une dimension de la salle. Un capteur est constitué de plusieurs électrodes, dont l'écartement relatif a été déterminé pour favoriser la reconnaissance d'une personne allongée sur le sol. Le deuxième système est constitué de deux couches de capteurs perpendiculaires entre elles. Plusieurs pièces ont été instrumentées avec les capteurs capacitifs. Un changement d'environnement a une influence sur le signal capacitif mesuré, en raison de la configuration du sol propre à chaque installation. Des méthodes de pré-traitement des mesures sont proposées pour conférer aux classifieurs sélectionnés une capacité de performance équivalente sur tous les environnements
Almost 9000 people aged over 65 die each year in France, as consequences of a fall. Falls represent over 80% of all domestic accidents in this part of the population. This number should substantially increase, as the average age of the population is expected to constantly grow up in the next decades. The longest the fallen person stay on the floor without being rescued, the worst are the consequences of the fall. In order to decrease negative effects of falls in older people, it is decisive to develop a technological way to keep isolated people in contact with outside world. In this thesis two fall detection systems are presented, made up with capacitive sensors integrated into the floor. Sensors are totally hidden to the view of people living in the room, in a way that their privacy is most respected. In the first system, parallel sensors are laid out in one direction of the room. One sensor is composed of four electrodes, whose relative spaces have been chosen to favor the detection of a person laying down on the floor. The second system consists of two perpendicular layers of capacitive sensors. Several rooms have been equipped with such sensors. Installing sensors in a new environment has an influence on the measured capacitive signal, due to the own floor configuration in each room. Methods of data preprocessing are proposed, in order to give equivalent detection performances in each environment
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Jeanjean, Philippe. "Le traitement automatique des actes juridiques". Montpellier 1, 1988. http://www.theses.fr/1988MON10014.

Texto completo
Resumen
Face a l'inflation et a la complexite croissantes des actes juridiques l'informatique apparait comme l'instrument privilegie de leur traitement. L'analyse des procedes de raisonnement des juristes pour la confection des actes permet de degager une logique qui doit etre confrontee a celle de l'ordinateur. Les applications informatiques au traitement des actes entrainent des consequences juridiques ( problemes de preuve, de protection, transformation des actes) mais aussi socio-economiques pour les utilisateurs de tels systemes. Parmi celles ci il faut souligner le transfert de la primaute autrefois accordee a la redaction sur l'activite de conseil, qui marque la reconnaissance economique de la preeminence juridique du negotium sur l'instrumentum. De plus, initialement traitement de l'acte en tant qu'instrumentum de preuve, l'ordinateur tend a prendre en charge la part deductive de l' activite du juriste. C'est dans cette optique qu'il faut envisager les systemes-experts et autres systemes d'aide a la decision. Pour l'avenir le traitement des actes juridiques doit s'integrer dans le cadre d'une veritable aide a l'organisation, qui prendra en compte des instruments tels que l'audit contractuel et necessitera l'amelioration du circuit de l'information
In order to deal with the increasing inflation and complexity of legal acts, computers appear to be the right tool. Legal reasoning and logic which emerges have to be compared with computer's logic. Automated drafting of acts has legal consequences ( problems of proof, copyright, modification of the acts) but also in the field of economics. Among those ones we have to underline the fact that drafting itself is less important now than the activity of counsel. That embodies the legal preeminence of negotium on instrumentum. Furthermore, once dedicated to deal with the mechanical part of the lawyer's activity, computers are going now to deal with legal reasoning itself. That's the role of expert systems. In the future the automated drafting of legal acts must be a part of a real help to the organisation which will use such tools as legal audit but also a better flow of legal information
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Jeanjean, Philippe. "Le Traitement automatique des actes juridiques". Lille 3 : ANRT, 1989. http://catalogue.bnf.fr/ark:/12148/cb376145258.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Valentini, Paul Emile. "L'athérosclérose : les différents stades de sa lésion, son mécanisme, son épidémiologie, son traitement". Paris 5, 1989. http://www.theses.fr/1989PA05P083.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Cortial, Odile. "La cataracte et son traitement chirurgical". Paris 5, 1998. http://www.theses.fr/1998PA05P211.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Huynh, Ba-Nghiêm. "Le dysfonctionnement érectile et son traitement". Paris 5, 2001. http://www.theses.fr/2001PA05P022.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Bordato, Agnès. "L'ostéoporose et son traitement par l'alendronate". Bordeaux 2, 1998. http://www.theses.fr/1998BOR2P002.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Coeugnet, Chantal. "La dermatite atopique et son traitement". Bordeaux 2, 1994. http://www.theses.fr/1994BOR2P063.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Duchêne, Chantal. "L' acte suicidaire et son traitement". Paris 7, 2011. http://www.theses.fr/2011PA070123.

Texto completo
Resumen
Cette recherche se propose d'élucider ce qui se joue sur la scène psychique du suicidant, à partir de deux hypothèses qui s'articulent, toutes deux, autour de la constitution de l'objet primaire et de son identification à celui-ci. Lorsque cette dernière s'avère défaillante, l'acte suicidaire reproduirait une expérience de l'originaire entraînant une perte originaire. Dans ce cas, le suicidant aurait « recours à l'acte » pour reprendre l'expression de Claude Balier ou n'aurait pas été en mesure de dépasser une « situation anthropologique fondamentale » (Jean Laplanche), celle du « complexe central » dont parle Mervin Classer. Lorsque l'identification primaire est suffisamment solide, l'acte suicidaire emprunte le schéma de la mélancolie et le sujet retourne contre lui les motions hostiles destinées à l'objet primaire duquel il s'est senti abandonné. Dans ce cas-là, le passage à l'acte autodestructeur serait une mise en acte des fantasmes originaires et résulterait en une perte du moi. Qu'il s'agisse d'une perte originaire ou d'une perte du moi, ce qui. Est en jeu, chez le sujet suicidant, est le narcissisme ou plus exactement ses failles, excès ou manque. Le deuxième volet de cette thèse propose une réflexion sur la prise en charge des patients suicidants dont une des principales caractéristiques est l'impossibilité de parler de leur geste et de pouvoir se le représenter psychiquement. Cette difficulté de mise en sens se trouve renforcée par les orientations actuelles de la politique de santé relative à la prévention du risque suicidaire, en privilégiant le factuel et la réalité extérieure au détriment de la réalité psychique du suicidant
This research aims to clarify what is happening in the suicidal person's psyche. It is based on two assumptions: the relation to the primal object and then the patient's identification with it. When identification is failing, commiting suicide reproduces the original situation leading to experience of loss. Then, the suicidal patient would "resort to suicide", " avoir recours à l'acte" according to Claude Balier's theory. In other words, the suicidal is not able to overcome a " fundamental anthropological situation" described by Jean Laplanche i. E. That of the "central complex" as explained by Mervin Classer. When the identification with the primal object is strong enough, the act of suicide takes the pattern of melancholy. The suicidal uses the hostile feelings he feels towards the primal object who he felt had abandoned him , and turns these negative feelings against himself. In this case, the transition to self damage is the enactment of the primal fantasies (against the primal objet) and results in a loss of the ego. Whether the loss is a primal loss or loss of the ego, what is at stake for the suicidal is narcissism or rather its weaknesses, excess or lack. The second part of this thesis concerns the therapeutic management of suicidal patients, unable to talk about their suicide attempts and represent it emotionally. This difficulty is strengthened by the fact that the current direction of the health care policy concerning the prevention of suicide, is focused on factual and external realities to the detriment of the psychic reality of the suicidal patient
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

FOULET, BERNARD. "La maculopathie diabetique et son traitement". Lille 2, 1992. http://www.theses.fr/1992LIL2M155.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Kessler, Rémy. "Traitement automatique d'informations appliqué aux ressources humaines". Phd thesis, Université d'Avignon, 2009. http://tel.archives-ouvertes.fr/tel-00453642.

Texto completo
Resumen
Depuis les années 90, Internet est au coeur du marché du travail. D'abord mobilisée sur des métiers spécifiques, son utilisation s'étend à mesure qu'augmente le nombre d'internautes dans la population. La recherche d'emploi au travers des « bourses à l'emploi électroniques » est devenu une banalité et le e-recrutement quelque chose de courant. Cette explosion d'informations pose cependant divers problèmes dans leur traitement en raison de la grande quantité d'information difficile à gérer rapidement et efficacement pour les entreprises. Nous présentons dans ce mémoire, les travaux que nous avons développés dans le cadre du projet E-Gen, qui a pour but la création d'outils pour automatiser les flux d'informations lors d'un processus de recrutement. Nous nous intéressons en premier lieu à la problématique posée par le routage précis de courriels. La capacité d'une entreprise à gérer efficacement et à moindre coût ces flux d'informations, devient un enjeu majeur de nos jours pour la satisfaction des clients. Nous proposons l'application des méthodes d'apprentissage afin d'effectuer la classification automatique de courriels visant leur routage, en combinant techniques probabilistes et machines à vecteurs de support. Nous présentons par la suite les travaux qui ont été menés dans le cadre de l'analyse et l'intégration d'une offre d'emploi par Internet. Le temps étant un facteur déterminant dans ce domaine, nous présentons une solution capable d'intégrer une offre d'emploi d'une manière automatique ou assistée afin de pouvoir la diffuser rapidement. Basé sur une combinaison de systèmes de classifieurs pilotés par un automate de Markov, le système obtient de très bons résultats. Nous proposons également les diverses stratégies que nous avons mises en place afin de fournir une première évaluation automatisée des candidatures permettant d'assister les recruteurs. Nous avons évalué une palette de mesures de similarité afin d'effectuer un classement pertinent des candidatures. L'utilisation d'un modèle de relevance feedback a permis de surpasser nos résultats sur ce problème difficile et sujet à une grande subjectivité.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Haddad, Afifa. "Traitement des nominalisations anaphoriques en indexation automatique". Lyon 2, 2001. http://theses.univ-lyon2.fr/documents/lyon2/2001/haddad_a.

Texto completo
Resumen
Cette thèse propose une méthode d'indexation en texte intégral basée sur les syntagmes nominaux anaphoriques. Il s'agit d'exploiter tout le contexte discursif impliqué par une relation d'anaphore pour former un descripteur riche en information, et d'avoir ainsi un index performant. La contribution principale de ce travail consiste en la conception d'une méthode permettant de reconstituer systématiquement tous les arguments d'une nominalisation anaphorique présente dans le discours et d'avoir ainsi un descripteur complètement défini. Cette résolution des anaphores nominales repose toutefois sur un travail préliminaire permettant de recenser toutes les constructions syntaxiques possibles des syntagmes nominaux construits autour d'une nominalisation et d'identifier un ensemble des règles syntaxiques qui réagissent la correspondance entre la forme nominalisée anaphorique et la forme verbale pleine de l'antécédent. Une démonstration de la faisabilité de cette méthode a été réalisée à travers son application sur un corpus
This thesis proposes en indexation method for integral texts based on anaphoric noun phrases. The motivation is to take advantage from the wide context of an anaphora relation in order to build a rich descriptor ? and to get consequently a performant index. The main contribution here is the design of a complete method enabling the systematic reconstitution of all arguments of each anaphoric nominalization encountered in the text. A completely resolved noun phrase constitutes a rich descriptor that is then added to the index. The resolution a nominal anaphora makes use the results of other preliminarly activities. These consists in collecting the syntactic structures of the possible noun phrase corresponding to a nominalization and, identifying a set of the anaphoric noun phrase and the form of its precedent. The feasibility of the proposed has been demonstrated through an application to a real-life corpus
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Konfe, Amadou. "Contribution au traitement automatique de la polysemie". Caen, 1991. http://www.theses.fr/1991CAEN2028.

Texto completo
Resumen
La polysemie en langue naturelle est un phenomene courant que les outils de traitement automatique de l'homonymie ne permettent pas de prendre en compte. A caen, le laboratoire de linguistique elsap a mis au point une theorie de l'ambiguite abordee dans une perspective polysemique, theorie qui a donne lieu a un modele mathematique. La presente these se situe au niveau de la realisation informatique de ce modele a l'aide de methodes connexionnistes. Nous presentons les differenhtes versions d'une application realisee pour le traitement de la plysemie de trois adverbes francais, encore, deja et toujours. Une de ces versions utilise des methodes symboliques (un systeme expert), et nous en profitons pour faire une etude comparative entre les deux approches, symbolique et connexionniste, pour le probleme pose. Il ressort de cette etude que le modele connexionniste est le mieux adapte a notre probleme, du fait de la particularite du domaine: l'expertise n'est pas entierement connue et le raisonnement est de type approche. L'expert marque cependant sa preference pour la solution symbolique: cela lui permet de dialoguer avec le systeme. Pour completer l'approche connexionniste dans ce sens, nous proposons une methode d'extraction de regles symboliques, basee sur une application de la theorie des catastrophes, et adaptee au type de reseaux connexionnistes que nous utilisons: les reseaux recurrents. Nous terminons avec les perspectives ouvertes par cette voir, vers des systemes hybrides: symboliques/connexionnistes
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Hubert, Christian. "Traitement automatique des comptes rendus d'echographie abdominale". Paris 6, 1990. http://www.theses.fr/1990PA066173.

Texto completo
Resumen
Les comptes rendus d'echographie decrivent l'anatomie normale et anormale des structures analysees par sondage ultrasonore. L'utilisateur de ce systeme d'aide a la saisie des comptes rendus ne decrit que les anomalies; le programme propose un compte rendu tenant compte de celles-ci. La premiere phase est une analyse linguistique du commentaire en langue naturelle decrivant les anomalies. La representation interne de celles-ci est un reseau. La deuxieme phase met en uvre un systeme expert qui, a partir de ce reseau, propose un compte rendu tenant compte des anomalies
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Mela, Augusta. "Traitement automatique de la coordination par et". Paris 13, 1992. http://www.theses.fr/1992PA132040.

Texto completo
Resumen
L'analyse des constructions coordonnées a toujours constitué un centre d'intérêt aussi bien en linguistique théorique qu'en linguistique computationnelle. Le phénomène de la coordination par "et" est à la fois large et subtil. Une chaîne conjonctionnelle peut apparaître à droite de presque n'importe quel élément d'une chaîne, constituant ou non-constituant mais pas n'importe où. Cela pose à la fois le problème théorique de rendre compte précisément de l'ensemble des constructions autorisées et le problème calculatoire d'analyser ces constructions le plus efficacement possible. Dans cette thèse nous dressons un inventaire des difficultés occasionnées par ces constructions; nous présentons un état de l'art: précisement nous exposons comme différents formalismes syntaxiques, (tg, gpsg, lfg, ccg) abordent ces problèmes. Nous en tirons des conséquences concernant le choix d'un cadre formel adéquat pour la description de la coordination. Nous proposons un critère de coordination base sur le pouvoir constructeur de têtes lexicales. Nous prétendons que ce critère rend compte des phénomènes structurels que sont les coordinations de constituants de même catégorie et des coordinations de plus d'un constituant, et qu'il est pertinent mais insuffisant pour la coordination de catégories différentes et la coordination à trouée qui sont des phénomènes plus sémantiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Haddad, Afifa Le Guern Michel. "Traitement des nominalisations anaphoriques en indexation automatique". [S.l.] : [s.n.], 2001. http://theses.univ-lyon2.fr/sdx/theses/lyon2/intranet/haddad_a.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía