Teses / dissertações sobre o tema "Prédiction automatique"

Siga este link para ver outros tipos de publicações sobre o tema: Prédiction automatique.

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Prédiction automatique".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Elloumi, Zied. "Prédiction de performances des systèmes de Reconnaissance Automatique de la Parole". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM005/document.

Texto completo da fonte
Resumo:
Nous abordons dans cette thèse la tâche de prédiction de performances des systèmes de reconnaissance automatique de la parole (SRAP).Il s'agit d'une tâche utile pour mesurer la fiabilité d'hypothèses de transcription issues d'une nouvelle collection de données, lorsque la transcription de référence est indisponible et que le SRAP utilisé est inconnu (boîte noire).Notre contribution porte sur plusieurs axes:d'abord, nous proposons un corpus français hétérogène pour apprendre et évaluer des systèmes de prédiction de performances ainsi que des systèmes de RAP.Nous comparons par la suite deux approches de prédiction: une approche à l'état de l'art basée sur l'extraction explicite de traitset une nouvelle approche basée sur des caractéristiques entraînées implicitement à l'aide des réseaux neuronaux convolutifs (CNN).L'utilisation jointe de traits textuels et acoustiques n'apporte pas de gains avec de l'approche état de l'art,tandis qu'elle permet d'obtenir de meilleures prédictions en utilisant les CNNs. Nous montrons également que les CNNs prédisent clairement la distribution des taux d'erreurs sur une collection d'enregistrements, contrairement à l'approche état de l'art qui génère une distribution éloignée de la réalité.Ensuite, nous analysons des facteurs impactant les deux approches de prédiction. Nous évaluons également l'impact de la quantité d'apprentissage des systèmes de prédiction ainsi que la robustesse des systèmes appris avec les sorties d'un système de RAP particulier et utilisés pour prédire la performance sur une nouvelle collection de données.Nos résultats expérimentaux montrent que les deux approches de prédiction sont robustes et que la tâche de prédiction est plus difficile sur des tours de parole courts ainsi que sur les tours de parole ayant un style de parole spontané.Enfin, nous essayons de comprendre quelles informations sont capturées par notre modèle neuronal et leurs liens avec différents facteurs.Nos expériences montrent que les représentations intermédiaires dans le réseau encodent implicitementdes informations sur le style de la parole, l'accent du locuteur ainsi que le type d'émission.Pour tirer profit de cette analyse, nous proposons un système multi-tâche qui se montre légèrement plus efficace sur la tâche de prédiction de performance
In this thesis, we focus on performance prediction of automatic speech recognition (ASR) systems.This is a very useful task to measure the reliability of transcription hypotheses for a new data collection, when the reference transcription is unavailable and the ASR system used is unknown (black box).Our contribution focuses on several areas: first, we propose a heterogeneous French corpus to learn and evaluate ASR prediction systems.We then compare two prediction approaches: a state-of-the-art (SOTA) performance prediction based on engineered features and a new strategy based on learnt features using convolutional neural networks (CNNs).While the joint use of textual and signal features did not work for the SOTA system, the combination of inputs for CNNs leads to the best WER prediction performance. We also show that our CNN prediction remarkably predicts the shape of the WER distribution on a collection of speech recordings.Then, we analyze factors impacting both prediction approaches. We also assess the impact of the training size of prediction systems as well as the robustness of systems learned with the outputs of a particular ASR system and used to predict performance on a new data collection.Our experimental results show that both prediction approaches are robust and that the prediction task is more difficult on short speech turns as well as spontaneous speech style.Finally, we try to understand which information is captured by our neural model and its relation with different factors.Our experiences show that intermediate representations in the network automatically encode information on the speech style, the speaker's accent as well as the broadcast program type.To take advantage of this analysis, we propose a multi-task system that is slightly more effective on the performance prediction task
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Kawala, François. "Prédiction de l'activité dans les réseaux sociaux". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM021/document.

Texto completo da fonte
Resumo:
Cette étude est dédiée à un problème d’exploration de données dans les médias sociaux: la prédiction d’activité. Dans ce problème nous essayons de prédire l’activité associée à une thématique pour un horizon temporel restreint. Dans ce problème des contenus générés par différents utilisateurs, n’ayant pas de lien entre eux, contribuent à l’activité d’une même thématique.Afin de pouvoir définir et étudier la prédiction d’activité sans référence explicite à un réseau social existant, nous définissons un cadre d’analyse générique qui permet de décrire de nombreux médias sociaux. Trois définitions de la prédiction d’activité sont proposées. Premièrement la prédiction de la magnitude d’activité, un problème de régression qui vise à prédire l’activité exacte d’une thématique. Secondement, la prédiction de Buzz, un problème de classification binaire qui vise à prédire quelles thématiques subiront une augmentation soudaine d’activité. Enfin la prédiction du rang d’activité, un problème de learning-to-rank qui vise à prédire l’importance relative de chacune des thématiques. Ces trois problèmes sont étudiés avec les méthodes de l’état de l’art en apprentissage automatique. Les descripteurs proposés pour ces études sont définis en utilisant le cadre d’analyse générique. Ainsi il est facile d’adapter ces descripteurs à différent média sociaux.Notre capacité à prédire l’activité des thématiques est testée à l’aide d’un ensemble de données multilingue: Français, Anglais et Allemand. Les données ont été collecté durant 51 semaines sur Twitter et un forum de discussion. Plus de 500 millions de contenus générés par les utilisateurs ont été capturé. Une méthode de validation croisée est proposée afin de ne pas introduire de biais expérimental lié au temps. De plus, une méthode d’extraction non-supervisée des candidats au buzz est proposée. En effet, les changements abrupts de popularité sont rares et l’ensemble d’entraˆınement est très déséquilibré. Les problèmes de prédiction de l’activité sont étudiés dans deux configurations expérimentales différentes. La première configuration expérimentale porte sur l’ensemble des données collectées dans les deux médias sociaux, et sur les trois langues observées. La seconde configuration expérimentale porte exclusivement sur Twitter. Cette seconde configuration expérimentale vise à améliorer la reproductibilité de nos expériences. Pour ce faire, nous nous concentrons sur un sous-ensemble des thématiques non ambigu¨es en Anglais. En outre, nous limitons la durée des observations à dix semaines consécutives afin de limiter les risques de changement structurel dans les données observées
This dissertation is devoted to a social-media-mining problem named the activity-prediction problem. In this problem one aims to predict the number of user-generated-contents that will be created about a topic in the near future. The user-generated-contents that belong to a topic are not necessary related to each other.In order to study the activity-prediction problem without referring directly to a particular social-media, a generic framework is proposed. This generic framework allows to describe various social-media in a unified way. With this generic framework the activityprediction problem is defined independently of an actual social-media. Three examples are provided to illustrate how this generic framework describes social-media. Three defi- nitions of the activity-prediction problem are proposed. Firstly the magnitude prediction problem defines the activity-prediction as a regression problem. With this definition one aims to predict the exact activity of a topic. Secondly, the buzz classification problem defines the activity-prediction as a binary classification problem. With this definition one aims to predict if a topic will have an activity burst of a predefined amplitude. Thirdly the rank prediction problem defines the activity-prediction as a learning-to-rank problem. With this definition one aims to rank the topics accordingly to theirs future activity-levels. These three definitions of the activity prediction problem are tackled with state-of-the-art machine learning approaches applied to generic features. Indeed, these features are defined with the help of the generic framework. Therefore these features are easily adaptable to various social-media. There are two types of features. Firstly the features which describe a single topic. Secondly the features which describe the interplay between two topics.Our ability to predict the activity is tested against an industrial-size multilingual dataset. The data has been collected during 51 weeks. Two sources of data were used: Twitter and a bulletin-board-system. The collected data contains three languages: English, French and German. More than five hundred millions user-generated-contents were captured. Most of these user-generated-contents are related to computer hardware, video games, and mobile telephony. The data collection necessitated the implementation of a daily routine. The data was prepared so that commercial-contents and technical failure are not sources of noise. A cross-validation method that takes into account the time of observations is used. In addition an unsupervised method to extract buzz candidates is proposed. Indeed the training-sets are very ill-balanced for the buzz classification problem, and it is necessary to preselect buzz candidates. The activity-prediction problems are studied within two different experimental settings. The first experimental setting includes data from Twitter and the bulletin-board-system, on a long time-scale, and with three different languages. The second experimental setting is dedicated specifically to Twitter. This second experiment aims to increase the reproducibility of experiments as much as possible. Hence, this experimental setting includes user-generated-contents collected with respect to a list of unambiguous English terms. In addition the observation are restricted to ten consecutive weeks. Hence the risk of unannounced change in the public API of Twitter is minimized
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Hmamouche, Youssef. "Prédiction des séries temporelles larges". Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0480.

Texto completo da fonte
Resumo:
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark
Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Popov, Mihail. "Décomposition automatique des programmes parallèles pour l'optimisation et la prédiction de performance". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV087/document.

Texto completo da fonte
Resumo:
Dans le domaine du calcul haute performance, de nombreux programmes étalons ou benchmarks sont utilisés pour mesurer l’efficacité des calculateurs,des compilateurs et des optimisations de performance. Les benchmarks de référence regroupent souvent des programmes de calcul issus de l’industrie et peuvent être très longs. Le processus d’´étalonnage d’une nouvelle architecture de calcul ou d’une optimisation est donc coûteux.La plupart des benchmarks sont constitués d’un ensemble de noyaux de calcul indépendants. Souvent l’´étalonneur n’est intéressé que par un sous ensemble de ces noyaux, il serait donc intéressant de pouvoir les exécuter séparément. Ainsi, il devient plus facile et rapide d’appliquer des optimisations locales sur les benchmarks. De plus, les benchmarks contiennent de nombreux noyaux de calcul redondants. Certaines opérations, bien que mesurées plusieurs fois, n’apportent pas d’informations supplémentaires sur le système à étudier. En détectant les similarités entre eux et en éliminant les noyaux redondants, on diminue le coût des benchmarks sans perte d’information.Cette thèse propose une méthode permettant de décomposer automatiquement une application en un ensemble de noyaux de performance, que nous appelons codelets. La méthode proposée permet de rejouer les codelets,de manière isolée, dans différentes conditions expérimentales pour pouvoir étalonner leur performance. Cette thèse étudie dans quelle mesure la décomposition en noyaux permet de diminuer le coût du processus de benchmarking et d’optimisation. Elle évalue aussi l’avantage d’optimisations locales par rapport à une approche globale.De nombreux travaux ont été réalisés afin d’améliorer le processus de benchmarking. Dans ce domaine, on remarquera l’utilisation de techniques d’apprentissage machine ou d’´echantillonnage. L’idée de décomposer les benchmarks en morceaux indépendants n’est pas nouvelle. Ce concept a été aappliqué avec succès sur les programmes séquentiels et nous le portons à maturité sur les programmes parallèles.Evaluer des nouvelles micro-architectures ou la scalabilité est 25× fois plus rapide avec des codelets que avec des exécutions d’applications. Les codelets prédisent le temps d’exécution avec une précision de 94% et permettent de trouver des optimisations locales jusqu’`a 1.06× fois plus efficaces que la meilleure approche globale
In high performance computing, benchmarks evaluate architectures, compilers and optimizations. Standard benchmarks are mostly issued from the industrial world and may have a very long execution time. So, evaluating a new architecture or an optimization is costly. Most of the benchmarks are composed of independent kernels. Usually, users are only interested by a small subset of these kernels. To get faster and easier local optimizations, we should find ways to extract kernels as standalone executables. Also, benchmarks have redundant computational kernels. Some calculations do not bring new informations about the system that we want to study, despite that we measure them many times. By detecting similar operations and removing redundant kernels, we can reduce the benchmarking cost without loosing information about the system. This thesis proposes a method to automatically decompose applications into small kernels called codelets. Each codelet is a standalone executable that can be replayed in different execution contexts to evaluate them. This thesis quantifies how much the decomposition method accelerates optimization and benchmarking processes. It also quantify the benefits of local optimizations over global optimizations. There are many related works which aim to enhance the benchmarking process. In particular, we note machine learning approaches and sampling techniques. Decomposing applications into independent pieces is not a new idea. It has been successfully applied on sequential codes. In this thesis we extend it to parallel programs. Evaluating scalability or new micro-architectures is 25× faster with codelets than with full application executions. Codelets predict the execution time with an accuracy of 94% and find local optimizations that outperform the best global optimization up to 1.06×
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Colombet-Madinier, Isabelle. "Aspects méthodologiques de la prédiction du risque cardiovasculaire : apports de l'apprentissage automatique". Paris 6, 2002. http://www.theses.fr/2002PA066083.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Hmamouche, Youssef. "Prédiction des séries temporelles larges". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0480.

Texto completo da fonte
Resumo:
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark
Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Herry, Sébastien. "Détection automatique de langue par discrimination d'experts". Paris 6, 2007. http://www.theses.fr/2007PA066101.

Texto completo da fonte
Resumo:
L'objectif du travail présenté dans ce mémoire est de détecter de façon automatique une langue dans un flux audio. Pour cela, nous proposons un modèle qui, à l’instar d’experts bilingues, effectue une discrimination par paires de langues avec pour information discriminante, l’information acoustique. Parmi les contraintes imposées, on notera que le système doit : être temps réel, utiliser des bases sans étiquetage, pouvoir intégrer de nouvelles langues avec un apprentissage minimal. Dans un premier temps nous avons mis en œuvre un système de Détection Automatique de Langue (DAL) reprenant l’état de l’art. Les résultats obtenus sur ce système de référence ont servi de comparaison avec ceux obtenus par les systèmes que nous avons développés. Dans un premier temps nous avons proposé un ensemble de discriminateurs, par paire de langue, basés sur des réseaux de neurones. Le traitement est effectué sur toute la durée du segment de parole. Les résultats obtenus sur ces discriminateurs sont ensuite fusionnés afin de réaliser la détection. Ce modèle a fait l’objet d’un brevet. Nous avons ensuite étudié plus précisément l'influence de différents paramètres tels que le nombre de locuteurs, les variations intra et inter corpus ou encore la robustesse. Puis nous avons comparé la modélisation proposée, c'est-à-dire discriminante, à d'autres modélisations auto-régressive et/ou prédictive. Ce système a ensuite été testé dans le cadre de la campagne d’évaluation internationale organisée par le NIST en décembre 2005. Suite à cette évaluation, à laquelle participaient 17 équipes internationales, nous avons proposé plusieurs améliorations basées sur : une normalisation de la base de données, une modification de la base de locuteurs en apprentissage uniquement, une prise en compte de la durée de la phrase en test En conclusion, le système proposé répond bien aux contraintes imposées puisqu'il est temps réel et n’utilise que l’information acoustique. Il est aussi plus performant que le modèle issu de l'état de l'art. Enfin, il est robuste au bruit, au changement de langue et de corpus d’évaluation
The purpose of the presented work in this memoir is to automatically detect language in audio stream. For this we suggest a model which, like bilingual expert, done an discrimination by language pair with only acoustic information. The system have constraint : Operating in real time, Use database without phonetic information, Able to add a new language without retrain all the model In a first time we have done an Automatic language detection system derived from the stat of the art. The results obtained by this system are used as reference for the rest of memoir, and we compare those results with the results obtained by the developed model. In a first time, we propose a set of discriminator, by pair of language, based on neural network. The treatment is done on the whole duration of speech segment. The results of these discriminators are fused to create de detection. This model has a patent. We have study more precisely the influence of different parameter as the number of locator, the variation intra and inter corpus or the hardiness. Next we have compared the proposed modelling based on discrimination, with modelling auto regressive or predictive. This system has been tested with our participation of the international campaign organised by NIST in December 2005. To conclude on this campaign where 17 international teams have participated, we have proposed several improvements as: A normalisation of database, A modification of speaker database for learning only, Increase scores with segment duration. To conclude, the system proposed fulfils the constraints because the system is real time, and use only acoustic information. More over the system is more efficient than the derived model from the stat of the art. At last the model is hardiness for noise, for unknown language, for new evaluation database
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Kashnikov, Yuriy. "Une approche holistique pour la prédiction des optimisations du compilateur par apprentissage automatique". Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0047.

Texto completo da fonte
Resumo:
Un choix efficace des optimisations de compilation améliore notablement la performances des applications. En raison du grand nombre de choix possibles une approche exhaustive est irréalisable et l'exploration peut facilement tomber dans un minimum local. Les compilateurs utilisent des heuristiques qui parfois dégradent la performance, ce qui contraint les utilisateurs à des ajustements manuels. Cette thèse propose une approche holistique basée sur l'apprentissage automatique pour améliorer la sélection des optimisations du compilateur. L'analyse statique d'un grand nombre de boucles permet de montrer l'existence d'un potentiel d'optimisation significatif. On applique ensuite Milepost GCC, un compilateur basé sur l'apprentissage automatique, pour optimiser différentes applications. Il utilise les caractéristiques statiques des fonctions et un algorithme de classification, pour prédire une bonne séquence d'optimisations. Milepost apporte une accélération significative qui surpasse les solutions existantes. La contribution majeure de cette thèse est une méthode de méta-optimisation, ULM. Elle exploite des données statiques et dynamiques afin de déterminer les meilleurs jeux d'apprentissage pour différent algorithmes de classification. En mettant plusieurs algorithmes en compétition, ULM construit un prédicteur plus efficace que les solutions existantes. ULM prédit dans 92% des cas étudiés la meilleure combinaison d'optimisations
Effective compiler optimizations can greatly improve applications performance. These optimizations are numerous and can be applied in any order. Compilers select these optimizations using solutions driven by heuristics which may degrade programs performance. Therefore, developers resort to the tedious manual search for the best optimizations. Combinatorial search space makes this effort intractable and one can easily fall into a local minimum and miss the best combination. This thesis develops a holistic approach to improve applications performance with compiler optimizations and machine learning. A combination of static loop analysis and statistical learning is used to analyze a large corpus of loops and reveal good potential for compiler optimizations. Milepost GCC, a machine-learning based compiler, is applied to optimize benchmarks and an industrial database application. It uses function level static features and classification algorithms to predict a good sequence of optimizations. While Milepost GCC can mispredict the best optimizations, in general it obtains considerable speedups and outperforms state-of-the-art compiler heuristics. The culmination of this thesis is the ULM meta-optimization framework. ULM characterizes applications at different levels with static code features and hardware performance counters and finds the most important combination of program features. By selecting among three classification algorithms and tuning their parameters, ULM builds a sophisticated predictor that can outperform existing solutions. As a result, the ULM framework predicted correctly the best sequence of optimizations sequence in 92% of cases
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Hue, Martial. "Méthodes à noyau pour l'annotation automatique et la prédiction d'interaction de structures de protéine". Paris 7, 2011. http://www.theses.fr/2011PA077151.

Texto completo da fonte
Resumo:
De nombreuses structures de protéines sont désormais résolues à débit élevé, et donnent lieu à un besoin d'annotation automatique. Dans cette thèse, nous examinons plusieurs approches d'apprentissage statistique, basées sur les machines à vecteurs de support (SVM). En effet, la SVM offre plusieurs possibilités adaptées à la complexité des structures de protéines et de leurs interactions. Nous proposons de résoudre ces deux problèmes en examinant de nouveaux noyaux positifs. Dans une premième partie, une fonction noyau pour l'annotation de structures de protéines est présentée. Le noyau est basé sur une fonction de similarité appelée MAMMOTH. Les problèmes de classification correspondant à la classification d'enzymes EC, l'annotation structurelle SCOP, et l'annotation Gène Ontology, montrent que le noyau MAMMOTH renvoie de meilleurs résultats que d'autres choix de noyaux ou de classifieurs. Dans une seconde partie, nous implémentons un noyau dans le contexte de la prédiction supervisée d'objets ayant une structure particulière, à savoir des paires d'objets génériques. Le problème de l'inférence d'arêtes manquantes dans un réseau d'interaction de protéines se formule dans ce contexte. Nos résultats sur trois ensembles de données d'interaction entres structures de protéines montrent que le noyau pour paires basé l'apprentissage de métrique (MLPK), combiné avec le noyau MAMMOTH fournit une meilleure performance. Enfin, nous présentons une méthode nouvelle et efficace pour la prédiction supervisée d'interaction entre protéines. Un noyau pour paires est motivé par deux méthodes précédemment publiées, le noyaux pour paires basé sur le produit tensoriel, et le modèle local. Le lien entre les deux approches est explicité dans un cadre commun, qui fournit une généralisation par une interpolation
As large quantities of protein 3D structures are now routinely solved, there is a need for computational tools to automatically annotate protein structures. In this thesis, we investigate several machine learning approaches for this purpose, based on the popular support vector machine (SVM) algorithm. Indeed, the SVM offers several possibilities to overcome the complexity of protein structures, and their interactions. We propose to solve both issues by investigating new positive definite kernels. First, a kernel function for the annotation of protein structures is devised. The kernel is based on a similarity measure called MAMMOTH. Classification tasks corresponding to Enzyme Classification (EC), Structural Classification of Proteins (SCOP), and Gene Ontology (GO) annotation, show that the MAMMOTH kernel significantly outperforms other choices of kernels for protein structures and classifiers. Second, we design a kernel in the context of binary supervised prediction of objects with a specific structure, namely pairs of general objects. The problem of the inference of missing edges in a protein-protein interaction network may be cast in this context. Our results on three benchmarks of interaction between protein structures suggest that the Metric Learning Pairwise Kernel (MLPK), in combination with the MAMMOTH kernel, yield the best performance. Lastly, we introduce a new and efficient learning method for the supervised prediction of protein interaction. A pairwise kernel method is motivated by two previous methods, the Tensor Product Pairwise Kernel (TPPK) and the local model. The connection between the approaches is explicited and the two methods are formulated in a new common framework, that yields to natural generalization by an interpolation
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Grenet, Ingrid. "De l’utilisation des données publiques pour la prédiction de la toxicité des produits chimiques". Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4050.

Texto completo da fonte
Resumo:
L’évaluation de la sécurité des composés chimiques repose principalement sur les résultats des études in vivo, réalisées sur des animaux de laboratoire. Cependant, ces études sont coûteuses en terme de temps, d'argent et d'utilisation d'animaux, ce qui les rend inadaptées à l'évaluation de milliers de composés. Afin de prédire rapidement la toxicité potentielle des composés et de les prioriser pour de futures études, des solutions alternatives sont actuellement envisagées telles que les essais in vitro et les modèles prédictifs d'apprentissage automatique. L’objectif de cette thèse est d’évaluer comment les données publiques de ToxCast et ToxRefDB peuvent permettre de construire de tels modèles afin de prédire les effets in vivo induits par les composés, uniquement à partir de leur structure chimique. A cette fin, et après pré-traitement des données, nous nous focalisons d’abord sur la prédiction de la bioactivité in vitro à partir de la structure chimique puis sur la prédiction des effets in vivo à partir des données de bio-activité in vitro. Pour la prédiction de la bio-activité in vitro, nous construisons et testons différents modèles de machine learning dont les descripteurs reflètent la structure chimique des composés. Puisque les données d'apprentissage sont fortement déséquilibrées en faveur des composés non toxiques, nous testons une technique d'augmentation de données et montrons qu’elle améliore les performances des modèles. Aussi, par une étude à grande échelle sur des centaines de tests in vitro de ToxCast, nous montrons que la méthode ensembliste "stacked generalization" mène à des modèles fiables sur leur domaine d'applicabilité. Pour la prédiction des effets in vivo, nous évaluons le lien entre les résultats des essais in vitro ciblant des voies connues pour induire des effets endocriniens et les effets in vivo observés dans les organes endocriniens lors d'études long terme. Nous montrons que, de manière inattendue, ces essais ne sont pas prédictifs des effets in vivo, ce qui soulève la question essentielle de la pertinence des essais in vitro. Nous faisons alors l’hypothèse que le choix d’essais capables de prédire les effets in vivo devrait reposer sur l’utilisation d'informations complémentaires comme, en particulier, les données mécanistiques
Currently, chemical safety assessment mostly relies on results obtained in in vivo studies performed in laboratory animals. However, these studies are costly in term of time, money and animals used and therefore not adapted for the evaluation of thousands of compounds. In order to rapidly screen compounds for their potential toxicity and prioritize them for further testing, alternative solutions are envisioned such as in vitro assays and computational predictive models. The objective of this thesis is to evaluate how the public data from ToxCast and ToxRefDB can allow the construction of this type of models in order to predict in vivo effects induced by compounds, only based on their chemical structure. To do so, after data pre-processing, we first focus on the prediction of in vitro bioactivity from chemical structure and then on the prediction of in vivo effects from in vitro bioactivity data. For the in vitro bioactivity prediction, we build and test various models based on compounds’ chemical structure descriptors. Since learning data are highly imbalanced in favor of non-toxic compounds, we test a data augmentation technique and show that it improves models’ performances. We also perform a largescale study to predict hundreds of in vitro assays from ToxCast and show that the stacked generalization ensemble method leads to reliable models when used on their applicability domain. For the in vivo effects prediction, we evaluate the link between results from in vitro assays targeting pathways known to induce endocrine effects and in vivo effects observed in endocrine organs during longterm studies. We highlight that, unexpectedly, these assays are not predictive of the in vivo effects, which raises the crucial question of the relevance of in vitro assays. We thus hypothesize that the selection of assays able to predict in vivo effects should be based on complementary information such as, in particular, mechanistic data
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Grivolla, Jens. "Apprentissage et décision automatique en recherche documentaire : prédiction de difficulté de requêtes et sélection de modèle de recherche". Avignon, 2006. http://www.theses.fr/2006AVIG0142.

Texto completo da fonte
Resumo:
Cette thèse se situe dans la problématique de la recherche documentaire. Dans ce domaine, chaque besoin en information est exprimé par un utilisateur sous la forme d'une requête en langage naturel. Il existe différentes approches pour traiter ces requêtes, mais les systèmes actuels utilisent généralement une méthode unique, indépendante des caractéristiques de la requête. On peut pourtant montrer de façon expérimentale que la performance relative d'une technique de recherche sur une autre peut varier considérablement suivant la requête traitée. Nous avons abordé cette thématique en proposant des méthodes qui permettent de repérer automatiquement les requêtes qui posent des difficultés particulières au système utilisé, afin de permettre un traitement spécifique et adapté. Nous avons ainsi dégagé un certain nombre de fonctions de prédiction de qualité qui obtiennent des résultats comparables à ceux publiés récemment par d'autres équipes de recherche. La particularité et originalité de ce travail a consisté à étudier la combinaison de ces différentes mesures. En utilisant des méthodes de classification automatique, nous avons obtenu des prédictions relativement fiables sur la base de mesures qui individuellement ont un pouvoir de discrimination considérablement plus faible. Au-delà de la prédiction de difficulté des requêtes, nous avons utilisé nos méthodes pour adapter le processus de recherche à la requête posée
This thesis is centered around the subject of information retrieval, with a focus on those queries that are particularly difficult to handle for current retrieval systems. In the application and evaluation settings we were concerned with, a user expresses his information need as a natural language query. There are different approaches for treating those queries, but current systems typically use a single approach for all queries, without taking into account the specific properties of each query. However, it has been shown that the performance of one strategy relative to another can vary greatly depending on the query. We have approached this problem by proposing methods that will permit to automatically identify those queries that will pose particular difficulties to the retrieval system, in order to allow for a specific treatment. This research topic was very new and barely starting to be explored at the beginning of my work, but has received much attention these last years. We have developed a certain number of quality predictor functions that obtain results comparable to those published recently by other research teams. However, the ability of individual predictors to accurately classify queries by their level of difficulty remains rather limited. The major particularity and originality of our work lies in the combination of those different measures. Using methods of automatic classification with corpus-based training, we have been able to obtain quite reliable predictions, on the basis of measures that individually are far less discriminant. We have also adapted our approach to other application settings, with very encouraging results. We have thus developed a method for the selective application of query expansion techniques, as well as the selection of the most appropriate retrieval model for each query
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Salaün, Achille. "Prédiction d'alarmes dans les réseaux via la recherche de motifs spatio-temporels et l'apprentissage automatique". Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAS010.

Texto completo da fonte
Resumo:
Les réseaux de télécommunication prennent aujourd'hui une place prépondérante dans notre monde. Ils permettent en effet de partager des informations en masse et à l’échelle planétaire. Toutefois, il s’agit de systèmes complexes, en taille comme en diversité technologique. Cela rend d’autant plus complexes leur maintenance et leur réparation. Afin de limiter l’influence négative de ces dernières, des outils doivent être développés pour détecter une panne dès qu’elle a lieu, en analyser les causes afin de la résoudre efficacement, voire prédire ladite panne pour prévenir plutôt que guérir. Dans cette thèse, nous nous intéressons principalement à ces deux derniers problèmes. Pour cela, nous disposons de fichiers, appelés logs d’alarmes, recensant l’ensemble des alarmes émises par le système. Cependant, ces fichiers sont généralement verbeux et bruités: l’administrateur à la charge d’un réseau doit disposer d’outils capables d’isoler et manipuler de façon interprétable les liens de causalité au sein d’un log. Dans cette thèse, nous avons suivi deux approches. La première est inspirée des techniques de correspondance de motifs: en s’inspirant de l’algorithme d’Ukkonen, nous construisons en ligne une structure, appelée DIG-DAG, qui stocke toutes les chaînes de causalité possibles entre les événements d’un log. Nous proposons également un système de requête pour exploiter cette structure. Enfin, nous appliquons cette approche dans le cadre de l’analyse de causes racines. La seconde approche est une approche générative pour la prédiction de données. En particulier, nous comparons deux modèles classiques pour cette tâche: les réseaux de neurones récurrents d’une part et les modèles de Markov cachés d’autre part. En effet, dans leurs communautés respectives, ces deux modèles font office d’état de l’art. Ici, nous comparons analytiquement leurs expressivités grâce à un modèle probabiliste, appelé GUM, englobant ces deux modèles
Nowadays, telecommunication networks occupy a central position in our world. Indeed, they allow to share worldwide a huge amount of information. Networks are however complex systems, both in size and technological diversity. Therefore, it makes their management and reparation more difficult. In order to limit the negative impact of such failures, some tools have to be developed to detect a failure whenever it occurs, analyse its root causes to solve it efficiently, or even predict this failure as prevention is better than cure. In this thesis, we mainly focus on these two last problems. To do so, we use files, called alarm logs, storing all the alarms that have been emitted by the system. However, these files are generally noisy and verbose: an operator managing a network needs tools able to extract and handle in an interpretable manner the causal relationships inside a log. In this thesis, we followed two directions. First, we have inspired from pattern matching techniques: similarly to the Ukkonen’s algorithm, we build online a structure, called DIG-DAG, that stores all the potential causal relationships between the events of a log. Moreover, we introduce a query system to exploit our DIG-DAG structure. Finally, we show how our solution can be used for root cause analysis. The second approach is a generative approach for the prediction of time series. In particular, we compare two well-known models for this task: recurrent neural nets on the one hand, hidden Markov models on the other hand. Here, we compare analytically the expressivity of these models by encompassing them into a probabilistic model, called GUM
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Kallas, Maya. "Méthodes à noyaux en reconnaissance de formes, prédiction et classification : applications aux biosignaux". Troyes, 2012. http://www.theses.fr/2012TROY0026.

Texto completo da fonte
Resumo:
Le foisonnement des méthodes à noyaux réside dans l’astuce du noyau, induisant implicitement une transformation non-linéaire à coût calculatoire réduit. Cependant, la transformation inverse est souvent cruciale. La résolution de ce problème, dit de pré-image, permet de nouveaux domaines d’applications de ces méthodes. L’objectif de cette thèse est de montrer que les récentes avancées en théorie de l’apprentissage statistique apportent des solutions pertinentes à plusieurs problèmes soulevés en traitement du signal et des images. La première partie porte sur la résolution du problème de pré-image avec contraintes imposées par la physiologie. En particulier, la nonnégativité est probablement la plus couramment énoncée. Les contraintes de nonnégativité du résultat ainsi que celles de l’additivité des contributions, induisant une certaine parcimonie, sont étudiées. La seconde partie porte sur l’analyse de séries temporelles, selon une approche prédictive. Des modèles autorégressifs sont élaborés dans l’espace transformé, la prédiction nécessitant la résolution du problème de pré-image. Deux modèles à noyaux de prédiction sont considérés : le premier basé sur le problème de moindres carrés, et le second sur les équations de Yule-Walker. La dernière partie traite le problème de classification d’électrocardiogrammes, afin d’y détecter des anomalies. La détection et la classification multi-classes sont examinées au jour des machines à vecteurs supports et des cartes d’auto-organisation
The proliferation of kernel methods lies essentially on the kernel trick, which induces an implicit nonlinear transformation with reduced computational cost. Still, the inverse transformation is often necessary. The resolution of this so-called pre-image problem enables new fields of applications of these methods. The main purpose of this thesis is to show that recent advances in statistical learning theory provide relevant solutions to several issues raised in signal and image processing. The first part focuses on the pre-image problem, and on solutions with constraints imposed by physiology. The non-negativity is probably the most commonly stated constraints when dealing with natural signals and images. Nonnegativity constraints on the result, as well as on the additivity of the contributions, are studied. The second part focuses on time series analysis according to a predictive approach. Autoregressive models are developed in the transformed space, while the prediction requires solving the pre-image problem. Two kernelbased predictive models are considered: the first one is derived by solving a least-squares problem, and the second one by providing the adequate Yule-Walker equations. The last part deals with the classification task for electrocardiograms, in order to detect anomalies. Detection and multi-class classification are explored in the light of support vector machines and self-organizing maps
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Temanni, Mohamed-Ramzi. "Combinaison de sources de données pour l'amélioration de la prédiction en apprentissage : une application à la prédiction de la perte de poids chez l'obèse à partir de données transcriptomiques et cliniques". Paris 6, 2009. https://tel.archives-ouvertes.fr/tel-00814513.

Texto completo da fonte
Resumo:
Les maladies complexes comme l'obésité sont des maladies multifactorielles. Peu de travaux existent pour essayer de prédire les effets des différents traitements et ainsi mieux adapter les traitements aux patients. L'utilisation de modèles prédictifs pour mieux guider le choix des traitements de l'obésité reste un champ de recherche peu exploré malgré le fort impact qu'elle pourrait avoir vu la prévalence de cette maladie. Dans d'autres domaines de la médecine, comme la cancérologie par exemple, de telles méthodes sont déjà utilisées pour l'aide au diagnostic se basant notamment sur des données issues de puces à ADN. Cette technologie s'avère adaptée et son utilisation a donné lieu à des résultats intéressants pour dépister les maladies ou aider les médecins dans leur choix thérapeutique. Cependant si celle‐ci s'avère suffisante pour prédire d'une manière satisfaisante dans le domaine du cancer, en revanche elle s'avère d'un apport limité dans le cadre d'une application aux données de l'obésité. Cela suggère l'utilisation d'autres données patients pour améliorer les performances en prédiction. Les travaux de recherche présentés dans ce mémoire abordent les problèmes de la prédiction de la perte de poids suite à un régime ou une chirurgie bariatrique. Nous avons analysé le problème de la prédiction de la perte de poids à partir des données transcriptomique dans le cadre de deux projets européens et aussi à partir des données biocliniques dans le cadre de la chirurgie de l’obésité. Nous avons ensuite proposé trois concepts de combinaisons de modèles : combinaison de données, combinaison de méthodes et combinaison avec abstention. Nous avons analysé empiriquement ces trois approches et les expérimentations ont montré une amélioration des résultats pour les données de l'obésité même si ceux‐ci restent bien en deça de ce qu'on observe avec les données cancers
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Pham, Duc-Thinh. "Prédiction de trajectoire et avis de résolution de conflits de trafic aérien basée sur l’apprentissage automatique". Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEP027.

Texto completo da fonte
Resumo:
L'augmentation de la demande de trafic a mis à rude épreuve le système de contrôle de la circulation aérienne et les contrôleurs, d'où la nécessité d'un système novateur et efficace de détection et de résolution des conflits. Dans le cadre de cette thèse, nous nous concentrons sur l'étude des défis de la détection et de la résolution des conflits en utilisant des approches d'apprentissage machine. Nous avons essayé d'apprendre et de prédire les comportements des contrôleurs à partir de données utilisant Random Forest. Nous proposons également une nouvelle approche pour la détection probabiliste des conflits en utilisant le Processus Gaussien Hétéroscédastique comme modèles prédictifs et l'optimisation bayésienne pour l'algorithme de détection probabiliste des conflits. Enfin, nous proposons un agent intelligent artificiel capable de résoudre les conflits, en présence de trafic et d'incertitude. La tâche de résolution de conflit est formulée comme un problème de prise de décision dans un espace d'action vaste et complexe, qui est applicable pour l'utilisation d'un algorithme d'apprentissage par renforcement. Notre travail comprend le développement d'un environnement d'apprentissage, la représentation des états des scénarios, la fonction de récompense et l'algorithme d'apprentissage. Les méthodes d'apprentissage machine ont montré leurs avantages et leur potentiel dans la détection et la résolution des conflits. Cependant, d'autres études seraient menées pour améliorer leurs performances, telles que la représentation du réseau de l'espace aérien, l'apprentissage du renforcement multi-agent ou la reconstruction de la stratégie du contrôleur à partir de données
The increasing in traffic demand has strained air traffic control system and controllers which lead to the need of novel and efficient conflict detection and resolution advisory. In the scope of this thesis, we concentrate on studying challenges in conflict detection and resolution by using machine learning approaches. We have attempted to learn and predict controller behaviors from data using Random Forest. We also propose a novel approach for probabilistic conflict detection by using Heteroscedastic Gaussian Process as predictive models and Bayesian Optimization for probabilistic conflict detection algorithm. Finally, we propose an artificial intelligent agent that is capable of resolving conflicts, in the presence of traffic and uncertainty. The conflict resolution task is formulated as a decision-making problem in large and complex action space, which is applicable for employing reinforcement learning algorithm. Our work includes the development of a learning environment, scenario state representation, reward function, and learning algorithm. Machine learning methods have showed their advantages and potential in conflict detection and resolution related challenges. However, more studies would be conducted to improve their performances such as airspace network representation, multi-agent reinforcement learning or controller's strategy reconstruction from data
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Ouliz, Rhita. "Prédiction de la variabilité spatiale de la disponibilité en biomasse résiduelle à l'aide de l'apprentissage automatique". Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27789.

Texto completo da fonte
Resumo:
La biomasse forestière résiduelle correspond à la biomasse ligneuse laissée sur le parterre de la forêt après une coupe. Cette biomasse peut servir comme source d’énergie renouvelable, à un prix pouvant être, dans certaines conditions, compétitif relativement à d’autres sources d’énergie. Le succès de l’utilisation de ce type de biomasse tient en partie à une gestion efficace de son réseau d’approvisionnement. Ainsi, la gestion du risque de rupture d’approvisionnement de la biomasse forestière résiduelle est essentielle pour garantir le potentiel d’expansion d’un réseau de distribution aux clients. Le présent mémoire vise à améliorer la rentabilité d’approvisionnement de la biomasse forestière résiduelle par le biais d’une gestion efficace des sources d’erreur relatives à l’estimation de la disponibilité en biomasse. Il s’agit d’estimer la variabilité spatiale de la biomasse résiduelle avec une précision acceptable en optant pour les techniques de l’apprentissage automatique (en anglais, machine learning). L’apprentissage automatique est une tentative pour reproduire la notion d’apprentissage. Il s’agit de concevoir des algorithmes capables d’apprendre à partir des exemples ou des échantillons, afin de prédire les valeurs des cibles. Dans notre cas d’étude, la méthode KNN nous permettra d’estimer la quantité de la biomasse résiduelle des unités de surface cibles (polygones) à partir des k placettes-échantillons voisines. Pour ce faire, nous estimerons, dans un premier temps, la variabilité spatiale de la disponibilité en biomasse résiduelle en utilisant la méthode d’apprentissage automatique k-plus proches voisins (en anglais, k-nearest neighbors : KNN). Nous déterminerons ensuite l’erreur de notre estimation en utilisant la méthode bootstrap. Finalement, nous développerons une spatialisation de la quantité de biomasse forestière résiduelle en tenant compte de l’erreur d’estimation. Les résultats d’estimation obtenus, dans le cadre de cette recherche, indiquent une précision allant de 59,5 % à 71 % et centrée autour de 65,4 %. Notre méthodologie a permis ainsi d’obtenir des résultats pertinents comparativement à l’étude de Bernier et al. (2010) qui ont estimés le volume de biomasse forestière avec la méthode KNN et ont eu comme résultat une précision d’estimation égale à 19 %. L’utilisation de cette méthode pourra aussi être pertinente pour l’estimation de la biomasse forestière marchande et pour la prédiction de la biomasse forestière totale par essence d’arbres.
Residual forest biomass is the woody biomass left over on the forest floor after harvesting. This biomass can be used as a source of renewable energy, at a price that may be, under certain conditions, competitive relative to other energy sources. The success of the use of residual forest biomass depends in part on an effective management of its supply chain. Thus, the risk management of supply disruption of residual forest biomass is essential to ensure the potential for expansion of a customer’s distribution network. This project aims to improve the supply chain profitability of residual forest biomass through effective management of sources of error related to the estimation of the availability of biomass. This is the estimation of the spatial variability of residual biomass with acceptable accuracy by using machine learning techniques. Machine learning is an attempt to replicate the concept of learning. It consists to design algorithms capable to learn from examples or samples in order to predict the values of targets In our case study, the KNN method will allow us to estimate residual biomass of the target area units (polygons) from the k nearest neighbour plots. To this effect, we will estimate initially the spatial variability in the availability of residual biomass using the machine learning method KNN (k nearest neighbours). We then determine the error of our estimation using a bootstrap method. Finally, we will develop the location of the residual forest biomass quantity taking into account the estimation error. The estimation results obtained in the framework of this research indicate an accuracy of 59,5 % to 71 % centred around 65,4 % with an estimation error of 29 % to 34,5 %. Our methodology has yielded relevant results compared with the study of Bernier et al. (2010) which has had accuracy of estimation equal to 19% of forest biomass volume using the KNN method. The use of this method may also be relevant for estimating the commercial forest biomass and for the prediction of forest biomass of each tree species.
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Michalon, Olivier. "Modèles statistiques pour la prédiction de cadres sémantiques". Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0221/document.

Texto completo da fonte
Resumo:
En traitement automatique de la langue, les différentes étapes d'analyse usuelles ont tour à tour amélioré la façon dont le langage peut être modélisé par les machines. Une étape d'analyse encore mal maîtrisée correspond à l'analyse sémantique. Ce type d'analyse permettrait de nombreuses avancées, telles que de meilleures interactions homme-machine ou des traductions plus fiables. Il existe plusieurs structures de représentation du sens telles que PropBank, les AMR et FrameNet. FrameNet correspond à la représentation en cadres sémantiques dont la théorie a été décrite par Charles Fillmore. Dans cette théorie, chaque situation prototypique et les différents éléments y intervenant sont représentés de telle sorte que deux situations similaires soient représentées par le même objet, appelé cadre sémantique. Le projet FrameNet est une application de cette théorie, dans laquelle plusieurs centaines de situations prototypiques sont définies. Le travail que nous décrirons ici s'inscrit dans la continuité des travaux déjà élaborés pour prédire automatiquement des cadres sémantiques. Nous présenterons quatre systèmes de prédiction, chacun ayant permis de valider une hypothèse sur les propriétés nécessaires à une prédiction efficace. Nous verrons également que notre analyse peut être améliorée en fournissant aux modèles de prédiction des informations raffinées au préalable, avec d'un côté une analyse syntaxique dont les liens profonds sont explicités et de l'autre des représentations vectorielles du vocabulaire apprises au préalable
In natural language processing, each analysis step has improved the way in which language can be modeled by machines. Another step of analysis still poorly mastered resides in semantic parsing. This type of analysis can provide information which would allow for many advances, such as better human-machine interactions or more reliable translations. There exist several types of meaning representation structures, such as PropBank, AMR and FrameNet. FrameNet corresponds to the frame semantic framework whose theory has been described by Charles Fillmore (1971). In this theory, each prototypical situation and each different elements involved are represented in such a way that two similar situations are represented by the same object, called a semantic frame. The work that we will describe here follows the work already developed for machine prediction of frame semantic representations. We will present four prediction systems, and each one of them allowed to validate another hypothesis on the necessary properties for effective prediction. We will show that semantic parsing can also be improved by providing prediction models with refined information as input of the system, with firstly a syntactic analysis where deep links are made explicit and secondly vectorial representations of the vocabulary learned beforehand
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Raynaut, William. "Perspectives de méta-analyse pour un environnement d'aide à la simulation et prédiction". Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30005/document.

Texto completo da fonte
Resumo:
L'émergence du phénomène Big Data a créé un besoin grandissant en analyse de données, mais, bien souvent, cette analyse est conduite par des experts de différents domaines ayant peu d'expérience en science des données. On s'intéresse donc à ce besoin d'assistance à l'analyse de données, qui commence tout juste à recevoir une certaine attention des communautés scientifiques, donnant naissance au domaine de la méta-analyse. Les premières approches du sujet se révélant souvent similaires et peu abouties, on tente en particulier de permettre de nouvelles approches de méta-analyse pour adresser ce problème d'assistance à l'analyse de données. Pour ce faire, une première étape cruciale est de déterminer ce qu'est une méta-analyse performante, aucun standard n'ayant encore été établi dans ce domaine relativement neuf. On propose ainsi un cadre générique d'évaluation de méta-analyse, permettant de comparer et caractériser finement diverses techniques de méta- analyse. Ensuite, afin d'ouvrir de nouvelles voies, on s'intéresse à un verrou majeur de la méta-analyse : la caractérisation de jeu de données. On propose et évalue alors une caractérisation par dissimilarité faisant usage de toute l'information disponible pour autoriser de nouvelles approches de méta-analyse. L'utilisation de cette caractérisation par dissimilarité permettant de recommander facilement des processus d'analyse de données complets, on décrit enfin les nouvelles approches de méta-analyses rendues possibles, ainsi que les processus afférents d'assistance à l'analyse de données
The emergence of the big data phenomenon has led to increasing demands in data analysis, which most often are conducted by other domains experts with little experience in data science. We then consider this important demand in intelligent assistance to data analysis, which receives an increasing attention from the scientific community. The first takes on the subject often possessing similar shortcomings, we propose to address it through new processes of meta-analysis. No evaluation standard having yet been set in this relatively new domain, we first propose a meta-analysis evaluation framework that will allow us to test and compare the developed methods. In order to open new approaches of meta-analysis, we then consider one of its recurring issue: dataset characterization. We then propose and evaluate such a characterization, consisting in a dissimilarity between datasets making use of a precise topological description to compare them. This dissimilarity allows a new meta-analysis approach producing recommendations of complete data analysis processes, which we then evaluate on a proof of concept. We thus detail the proposed methods of meta-analysis, and the associated process of assistance to data analysis
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Le, Pévédic Brigitte. "Prédiction morphosyntaxique évolutive dans un système d'aide à la saisie de textes pour des personnes handicapées physiques - HandiAS". Nantes, 1997. http://www.theses.fr/1997NANT2058.

Texto completo da fonte
Resumo:
Nous avons developpé une méthode de prédiction morphosyntaxique évolutive, à partir du contexte gauche, utilisant une technique hybride, symbolique et statistique. Ceci pour permettre, dans le cadre du vocabulaire courant d'une personne, la prédiction de la fin d'un mot, après la saisie de quelques lettres. Nous proposons, comme application de cette méthode, une aide à la communication écrite pour des personnes handicapées physiques ; car le temps de saisie d'un texte pour ces personnes est un problème majeur auquel nous souhaitons apporter une solution logicielle, valable pour différentes langues européennes. Le système développé HandiAS, permet d'économiser la saisie des dernières lettres d'un mot. Il recherche dans un dictionnaire, en fonction du début du texte déjà saisi et des premières lettres du mot en cours de saisie, la liste des mots les plus usités dans la (ou les) catégorie(s) grammaticale(s) la (ou les) plus probable(s) tout en respectant le contexte gauche. L'utilisateur n'a plus qu'à sélectionner l'une des propositions pour que celle-ci vienne s'inscrire directement dans son texte. Pour cela, HandiAS utilise : des dictionnaires électroniques comportant des indications morphologiques, syntaxiques et fréquentielles ; un modèle de langue probabiliste pour le traitement syntaxique ; un système d'évolution pour permettre son adaptation à l'utilisateur
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Gaüzère, Benoît. "Application des méthodes à noyaux sur graphes pour la prédiction des propriétés des molécules". Caen, 2013. http://www.theses.fr/2013CAEN2043.

Texto completo da fonte
Resumo:
Cette thèse s'intéresse à l'application des méthodes à noyaux sur graphes pour la prédiction de propriétés moléculaires. Dans ce manuscrit, nous présentons un état de l'art des méthodes à noyaux sur graphes définies dans le cadre de la chémoinformatique et plus particulièrement les noyaux sur graphes basés sur les sacs de motifs. Dans ce cadre, nous proposons un nouveau noyau sur graphes basé sur un ensemble explicite de sous-arbres, appelés treelets, permettant d'encoder une grande partie de l'information structurelle acyclique des graphes moléculaires. Nous proposons également de combiner ce noyau avec des méthodes d'apprentissage à noyaux multiples afin d'extraire un ensemble de motifs pertinents. Cette contribution est ensuite étendue en incluant l'information cyclique encodée par deux représentations moléculaires définies par le graphe de cycles pertinents et l'hypergraphe de cycles pertinents. Le graphe des cycles pertinents permet d'encoder le système cyclique d'une molécule. L'hypergraphe de cycles pertinents correspond à une nouvelle représentation moléculaire permettant d'encoder à la fois le système cyclique d'une molécule ainsi que les relations d'adjacence entre les cycles et les parties acycliques. Nous proposons également deux noyaux sur graphes utilisant ces représentations. Enfin, la dernière partie vise à définir des noyaux sur graphes pour la chémoinformatique basés sur la distance d'édition. Un premier noyau est basé sur un opérateur de régularisation utilisant la distance d'édition entre graphes moléculaires. Le second noyau introduit la comparaison de treelets dissimilaires basée sur un algorithme de calcul de la distance d'édition entre treelets
This work deals with the application of graph kernel methods to the prediction of molecular properties. In this document, we first present a state of the art of graph kernels used in chemoinformatics and particurlarly those which are based on bags of patterns. Within this framework, we introduce the treelet kernel based on a set of trees which allows to encode most of the structural information encoded in molecular graphs. We also propose a combination of this kernel with multiple kernel learning methods in order to extract a subset of relevant patterns. This kernel is then extended by including cyclic information using two molecular representations defined by the relevant cycle graph and the relevant cycle hypergraph. Relevant cycle graph allows to encode the cyclic system of a molecule
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Cohendet, Romain. "Prédiction computationnelle de la mémorabilité des images : vers une intégration des informations extrinsèques et émotionnelles". Thesis, Nantes, 2016. http://www.theses.fr/2016NANT4033/document.

Texto completo da fonte
Resumo:
La mémorabilité des images est un sujet de recherche récent en vision par ordinateur. Les premières tentatives ont reposé sur l’utilisation d’algorithmes d’apprentissage pour inférer le degré de mémorabilité d’une image d’un ensemble de caractéristiques de bas niveau. Dans cette thèse, nous revenons sur les fondements théoriques de la mémorabilité des images, en insistant sur les émotions véhiculées par les images, étroitement liées à leur mémorabilité. En considération de cet éclairage théorique, nous proposons d’inscrire la prédiction de la mémorabilité des images dans un cadre de travail plus large, qui embrasse les informations intrinsèques mais également extrinsèques de l’image, liées à leur contexte de présentation et aux observateurs. En conséquence, nous construisons notre propre base de données pour l’étude de la mémorabilité des images ; elle sera utile pour éprouver les modèles existants, entraînés sur l’unique vérité terrain disponible jusqu’alors. Nous introduisons ensuite l’apprentissage profond pour la prédiction de la mémorabilité des images : notre modèle obtient les meilleures performances de prédiction à ce jour. En vue d’amender ces prédictions, nous cherchons alors à modéliser les effets contextuels et individuels sur la mémorabilité des images. Dans une dernière partie, nous évaluons la performance de modèles computationnels d’attention visuelle, de plus en plus utilisés pour la prédiction de la mémorabilité, pour des images dont le degré de mémorabilité et l’information émotionnelle varient. Nous présentons finalement le film interactif « émotionnel », qui nous permet d’étudier les liens entre émotion et attention visuelle dans les vidéos
The study of image memorability in computer science is a recent topic. First attempts were based on learning algorithms, used to infer the extent to which a picture is memorable from a set of low-level visual features. In this dissertation, we first investigate theoretical foundations of image memorability; we especially focus on the emotions the images convey, closely related to their memorability. In this light, we propose to widen the scope of image memorability prediction, to incorporate not only intrinsic, but also extrinsic image information, related to their context of presentation and to the observers. Accordingly, we build a new database for the study of image memorability; this database will be useful to test the existing models, trained on the unique database available so far. We then introduce deep learning for image memorability prediction: our model obtains the best performance to date. To improve its prediction accuracy, we try to model contextual and individual influences on image memorability. In the final part, we test the performance of computational models of visual attention, that attract growing interest for memorability prediction, for images which vary according to their degree of memorability and the emotion they convey. Finally, we present the "emotional" interactive movie, which enable us to study the links between emotion and visual attention for videos
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Shi, Jie. "Influence des erreurs de transmission sur la qualité de la parole synthétique d'un vocodeur à prédiction linéaire". Toulouse 3, 1990. http://www.theses.fr/1990TOU30175.

Texto completo da fonte
Resumo:
Le vocodeur a prediction lineaire permet de transmettre la parole avec un faible debit. Cependant, le bruit de transmission perturbe severement la qualite de la parole synthetique. La degradation de cette derniere depend de la position des parametres errones dans les trames de transmission. Cette dependance est due d'une part a la structure du filtre de synthese sous forme de treillis, et d'autre part aux densites de distribution de chacun des parametres. Pour evaluer la sensibilite aux parasites des differents parametres d'une trame de parole compressee, les tests d'intelligibilite sont utilises comme mesure subjective, ceci attribue a chaque parametre un score indiquant son importance en presence de bruit de transmission. La distance spectrale ponderee est adoptee comme mesure objective de la degradation de parole synthetique. Cette mesure donne non seulement un score a chaque parametre de transmission, mais egalement la distribution frequentielle de la distorsion due a la perturbation de ces derniers. Un vocodeur a prediction lineaire en temps reel est mis en uvre sur un microprocesseur de traitement du signal
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Bourigault, Simon. "Apprentissage de représentations pour la prédiction de propagation d'information dans les réseaux sociaux". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066368/document.

Texto completo da fonte
Resumo:
Dans ce manuscrit, nous étudions la diffusion d'information dans les réseaux sociaux en ligne. Des sites comme Facebook ou Twitter sont en effet devenus aujourd'hui des media d'information à part entière, sur lesquels les utilisateurs échangent de grandes quantités de données. La plupart des modèles existant pour expliquer ce phénomène de diffusion sont des modèles génératifs, basés sur des hypothèses fortes concernant la structure et la dynamique temporelle de la diffusion d'information. Nous considérerons dans ce manuscrit le problème de la prédiction de diffusion dans le cas où le graphe social est inconnu, et où seules les actions des utilisateurs peuvent être observées. - Nous proposons, dans un premier temps, une méthode d'apprentissage du modèle independent cascade consistant à ne pas prendre en compte la dimension temporelle de la diffusion. Des résultats expérimentaux obtenus sur des données réelles montrent que cette approche permet d'obtenir un modèle plus performant et plus robuste. - Nous proposons ensuite plusieurs méthodes de prédiction de diffusion reposant sur des technique d'apprentissage de représentations. Celles-ci nous permettent de définir des modèles plus compacts, et plus robustes à la parcimonie des données. - Enfin, nous terminons en appliquant une approche similaire au problème de détection de source, consistant à retrouver l'utilisateur ayant lancé une rumeur sur un réseau social. En utilisant des méthodes d'apprentissage de représentations, nous obtenons pour cette tâche un modèle beaucoup plus rapide et performant que ceux de l'état de l'art
In this thesis, we study information diffusion in online social networks. Websites like Facebook or Twitter have indeed become information medias, on which users create and share a lot of data. Most existing models of the information diffusion phenomenon relies on strong hypothesis about the structure and dynamics of diffusion. In this document, we study the problem of diffusion prediction in the context where the social graph is unknown and only user actions are observed. - We propose a learning algorithm for the independant cascades model that does not take time into account. Experimental results show that this approach obtains better results than time-based learning schemes. - We then propose several representations learning methods for this task of diffusion prediction. This let us define more compact and faster models. - Finally, we apply our representation learning approach to the source detection task, where it obtains much better results than graph-based approaches
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Aich, Ali. "Reconnaissance et prédiction de situations dynamiques : application à l'assistance de personnes handicapées moteurs". Troyes, 2007. http://www.theses.fr/2007TROY0017.

Texto completo da fonte
Resumo:
Nous nous intéressons dans le travail présenté dans ce rapport à l’étude de situations dynamiques (reconnaissance, prédiction, et apprentissage de situations) évoluant dans un environnement incertain. L’étude est principalement appliquée à la robotique mobile. Le but est d’assister l’utilisateur d’un fauteuil roulant dans ses déplacements par la reproduction de trajets fréquemment employés afin d’éviter de définir à chaque fois les mêmes commandes de direction. La reproduction d’un trajet déjà effectué nécessite la reconnaissance du nouveau trajet emprunté. En général, la reconnaissance de ce type de situations repose sur deux types d’approches principales : reconnaissance à base de modèles ou reconnaissance par retour d’expériences dans la cadre de raisonnement à partir de cas. Nous avons développé durant cette thèse deux approches de reconnaissance de trajets. Dans la première approche, la reconnaissance est basée sur des réseaux de Petri établis a priori. Dans la seconde approche, la reconnaissance d’un nouveau trajet emprunté par le fauteuil est basée sur l’évaluation de sa similarité avec des trajets déjà effectués. L’établissement de réseaux de Petri nécessite généralement des connaissances a priori du domaine. La difficulté est que nous ne disposons pas de modèles de description de trajets car d’une part nous n’utilisons pas de cartes de l’environnement et d’autre part il est impossible de prédire dès le début d’un nouveau déplacement les directions à suivre et les comportements à effectuer par le fauteuil. Pour cela, nous avons commencé avec un apprentissage de trajets. Cette étape correspond à une exploration de l’environnement durant laquelle un ensemble de trajets sont empruntés pour chaque déplacement à effectuer. Les trajets empruntés lors de l’apprentissage initial sont ensuite classifiés afin de calculer un représentant pour chaque ensemble de trajets effectués pour le même déplacement. La dernière étape du raisonnement proposé consiste à modéliser chaque prototype par un réseau de Petri afin qu’il soit utilisé pour reconnaître les nouveaux trajets empruntés et prédire les futurs comportements du fauteuil. Dans la première approche que nous avons proposée, la reconnaissance de trajets est basée sur des réseaux de Petri. L’apprentissage de nouveaux trajets s’effectue uniquement lors de l’exploration de l’environnement. Les réseaux de Petri établis n’évoluent pas car les nouveaux trajets non reconnus ne sont pas pris en compte. Pour cela, une autre alternative a été exploitée durant la seconde partie de notre travail. Dans cette approche, la reconnaissance de nouveaux trajets est basée sur un calcul de similarité avec ceux déjà effectués dans le cadre de raisonnement à partir de cas. Un algorithme d’apprentissage automatique de nouveaux trajets est proposé pour qu’ils soient utilisés durant les futurs raisonnements. Une stratégie de maintenance de la mémoire est également proposée permettant l’amélioration des performances du système
Our study reports on the problem of dynamic situations processing (recognition, prediction and learning) evolving in a complex and unknown environment. This study is mainly applied in the mobile robotic field. The objective is to discharge the user from the constraints of the wheelchair control by assisting him in the reproduction of routes frequently employed. The reproduction of a route already carried out requires the recognition of the new route employed. In general the recognition of this type of situations is based on two principal approaches : a recognition based on one of several models or a recognition by re-use of experiments in the field of the case-based reasoning. We have proposed during this thesis two approaches of route recognition. In the first approach, the recognition of a new route is based on Petri nets. In the second approach, the route recognition is based on similarity evaluation between the new taken route and those already carried out. Petri nets elaboration requires in general knowledge of the domain. The difficulty is that we don’t have models of routes description because on one hand we don’t use the environment maps and on the other hand it is impossible to predict from the beginning of a new displacement directions to be followed and behaviors to be carried out by the wheelchair. Hence, we have started with an initial learning. This steps corresponds to the environment exploration where a set of routes are taken for every displacement. The routes taken during the initial learning are then classified in order to compute a representative for every set of routes carried out for the same displacement. The last step of the proposed reasoning consists in modeling each each by a Petri net. The models are used during the new route recognition in order to predict the future wheelchair behaviors. In the first proposed approach, the route recognition is based on Petri nets. The new route learning is carried out only during the environment exploration. Models don’t evolve because the new not recognized routes are not taken into account. Hence, a new approach has been proposed during the second part of our work. In this approach, the new route recognition is based on a similarity evaluation between the new taken route and those already carried out. An algorithm of automatic learning of new routes is proposed so that they are used during the future reasonings. A strategy of memory maintenance is also proposed allowing the improvement of the system performances
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Cumin, Julien. "Reconnaissance et prédiction d'activités dans la maison connectée". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM071/document.

Texto completo da fonte
Resumo:
Comprendre le contexte ambiant d'une maison est essentiel pour pouvoir proposer à ses occupants des services adaptés à leurs situations de vie, et qui répondent donc à leurs besoins. Un exemple de tel service est un assistant de communication, qui pourrait par exemple informer les personnes hors de la maison à propos de la disponibilité des habitants de celle-ci pour communiquer. Pour implémenter un tel service, il est en effet nécessaire que la maison prenne en compte les situations de ses occupants, pour ensuite en déduire leurs disponibilités.Dans cette thèse, nous nous intéressons dans un premier temps à définir ce qu'est le contexte dans une maison. Nous défendons que l'activité des occupants est l'une des dimensions principales du contexte d'une maison, nécessaire à la mise en œuvre de systèmes sensibles au contexte. C'est pourquoi nous étudions dans un second temps le problème de la reconnaissance automatique d'activités humaines, à partir des données de capteurs ambiants installés dans la maison. Nous proposons une nouvelle approche d'apprentissage automatique supervisé basée sur les lieux de la maison, qui améliore à la fois les performances de reconnaissance correcte d'activités ainsi que les temps de calcul nécessaires, par rapport aux approches de l'état de l'art.Par ailleurs, ces services sensibles au contexte auront probablement besoin de pouvoir anticiper les situations futures de la maison. En particulier, ils doivent pouvoir anticiper les activités futures réalisées par les occupants. C'est pourquoi nous proposons un nouveau modèle de prédiction supervisée d'activités, basé sur des modèles de l'état de l'art. Nous introduisons un certain nombre d'extensions à ce modèle afin d'améliorer les performances de prédiction, en se basant sur des spécificités des environnements de maisons instrumentées.Enfin, nous nous intéressons à l'estimation de la disponibilité des occupants à communiquer, afin d'illustrer la faisabilité de notre exemple de service d'assistance à la communication. Nous suggérons que la disponibilité peut être inférée à partir des dimensions primaires du contexte, comme le lieu et l'activité (que l'on peut reconnaitre et prédire à l'aide de nos contributions précédentes), mais en prenant également en compte le correspondant initiant la communication, ainsi que la modalité utilisée. Nous discutons de l'impact de l'étape de reconnaissance d'activités sur l'estimation de la disponibilité.Nous évaluons expérimentalement ces contributions sur différents jeux de données de l'état de l'art, ainsi que sur un nouveau jeu de données d'activités et de disponibilités dans la maison que nous avons spécifiquement construit durant cette thèse : Orange4Home. À travers nos contributions à ces trois problèmes, nous démontrons l'implémentabilité d'un service d'assistance à la communication, pouvant conseiller des correspondants extérieurs sur les futures disponibilités des occupants de la maison. De manière plus générale, nous montrons comment des dimensions secondaires du contexte, comme la disponibilité, peuvent être inférées d'autres dimensions du contexte, comme l'activité. Il est donc essentiel pour qu'une maison devienne sensible au contexte, que celle-ci dispose de systèmes de reconnaissance et de prédiction d'activités les plus fiables possibles
Understanding the context of a home is essential in order to provide services to occupants that fit their situations and thus fulfil their needs. One example of service that such a context-aware smart home could provide is that of a communication assistant, which can for example advise correspondents outside the home on the availability for communication of occupants. In order to implement such a service, it is indeed required that the home understands the situations of occupants, in order to derive their availability.In this thesis, we first propose a definition of context in homes. We argue that one of the primary context dimensions necessary for a system to be context-aware is the activity of occupants. As such, we then study the problem of recognizing activities, from ambient smart home sensors. We propose a new supervised place-based approach which both improves activity recognition accuracy as well as computing times compared to standard approaches.Smart home services, such as our communication assistance example, may often need to anticipate future situations. In particular, they need to anticipate future activities of occupants. Therefore, we design a new supervised activity prediction model, based on previous state-of-the-art work. We propose a number of extensions to improve prediction accuracy based on the specificities of smart home environments.Finally, we study the problem of inferring the availability of occupants for communication, in order to illustrate the feasibility of our communication assistant example. We argue that availability can be inferred from primary context dimensions such as place and activity (which can be recognized or predicted using our previous contributions), and by taking into consideration the correspondent initiating the communication as well as the modality of communication used. We discuss the impact of the activity recognition step on availability inference.We evaluate those contributions on various state-of-the-art datasets, as well as on a new dataset of activities and availabilities in homes which we constructed specifically for the purposes of this thesis: Orange4Home. Through our contributions to these 3 problems, we demonstrate the way in which an example context-aware communication assistance service can be implemented, which can advise on future availability for communication of occupants. More generally, we show how secondary context dimensions such as availability can be inferred from other context dimensions, in particular from activity. Highly accurate activity recognition and prediction are thus mandatory for a smart home to achieve context awareness
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Attouche, Slimane. "Prédiction et tolérance aux fautes dans les systèmes multi-capteurs : application à la conduite automatique de véhicules en convois". Lille 1, 2002. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2002/50376-2002-237.pdf.

Texto completo da fonte
Resumo:
Ces travaux de thèse commencent par la présentation de l'état de l'art des techniques de localisation et aussi des différentes stratégies de commande des systèmes AHS. Dans le deuxième chapitre est développée une approche de prédiction qui permet d'estimer le temps qui reste à système pour qu'il dérive de son mode de fonctionnement nominal. Cette approche est basée sur l'arithmétique des intervalles. Dans le troisième chapitre est présenté une méthode d'analyse de la tolérance aux fautes dans les systèmes multi-capteurs qui est basée sur l'Observabilité et sur la classification des sous-ensembles de capteurs. Elle permet d'améliorer considérablement les algorithmes déjà existants. Elle utilise une représentation graphique très simplifiée des sous-ensembles de capteurs. Dans le dernier chapitre, la surveillance et l'analyse de la tolérance aux fautes sont appliquées sur un dispositif multi-capteurs embarqué sur des véhicules qui sont sous conduite automatique en convois sur autoroute.
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Kootbally, Zeïd. "Prédiction des positions de véhicules autonomes dans un environnement routier dynamique". Dijon, 2008. http://www.theses.fr/2008DIJOS064.

Texto completo da fonte
Resumo:
Le rôle de la recherche dans le domaine des voitures autonomes est de pouvoir construire des systèmes physiques pouvant se déplacer dans un but précis, sans quelconque intervention extérieure humaine, que ce soit dans des environnements statiques et dynamiques, connus, partiellement connus et inconnus. Le domaine des véhicules autonomes continue à attirer chercheurs et autres techniciens. Le financement pour la recherche dans ce domaine a continué à prendre de l’ampleur durant les dernières années, poussant ainsi les travaux à migrer de la théorie vers la pratique. Avant de pouvoir utiliser un véhicule autonome dans le monde réel, il est important d’arriver à modéliser le véhicule dans une simulation d’une part, et aussi de pouvoir évaluer les performances du véhicule dans le monde virtuel d’autre part. Nous présentons le Framework PRIDE (Prediction In Dynamic Environments), une approche hiérarchique à multi résolutions pour la prédiction des objets mobiles. PRIDE regroupe plusieurs algorithmes de prédictions en une seule et même structure. PRIDE est basé sur 4D/RCS (Real-time Control System) et fournit des informations à des planificateurs à différents niveaux de granularité appropriés au temps de prédiction. Les plus bas niveaux du Framework utilisent des prédictions à courts termes basées sur le filtre étendu de Kalman associé à une mesure de confiance. Les plus hauts niveaux font appel à une approche de prédiction probabiliste basée sur la reconnaissance de situations associée à un model de coûts permettant de calculer des prédictions utilisant des informations et des contraintes associées à l’environnement. PRIDE a connaissance de la structure du réseau routier via une base de données regroupant des informations sur l’environnement. Le résultat de chaque prédiction est passé au planificateur pour le contrôle de la trajectoire du véhicule. Dans divers scénarios, nous avons utilisé PRIDE avec l’outil de visualisation AutoSim dans un premier temps, et dans un deuxième temps, avec le Framework MOAST/USARSim, permettant ainsi à PRIDE de pouvoir considérer la physique, la cinématique ainsi que la dynamique des véhicules
The goal of autonomous vehicles research is to build physical systems that can move purposefully and without human intervention in static and dynamic environments, and also in known, partially known and unknown environments. The field of autonomous vehicles is continuing to gain traction both with researchers and practitioners. Funding for research in this area has continued to grow over the past few years, and recent high profile funding opportunities have started to push theoretical research efforts into practical use. Before releasing any autonomous vehicle in the real world, it is important to model the components within a simulated environment and assess the performance of the vehicles in the virtual world. We present the PRIDE framework (Prediction In Dynamic Environments), a hierarchical multiresolutional approach for moving object prediction that incorporates multiple prediction algorithms into a single, unifying framework. PRIDE is based upon the 4D/RCS (Real-time Control System) and provides information to planners at the level of granularity that is appropriate for their planning horizon. The lower levels of the framework utilize estimation theoretic short-term predictions based upon an extended Kalman filter with an associated confidence measure. The upper levels utilize a probabilistic prédiction approach based upon situation recognition with an underlying cost model that provides predictions that incorporate environmental information and constraints. PRIDE is run in the systems' world model independently of the planner and the control system and has knowledge of the road structures via a road network database. The results of the prediction are made available to a planner to allow it to make accurate plans in dynamic environments. We have applied this approach to the visualization tool AutoSim and later on to the MOAST/USARSim framework which incorporates the physics, kinematics and dynamics of vehicles involved in traffic scenarios
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Jacquemin, Ingrid. "Découverte de motifs relationnels en bioinformatique : application à la prédiction de ponts disulfures". Phd thesis, Université Rennes 1, 2005. http://tel.archives-ouvertes.fr/tel-00185499.

Texto completo da fonte
Resumo:
Déterminer la structure 3D des protéines expérimentalement est une tâche très lourde et coûteuse, qui peut s'avérer parfois impossible à réaliser. L'arrivée massive de données provenant des programmes de séquençage à grande échelle impose de passer d'une approche biochimique à une approche bioinformatique, et nécessite en particulier de développer des méthodes de prédiction sur des séquences.
Cette thèse propose l'exploration de deux nouvelles pistes pour progresser dans la résolution de prédiction de ponts disulfures dans les protéines. Cette liaison covalente stabilise et contraint fortement la conformation spatiale de la protéine et la connaissance des positions où elle intervient peut réduire considérablement la complexité du problème de la prédiction de la structure 3D. Pour cela, nous utilisons dans un premier temps, l'inférence grammaticale et plus particulièrement les langages de contrôle introduit par Y. Takada, puis dans un deuxième temps, la programmation logique inductive.
Diverses expériences visent à confronter un cadre théorique d'apprentissage et des algorithmes généraux d'inférence grammaticale régulière à une application pratique de prédiction d'appariements spécifiques au sein d'une séquence protéique. D'autres expérimentations montrent que la programmation logique inductive donne de bons résultats sur la prédiction de l'état oxydé des cystéines en inférant des règles interprétables par les biologistes. Nous proposons un algorithme d'induction heuristique dont l'idée est d'effectuer plusieurs phases d'apprentissage en tenant compte des résultats obtenus aux phases précédentes permettant ainsi de diminuer considérablement la combinatoire dans les espaces d'hypothèses logiques en construisant des règles de plus en plus discriminantes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Renaud, Jeremy. "Amélioration de la prédiction des commandes des pharmacies auprès de la CERP RRM". Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCD010.

Texto completo da fonte
Resumo:
La CERP Rhin Rhone Méditerranée (CERP RRM) est un grossiste répartiteur qui doit assurer l’approvisionnement de pharmacies. Le secteur du médicament, malgré l'évolution récente de la logistique hospitalière, manque considérablement d'outils d'aide à la décision. Le but de la thèse est de mettre en place un système prédictif pour l’ensemble des clients CERP afin de prévoir les commandes avec la meilleure précision possible. Les données sont essentiellement sous forme de séries temporelles.Dans un premier temps, les travaux de cette thèse ont été de faire un état de l’art des technologies de prédictions de séries temporelles, ainsi que de l'implémentation de systèmes d'IA dans des secteurs industriels liés aux métiers de grossiste répartiteur. La principale contribution de cette thèse a été d'améliorer les prédictions de la CERP RRM à plusieurs niveaux grâce à des techniques de machine learning. Nos résultats montrent une amélioration des prédictions par rapport à la méthode actuelle. La deuxième contribution a été de proposer une nouvelle méthode basée sur l'étude des courbes de ventes pour regrouper les produits entre eux. Cette méthode a été développée pour répondre à une problématique de regroupement des produits de parapharmacie au sein de la CERP RRM. La dernière contribution de cette thèse est une étude comparative de différents modèles de traitement du langage naturel implémentés dans un assistant conversationnel pour le service technique d'un logiciel de gestion d'officine. Cette solution a montré des résultats intéressants en se rapprochant des résultats d'un humain expert
The CERP Rhin Rhone Mediterranée (CERP RRM) is a wholesale distributor responsible for ensuring pharmacies' supply. Despite recent advancements in hospital logistics, the pharmaceutical sector notably lacks decision support tools. The thesis aims to establish a predictive system for all CERP clients to forecast orders with the highest possible accuracy. The data primarily consists of time series.Initially, the thesis focused on conducting a state-of-the-art review of time series prediction technologies, as well as implementing AI systems in industrial sectors related to wholesale distribution professions. The main contribution of this thesis was to enhance CERP RRM predictions at multiple levels using machine learning techniques. Our results demonstrate an improvement in predictions compared to the current method. The second contribution was to propose a new method based on sales curve analysis to group products together. This method was developed to address the issue of grouping parapharmacy products within CERP RRM. The final contribution of this thesis is a comparative study of different natural language processing models implemented in a conversational assistant for the technical service of a pharmacy management software. This solution has shown promising results, approaching those of an expert human
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Frigui, Nejm Eddine. "Maintenance automatique du réseau programmable d'accès optique de très haut débit". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0127/document.

Texto completo da fonte
Resumo:
Les réseaux optiques passifs (PONs, Passive Optical Networks) représentant l’une des solutions les plus performantes du réseau d’accès FTTH ont été largement déployés par les opérateurs grâce à leur capacité d’offrir des services de très haut débit. Cependant, en raison de la dynamicité du trafic des différents clients, ces réseaux doivent s’appuyer sur un mécanisme efficace pour l’allocation de ressources, plus particulièrement dans le sens montant. Ce mécanisme est actuellement limité par la nature statique des paramètres SLA (Service Level Agreement). Ceci peut avoir une influence négative sur la qualité de service ressentie par les utilisateurs. L’objectif de cette thèse est de proposer une nouvelle architecture pour optimiser l’allocation de ressources dans les réseaux PON tout en agissant uniquement sur les paramètres SLA, désignés comme des paramètres gérables par l’opérateur. Des techniques de classification basées sur l’apprentissage automatique et la prédiction sont utilisées pour analyser le comportement des différents utilisateurs et déterminer leurs tendances de trafic. Un ajustement dynamique sur la base du concept autonomique de certains paramètres SLA est ensuite effectué afin de maximiser la satisfaction globale des clients vis-à-vis du réseau
Passive Optical Network (PON) representing one of the most attractive FTTH access network solutions, have been widely deployed for several years thanks to their ability to offer high speed services. However, due to the dynamicity of users traffic patterns, PONs need to rely on an efficient upstream bandwidth allocation mechanism. This mechanism is currently limited by the static nature of Service Level Agreement (SLA) parameters which can lead to an unoptimized bandwidth allocation in the network. The objective of this thesis is to propose a new management architecture for optimizing the upstream bandwidth allocation in PON while acting only on manageable parameters to allow the involvement of self-decision elements into the network. To achieve this, classification techniques based on machine learning approaches are used to analyze the behavior of PON users and to specify their upstream data transmission tendency. A dynamic adjustment of some SLA parameters is then performed to maximize the overall customers’ satisfaction with the network
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Nguyen, Cam Linh. "Prédiction de la réponse aux traitements in vivo de tumeurs basées sur le profil moléculaire des tumeurs par apprentissage automatique". Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0208.

Texto completo da fonte
Resumo:
Ces dernières années, les thérapies ciblées pour le traitement du cancer, ont été introduites. Cependant, un médicament fonctionnant chez un patient peut ne pas fonctionner chez un autre. Pour éviter l'administration de traitements inefficaces, des méthodes capables de prédire les patients qui répondront à un médicament donné doivent être mises au point.Il n'est actuellement pas possible de prédire l'efficacité de la grande majorité des médicaments anticancéreux. L’apprentissage automatique (AA) est un outil particulièrement prometteur pour la médecine personnalisée. L’AA est un champ d’étude de l'intelligence artificielle ; elle concerne la mise au point et l'application d'algorithmes informatiques qui s'améliorent avec l'expérience. Dans ce cas, l'algorithme d’AA apprendra à faire la distinction entre les tumeurs sensibles et résistantes en fonction de plusieurs gènes au lieu d'un seul gène. Cette étude se concentre sur l'application de différentes approches de l’AA pour prédire la réponse à des médicaments anticancéreux des tumeurs et générer des modèles précis, biologiquement pertinentes et faciles à expliquer
In recent years, targeted drugs for the treatment of cancer have been introduced. However, a drug that works in one patient may not work in another patient. To avoid the administration of ineffective treatments, methods that predict which patients will respond to a particular drug must be developed.Unfortunately, it is not currently possible to predict the effectiveness of most anticancer drugs. Machine learning (ML) is a particularly promising approach for personalized medicine. ML is a form of artificial intelligence; it concerns the development and application of computer algorithms that improve with experience. In this case, ML algorithm will learn to distinguish between sensitive and non-sensitive tumours based on multiple genes instead of a single gene. Our study focuses on applying different approaches of ML to predict drug response of tumours to anticancer drugs and generate models which have good accuracy, as well as are biologically relevant and easy to be explained
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Temanni, Mohamed Ramzi. "Combinaison de sources de données pour l'amélioration de la prédiction en apprentissage : une application à la prédiction de la perte de poids chez l'obèse à partir de données transcriptomiques et cliniques". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00814513.

Texto completo da fonte
Resumo:
Les maladies complexes comme l'obésité sont des maladies multifactorielles. Peu de travaux existent pour essayer de prédire les effets des différents traitements et ainsi mieux adapter les traitements aux patients. L'utilisation de modèles prédictifs pour mieux guider le choix des traitements de l'obésité reste un champ de recherche peu exploré malgré le fort impact qu'elle pourrait avoir vu la prévalence de cette maladie. Dans d'autres domaines de la médecine, comme la cancérologie par exemple, de telles méthodes sont déjà utilisées pour l'aide au diagnostic se basant notamment sur des données issues de puces à ADN. Cette technologie s'avère adaptée et son utilisation a donné lieu à des résultats intéressants pour dépister les maladies ou aider les médecins dans leur choix thérapeutique. Cependant si celle‐ci s'avère suffisante pour prédire d'une manière satisfaisante dans le domaine du cancer, en revanche elle s'avère d'un apport limité dans le cadre d'une application aux données de l'obésité. Cela suggère l'utilisation d'autres données patients pour améliorer les performances en prédiction. Les travaux de recherche présentés dans ce mémoire abordent les problèmes de la prédiction de la perte de poids suite à un régime ou une chirurgie bariatrique. Nous avons analysé le problème de la prédiction de la perte de poids à partir des données transcriptomique dans le cadre de deux projets européens et aussi à partir des données biocliniques dans le cadre de la chirurgie de l'obésité. Nous avons ensuite proposé trois concepts de combinaisons de modèles : combinaison de données, combinaison de méthodes et combinaison avec abstention. Nous avons analysé empiriquement ces trois approches et les expérimentations ont montré une amélioration des résultats pour les données de l'obésité même si ceux‐ci restent bien en deça de ce qu'on observe avec les données cancers
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Bottau, Françoise. "Contribution à l'étude de codeurs prédictifs du signal de parole avec quantificateur vectoriel". Nice, 1988. http://www.theses.fr/1988NICE4230.

Texto completo da fonte
Resumo:
Étude d'un procédé de compression numérique de la parole basé sur l'utilisation de techniques de prédiction linéaire et de quantification vectorielle avec détermination de ses paramètres par analyse-synthèse
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Dermy, Oriane. "Prédiction du mouvement humain pour la robotique collaborative : du geste accompagné au mouvement corps entier". Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0227/document.

Texto completo da fonte
Resumo:
Cette thèse se situe à l’intersection de l’apprentissage automatique et de la robotique humanoïde, dans le domaine de la robotique collaborative. Elle se focalise sur les interactions non verbales humain-robot, en particulier sur l’interaction gestuelle. La prédiction de l’intention, la compréhension et la reproduction de gestes sont les questions centrales de cette thèse. Dans un premier temps, le robot apprend des gestes par démonstration : un utilisateur prend le bras du robot et lui fait réaliser les gestes à apprendre plusieurs fois. Le robot doit alors reproduire ces différents mouvements tout en les généralisant pour les adapter au contexte. Pour cela, à l’aide de ses capteurs proprioceptifs, il interprète les signaux perçus pour comprendre le mouvement guidé par l’utilisateur, afin de pouvoir en générer des similaires. Dans un second temps, le robot apprend à reconnaître l’intention de l’humain avec lequel il interagit, à partir des gestes que ce dernier initie. Le robot produit ensuite des gestes adaptés à la situation et correspondant aux attentes de l’utilisateur. Cela nécessite que le robot comprenne la gestuelle de l’utilisateur. Pour cela, différentes modalités perceptives ont été explorées. À l’aide de capteurs proprioceptifs, le robot ressent les gestes de l’utilisateur au travers de son propre corps : il s’agit alors d’interaction physique humain-robot. À l’aide de capteurs visuels, le robot interprète le mouvement de la tête de l’utilisateur. Enfin, à l’aide de capteurs externes, le robot reconnaît et prédit le mouvement corps entier de l’utilisateur. Dans ce dernier cas, l’utilisateur porte lui-même des capteurs (vêtement X-Sens) qui transmettent sa posture au robot. De plus, le couplage de ces modalités a été étudié. D’un point de vue méthodologique, nous nous sommes focalisés sur les questions d’apprentissage et de reconnaissance de gestes. Une première approche permet de modéliser statistiquement des primitives de mouvements representant les gestes : les ProMPs. La seconde, ajoute à la première du Deep Learning, par l’utilisation d’auto-encodeurs, afin de modéliser des gestes corps entier contenant beaucoup d’informations, tout en permettant une prédiction en temps réel mou. Différents enjeux ont notamment été pris en compte, concernant la prédiction des durées des trajectoires, la réduction de la charge cognitive et motrice imposée à l’utilisateur, le besoin de rapidité (temps réel mou) et de précision dans les prédictions
This thesis lies at the intersection between machine learning and humanoid robotics, under the theme of human-robot interaction and within the cobotics (collaborative robotics) field. It focuses on prediction for non-verbal human-robot interactions, with an emphasis on gestural interaction. The prediction of the intention, understanding, and reproduction of gestures are therefore central topics of this thesis. First, the robots learn gestures by demonstration: a user grabs its arm and makes it perform the gestures to be learned several times. The robot must then be able to reproduce these different movements while generalizing them to adapt them to the situation. To do so, using its proprioceptive sensors, it interprets the perceived signals to understand the user's movement in order to generate similar ones later on. Second, the robot learns to recognize the intention of the human partner based on the gestures that the human initiates. The robot can then perform gestures adapted to the situation and corresponding to the user’s expectations. This requires the robot to understand the user’s gestures. To this end, different perceptual modalities have been explored. Using proprioceptive sensors, the robot feels the user’s gestures through its own body: it is then a question of physical human-robot interaction. Using visual sensors, the robot interprets the movement of the user’s head. Finally, using external sensors, the robot recognizes and predicts the user’s whole body movement. In that case, the user wears sensors (in our case, a wearable motion tracking suit by XSens) that transmit his posture to the robot. In addition, the coupling of these modalities was studied. From a methodological point of view, the learning and the recognition of time series (gestures) have been central to this thesis. In that aspect, two approaches have been developed. The first is based on the statistical modeling of movement primitives (corresponding to gestures) : ProMPs. The second adds Deep Learning to the first one, by using auto-encoders in order to model whole-body gestures containing a lot of information while allowing a prediction in soft real time. Various issues were taken into account during this thesis regarding the creation and development of our methods. These issues revolve around: the prediction of trajectory durations, the reduction of the cognitive and motor load imposed on the user, the need for speed (soft real-time) and accuracy in predictions
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Perrier, Michel. "Observation d'état par fonctions de prédiction : maintien de la cohérence du modèle de l'environnement d'un robot mobile". Montpellier 2, 1991. http://www.theses.fr/1991MON20115.

Texto completo da fonte
Resumo:
Ce memoire de these decrit le module d'observation contenu dans la structure de commande d'un robot mobile navigant dans un environnement mal structure, c'est-a-dire pour lequel seul un modele imparfait est initialement connu. Le role de cette observation est d'assurer la cooperation bidirectionnelle entre le modele et un systeme de perception. Pour cela, il fournit un etat reconstruit du systeme compose du vehicule et de son environnement, a partir de l'observation de l'etat reel (perception) et de l'etat estime (prediction). Le principe de la prediction est d'evaluer, pour chaque objet du modele, la probabilite d'etre percu par le vehicule: cette prediction, ou perception virtuelle, prend en compte l'estimation de l'erreur de localisation du robot mobile, ainsi que l''estimation de l'erreur de position des objets. L'intelligence artificielle est utilisee pour effectuer une approche qualitative et symbolique de la prediction, mais eglaement pour gerer le processus de raisonnement de l'observateur base sur la representation de dempster-shafer utilisant la theorie de la croyance
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Forestier, Jean-Michel. "Etude exploratoire de la prédiction en temps réel des mouvements des navires sur la houle". Cachan, Ecole normale supérieure, 2005. http://tel.archives-ouvertes.fr/tel-00011323.

Texto completo da fonte
Resumo:
L'objectif de l'étude est d'établir un modèle de comportement de l'ensemble navire et eau l'entourant permettant de prédire à court terme (10 15 s) et en temps réel les mouvements du navire sur la houle. L'approche proposée consiste 1) à établir une équation d'évolution autonome de/dt = f(e) de l'ensemble navire et eau, 2) à observer à chaque instant les variables d'état e à partir de mesures physiques. Le modèle f est établi par une mise en équations en fluide parfait et incompressible. Le potentiel et sa dérivée temporelle sur la surface libre ou sur la carène sont des variables d'état possibles pour l'eau. Ces grandeurs sur la surface libre peuvent être observées à partir de la mesure de sa dénivellation. L'observabilité de ces grandeurs sur la carène à partir de la mesure de la pression est un problème ouvert. Pour obtenir un modèle indépendant du temps, la mise en équations est développée en perturbations à partir d'une solution d'ordre zéro elle même indépendante du temps
The aim of this study is to establish a model of the joint behaviour of a ship and the surrounding water allowing for the short term (10 15 s) real time prediction of the motion of the ship on a swell. The proposed approach consists of 1) establishing an autonomous evolution equation deldt = f(e) for the entire system of ship and water, and 2) observing the state variables e from physical measurements at each time. The model f is based on the hypothesis of a perfect and incompressible fluid. The potential and its time derivative on the free surface or on the hull can be used as state variables of the water. Theses variables on the free surface cari. Be observed from measurement of its height. The observability of theses variables on the hull from measurement of fluid pressure is an open question. To obtain a time independant model, a perturbation method with an order zero solution not depending on time is applied
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Bellón, Molina Víctor. "Prédiction personalisée des effets secondaires indésirables de médicaments". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM023/document.

Texto completo da fonte
Resumo:
Les effets indésirables médicamenteux (EIM) ont des répercussions considérables tant sur la santé que sur l'économie. De 1,9% à 2,3% des patients hospitalisés en sont victimes, et leur coût a récemment été estimé aux alentours de 400 millions d'euros pour la seule Allemagne. De plus, les EIM sont fréquemment la cause du retrait d'un médicament du marché, conduisant à des pertes pour l'industrie pharmaceutique se chiffrant parfois en millions d'euros.De multiples études suggèrent que des facteurs génétiques jouent un rôle non négligeable dans la réponse des patients à leur traitement. Cette réponse comprend non seulement les effets thérapeutiques attendus, mais aussi les effets secondaires potentiels. C'est un phénomène complexe, et nous nous tournons vers l'apprentissage statistique pour proposer de nouveaux outils permettant de mieux le comprendre.Nous étudions différents problèmes liés à la prédiction de la réponse d'un patient à son traitement à partir de son profil génétique. Pour ce faire, nous nous plaçons dans le cadre de l'apprentissage statistique multitâche, qui consiste à combiner les données disponibles pour plusieurs problèmes liés afin de les résoudre simultanément.Nous proposons un nouveau modèle linéaire de prédiction multitâche qui s'appuie sur des descripteurs des tâches pour sélectionner les variables pertinentes et améliorer les prédictions obtenues par les algorithmes de l'état de l'art. Enfin, nous étudions comment améliorer la stabilité des variables sélectionnées, afin d'obtenir des modèles interprétables
Adverse drug reaction (ADR) is a serious concern that has important health and economical repercussions. Between 1.9%-2.3% of the hospitalized patients suffer from ADR, and the annual cost of ADR have been estimated to be of 400 million euros in Germany alone. Furthermore, ADRs can cause the withdrawal of a drug from the market, which can cause up to millions of dollars of losses to the pharmaceutical industry.Multiple studies suggest that genetic factors may play a role in the response of the patients to their treatment. This covers not only the response in terms of the intended main effect, but also % according toin terms of potential side effects. The complexity of predicting drug response suggests that machine learning could bring new tools and techniques for understanding ADR.In this doctoral thesis, we study different problems related to drug response prediction, based on the genetic characteristics of patients.We frame them through multitask machine learning frameworks, which combine all data available for related problems in order to solve them at the same time.We propose a novel model for multitask linear prediction that uses task descriptors to select relevant features and make predictions with better performance as state-of-the-art algorithms. Finally, we study strategies for increasing the stability of the selected features, in order to improve interpretability for biological applications
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Lepère, Stéphane. "Contribution à la prédiction en ligne des séries temporelles : un cas d'étude à la modélisation de systèmes dynamiques". Lille 1, 2001. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2001/50376-2001-219.pdf.

Texto completo da fonte
Resumo:
Cette thèse porte sur la modélisation des systèmes dynamiques, et tente, en particulier, d'apporter une solution au problème de la prédiction de séries temporelles en temps réel. Le premier prédicteur présenté utilise la logique floue. Afin que la phase d'apprentissage puisse se faire sans expert (apprentissage non supervisé), nous avons adopté, pour celle-ci, la méthode d'extraction de règles floues de Abe. Cette méthode, outre qu'elle offre un caractère robuste, permet une interprétation facile du comportement du système sous-jacent, car elle utilise des hyper-volumes simples pour définir les relations qui lient les observations passées et les sorties futures du système. Afin d'améliorer la précision, plusieurs algorithmes ont été développés de manière à adapter les règles floues et les paramètres du modèle lorsque la base d'apprentissage évolue. Le second prédicteur utilise, pour sa part, les propriétés géométriques du signal à prédire. Son originalité réside dans l'utilisation des informations liées au cercle osculateur. Elle est composée d'une procédure locale, qui a pour objectif de construire à chaque instant le cercle osculateur à la courbe représentative du signal, et d'une procédure globale qui permet de prendre en compte les observations passées (base d'apprentissage évolutive). La mise en oeuvre de ces deux méthodes sur plusieurs séries temporelles, ainsi que leurs comparaisons avec des techniques existantes, les font apparaître comme des alternatives très intéressantes, dans le domaine de la prédiction temps réel.
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Bourigault, Simon. "Apprentissage de représentations pour la prédiction de propagation d'information dans les réseaux sociaux". Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066368.

Texto completo da fonte
Resumo:
Dans ce manuscrit, nous étudions la diffusion d'information dans les réseaux sociaux en ligne. Des sites comme Facebook ou Twitter sont en effet devenus aujourd'hui des media d'information à part entière, sur lesquels les utilisateurs échangent de grandes quantités de données. La plupart des modèles existant pour expliquer ce phénomène de diffusion sont des modèles génératifs, basés sur des hypothèses fortes concernant la structure et la dynamique temporelle de la diffusion d'information. Nous considérerons dans ce manuscrit le problème de la prédiction de diffusion dans le cas où le graphe social est inconnu, et où seules les actions des utilisateurs peuvent être observées. - Nous proposons, dans un premier temps, une méthode d'apprentissage du modèle independent cascade consistant à ne pas prendre en compte la dimension temporelle de la diffusion. Des résultats expérimentaux obtenus sur des données réelles montrent que cette approche permet d'obtenir un modèle plus performant et plus robuste. - Nous proposons ensuite plusieurs méthodes de prédiction de diffusion reposant sur des technique d'apprentissage de représentations. Celles-ci nous permettent de définir des modèles plus compacts, et plus robustes à la parcimonie des données. - Enfin, nous terminons en appliquant une approche similaire au problème de détection de source, consistant à retrouver l'utilisateur ayant lancé une rumeur sur un réseau social. En utilisant des méthodes d'apprentissage de représentations, nous obtenons pour cette tâche un modèle beaucoup plus rapide et performant que ceux de l'état de l'art
In this thesis, we study information diffusion in online social networks. Websites like Facebook or Twitter have indeed become information medias, on which users create and share a lot of data. Most existing models of the information diffusion phenomenon relies on strong hypothesis about the structure and dynamics of diffusion. In this document, we study the problem of diffusion prediction in the context where the social graph is unknown and only user actions are observed. - We propose a learning algorithm for the independant cascades model that does not take time into account. Experimental results show that this approach obtains better results than time-based learning schemes. - We then propose several representations learning methods for this task of diffusion prediction. This let us define more compact and faster models. - Finally, we apply our representation learning approach to the source detection task, where it obtains much better results than graph-based approaches
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Wohlfarth, Till. "Machine-learning pour la prédiction des prix dans le secteur du tourisme en ligne". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0090.

Texto completo da fonte
Resumo:
Nous nous intéressons au problème de la prédiction de l’occurrence d’une baisse de prix pour fournir un conseil à l’achat immédiat ou reporté d’un voyage sur un site web de comparaison des prix. La méthodologie proposée repose sur l’apprentissage statistique d’un modèle d’évolution du prix à partir de l’information conjointe d’attributs du voyage considéré et d’observations passées du prix et de la "popularité" celui-ci. L’originalité principale consiste à représenter l’évolution des prix par le processus ponctuel inhomogène des sauts de celui-ci. A partir d’une base de données constituée par liligo.com, nous mettons en oeuvre une méthode d’apprentissage d’un modèle d’évolution des prix. Ce modèle permet de fournir un prédicteur de l’occurrence d’une baisse du prix sur une période future donnée et donc de prodiguer un conseil d’achat ou d’attente au client
The goal of this paper is to consider the design of decision-making tools in the context of varying travel prices from the customer’s perspective. Based on vast streams of heterogeneous historical data collected through the internet, we describe here two approaches to forecasting travel price changes at a given horizon, taking as input variables a list of descriptive characteristics of the flight, together with possible features of the past evolution of the related price series. Though heterogeneous in many respects ( e.g. sampling, scale), the collection of historical prices series is here represented in a unified manner, by marked point processes (MPP). State-of-the-art supervised learning algorithms, possibly combined with a preliminary clustering stage, grouping flights whose related price series exhibit similar behavior, can be next used in order to help the customer to decide when to purchase her/his ticket
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Al-Kharaz, Mohammed. "Analyse multivariée des alarmes de diagnostic en vue de la prédiction de la qualité des produits". Electronic Thesis or Diss., Aix-Marseille, 2021. http://theses.univ-amu.fr.lama.univ-amu.fr/211207_ALKHARAZ_559anw633vgnlp70s324svilo_TH.pdf.

Texto completo da fonte
Resumo:
Cette thèse s’intéresse à la prédiction de la qualité de produits et à l’amélioration de la performance des alarmes de diagnostics au sein d’une usine de semi-conducteurs. Pour cela, nous exploitons l’historique des alarmes collecté durant la production. Premièrement, nous proposons une approche de modélisation et d’estimation du risque de dégradation du produit final associé à chaque alarme déclenchée en fonction du comportement d’activation de celle-ci sur l’ensemble des produits durant la production. Deuxièmement, en utilisant les valeurs de risque estimées pour toute alarme, nous proposons une approche de prédiction de la qualité finale d’un lot de produits. Grâce à l’utilisation des techniques d’apprentissage automatique, cette approche modélise le lien entre les événements d’alarmes des processus et la qualité finale du lot. Dans la même veine, nous proposons une autre approche basée sur le traitement du texte d’évènement d’alarmes dans le but de prédire la qualité finale du produit. Cette approche présente une amélioration en termes de performances et en termes d’exploitation de plus d’information disponible dans le texte d’alarme. Enfin, nous proposons un cadre d’analyse des activations d’alarmes en présentant un ensemble d’outils d’évaluation de performances et plusieurs techniques de visualisation interactive plus adaptées pour la surveillance et l’évaluation des processus de fabrication de semi-conducteurs. Pour chacune des approches susmentionnées, l’efficacité est démontrée à l’aide d’un ensemble de données réelles obtenues à partir d’une usine de fabrication de semi-conducteurs
This thesis addresses the prediction of product quality and improving the performance of diagnostic alarms in a semiconductor facility. For this purpose, we exploit the alarm history collected during production. First, we propose an approach to model and estimate the degradation risk of the final product associated with each alarm triggered according to its activation behavior on all products during production. Second, using the estimated risk values for any alarm, we propose an approach to predict the final quality of the product's lot. This approach models the link between process alarm events and the final quality of product lot through machine learning techniques. We also propose a new approach based on alarm event text processing to predict the final product quality. This approach improves performance and exploits more information available in the alarm text. Finally, we propose a framework for analyzing alarm activations through performance evaluation tools and several interactive visualization techniques that are more suitable for semiconductor manufacturing. These allow us to closely monitor alarms, evaluate performance, and improve the quality of products and event data collected in history. The effectiveness of each of the above approaches is demonstrated using a real data set obtained from a semiconductor manufacturing facility
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Feuilloy, Mathieu. "Étude d'algorithmes d'apprentissage artificiel pour la prédiction de la syncope chez l'homme". Phd thesis, Université d'Angers, 2009. http://tel.archives-ouvertes.fr/tel-00465008.

Texto completo da fonte
Resumo:
La syncope, dont l'origine peut ne pas être clairement définie, est considérée comme une pathologie fréquente. Dans ce cas et lorsque les épisodes sont répétés, le patient peut être amené à réaliser le test de la table d'inclinaison. Cet examen appelé tilt-test, est une méthode reconnue pour recréer les conditions dans lesquelles le patient ressent les symptômes de la syncope. Cependant, le principal problème de ce test est sa durée, qui peut atteindre une heure. Dès lors, pour des raisons de coût et de bien-être des patients, il paraît important de pouvoir réduire sa durée. C'est dans cet objectif que s'inscrivent les travaux réalisés dans le cadre de cette thèse, qui tentent de prédire l'apparition des symptômes liés à la syncope, et ce, le plus tôt possible. Durant nos recherches, deux axes sont ressortis naturellement : la fouille de données et le dé- veloppement de modèles capables de prédire le résultat du tilt-test. Ces deux axes partagent des méthodes issues de l'apprentissage articiel, qui permettent d'acquérir et d'extraire des connaissances à partir d'un ensemble d'observations signicatif. La littérature propose tout un ensemble de méthodes, qui nous ont permis de mettre en évidence certaines caractéristiques pertinentes, de manière à construire des modèles parcimonieux et robustes. Ces derniers ont permis d'obtenir des résultats intéressants pour la prédiction du résultat du tilt-test au terme notamment, des dix premières minutes de l'examen. Ces performances ont pu être considérablement améliorées par le développement de nouvelles techniques de fouille de données, permettant d'extraire très e- cacement de la connaissance. Les méthodes mises en place s'articulent autour de la sélection de variables et de l'interprétation de projections non linéaires. Ces méthodes, bien que développées autour de notre thématique, se sont montrées reproductibles lors de tests sur d'autres ensembles de données.
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Zuo, Jingwei. "Apprentissage de représentations et prédiction pour des séries-temporelles inter-dépendantes". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG038.

Texto completo da fonte
Resumo:
Les séries temporelles sont un type de données endémique dans de nombreux domaines d'applications, telles que l'analyse financière, le diagnostic médical, la surveillance de l'environnement ou encore l'astronomie. Du fait de leur structure complexe, les séries temporelles amènent à de nouveaux défis dans le traitement et l'extraction de connaissances de ces données. La représentation des séries temporelles joue un rôle déterminant dans les méthodes d'apprentissage et les tâches de fouille de données. Cependant, peu de méthodes tiennent compte des interdépendances entre séries temporelles différentes. De plus, la fouille de séries temporelles nécessite de considérer non seulement les caractéristiques des séries temporelles en termes de complexité des données, mais également les contextes particuliers des applications et la tâche de fouille de données à effectuer. Cela nous permet de construire des représentations spécifiques à la tâche.Dans cette thèse, nous étudions différentes représentations de séries temporelles capables de s'adapter à diverses tâches de fouille de séries temporelles, tout en capturant les relations entre elles. Nous nous concentrons spécifiquement sur la modélisation des interdépendances entre séries temporelles lors de la construction des représentations, qui peuvent être la dépendance temporelle au sein de chaque source de données ou la dépendance inter-variable entre des sources de données différentes. En conséquence, nous étudions les séries temporelles collectées dans diverses applications sous différentes formes. Tout d'abord, pour tenir compte de la dépendance temporelle entre les observations, nous apprenons la représentation de série temporelle dans un contexte de flux dynamique, où la série temporelle est générée en continu à partir de la source de données. Quant à la dépendance inter-variable, nous étudions les séries temporelles multivariées (MTS) avec des données collectées à partir de plusieurs sources. Enfin, nous étudions le MTS dans le contexte de la ville intelligente, où chaque source de données est associée à une localisation spatiale. Par conséquent, le MTS devient une série temporelle géo-localisée (GTS), pour laquelle la modélisation de la dépendance inter-variable requière la prise en compte de l'information spatiale sous-jacente. De ce fait, pour chaque type de séries temporelles collectées dans des contextes différents, nous proposons une méthode de représentation adaptée aux dépendances temporelles et/ou inter-variables.Outre la complexité des données provenant des interdépendances des séries temporelles, nous étudions diverses tâches d'apprentissage automatique sur des séries temporelles afin de valider les représentations apprises. Les tâches d'apprentissage étudiées dans cette thèse consistent en la classification de séries temporelles, l'apprentissage semi-supervisé de séries temporelles et la prévision de séries temporelles. Nous montrons comment les représentations apprises sont exploitées dans ces différentes tâches et pour des applications distinctes.Plus précisément, nos principales contributions sont les suivantes. En premier lieu, nous proposons un modèle d'apprentissage dynamique de la représentation des séries temporelles dans le contexte du flux de données, où nous considérons à la fois les caractéristiques des séries temporelles et les défis des flux de données. Nous affirmons et démontrons que le motif de Shapelet, basé sur la forme, est la meilleure représentation dans le contexte dynamique. Par ailleurs, nous proposons un modèle semi-supervisé pour l'apprentissage de représentation dans les MTS. Ce modèle considère la dépendance inter-variable dans l'hypothèse réaliste où les annotations de données sont limitées. Enfin, nous proposons un modèle d'apprentissage de représentation de GTS dans le contexte de la ville intelligente. Nous étudions spécifiquement la tâche de prévision du trafic routier avec un focus sur le traitement intégré des valeurs manquantes
Time series is a common data type that has been applied to enormous real-life applications, such as financial analysis, medical diagnosis, environmental monitoring, astronomical discovery, etc. Due to its complex structure, time series raises several challenges in their data processing and mining. The representation of time series plays a key role in data mining tasks and machine learning algorithms for time series. Yet, a few methods consider the interrelation that may exist between different time series when building the representation. Moreover, the time series mining requires considering not only the time series' characteristics in terms of data complexity but also the concrete application scenarios where the data mining task is performed to build task-specific representations.In this thesis, we will study different time series representation approaches that can be used in various time series mining tasks, while capturing the relationships among them. We focus specifically on modeling the interrelations between different time series when building the representations, which can be the temporal relationship within each data source or the inter-variable relationship between various data sources. Accordingly, we study the time series collected from various application contexts under different forms. First, considering the temporal relationship between the observations, we learn the time series in a dynamic streaming context, i.e., time series stream, for which the time series data is continuously generated from the data source. Second, for the inter-variable relationship, we study the multivariate time series (MTS) with data collected from multiple data sources. Finally, we study the MTS in the Smart City context, when each data source is given a spatial position. The MTS then becomes a geo-located time series (GTS), for which the inter-variable relationship requires more modeling efforts with the external spatial information. Therefore, for each type of time series data collected from distinct contexts, the interrelations between the time series observations are emphasized differently, on the temporal or (and) variable axis.Apart from the data complexity from the interrelations, we study various machine learning tasks on time series in order to validate the learned representations. The high-level learning tasks studied in this thesis consist of time series classification, semi-supervised time series learning, and time series forecasting. We show how the learned representations connect with different time series learning tasks under distinct application contexts. More importantly, we conduct the interdisciplinary study on time series by leveraging real-life challenges in machine learning tasks, which allows for improving the learning model's performance and applying more complex time series scenarios.Concretely, for these time series learning tasks, our main research contributions are the following: (i) we propose a dynamic time series representation learning model in the streaming context, which considers both the characteristics of time series and the challenges in data streams. We claim and demonstrate that the Shapelet, a shape-based time series feature, is the best representation in such a dynamic context; (ii) we propose a semi-supervised model for representation learning in multivariate time series (MTS). The inter-variable relationship over multiple data sources is modeled in a real-life context, where the data annotations are limited; (iii) we design a geo-located time series (GTS) representation learning model for Smart City applications. We study specifically the traffic forecasting task, with a focus on the missing-value treatment within the forecasting algorithm
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Santi, Nina. "Prédiction des besoins pour la gestion de serveurs mobiles en périphérie". Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB050.

Texto completo da fonte
Resumo:
L'informatique en périphérie est un paradigme émergent au sein de l'Internet des Objets (IoT) et complémentaire à l'informatique en nuage. Ce paradigme propose l'implémentation de serveurs de calcul situés à proximité des utilisateurs, réduisant ainsi la pression et les coûts de l'infrastructure réseau locale. La proximité avec les utilisateurs suscite de nouveaux cas d'utilisation, tels que le déploiement de serveurs mobiles embarqués sur des drones ou des robots, offrant une alternative moins coûteuse, plus éco-énergétique et flexible par rapport aux infrastructures fixes lors d'événements ponctuels ou exceptionnels. Cependant, cette approche soulève également de nouveaux enjeux pour le déploiement et l'allocation de ressources en temps et en espace, souvent dépendants de la batterie.Dans le cadre de cette thèse, nous proposons des outils et des algorithmes de prédiction pour la prise de décision concernant l'allocation de ressources fixes et mobiles, à la fois en termes de temps et d'espace, au sein d'environnements dynamiques. Nous mettons à disposition des jeux de données riches et reproductibles qui reflètent l'hétérogénéité inhérente aux applications de l'Internet des Objets (IoT), tout en présentant un taux de contention et d'interférence élevé. Pour cela, nous utilisons le FIT-IoT Lab, un banc d'essai ouvert dédié à l'IoT, et nous mettons l'ensemble du code à disposition de manière ouverte. De plus, nous avons développé un outil permettant de générer de manière automatisée et reproductible des traces de l'IoT. Nous exploitons ces jeux de données pour entraîner des algorithmes d'apprentissage automatique basés sur des techniques de régression afin de les évaluer dans leur capacité à prédire le débit des applications de l'IoT. Dans une démarche similaire, nous avons également entraîné et analysé un réseau neuronal de type transformateur temporel pour prédire plusieurs métriques de la Qualité de Service (QoS). Afin de tenir compte de la mobilité des ressources, nous générons des traces de l'IoT intégrant des points d'accès mobiles embarqués sur des robots TurtleBot. Ces traces, qui intègrent la mobilité, sont utilisées pour valider et tester un framework d'apprentissage fédéré reposant sur des transformateurs temporels parcimonieux. Enfin, nous proposons un algorithme décentralisé de prédiction de la densité de la population humaine par régions, basé sur l'utilisation d'un filtre à particules. Nous testons et validons cet algorithme à l'aide du simulateur Webots dans un contexte de serveurs embarqués sur des robots, et du simulateur ns-3 pour la partie réseaux
Multi-access Edge computing is an emerging paradigm within the Internet of Things (IoT) that complements Cloud computing. This paradigm proposes the implementation of computing servers located close to users, reducing the pressure and costs of local network infrastructure. This proximity to users is giving rise to new use cases, such as the deployment of mobile servers mounted on drones or robots, offering a cheaper, more energy-efficient and flexible alternative to fixed infrastructures for one-off or exceptional events. However, this approach also raises new challenges for the deployment and allocation of resources in terms of time and space, which are often battery-dependent.In this thesis, we propose predictive tools and algorithms for making decisions about the allocation of fixed and mobile resources, in terms of both time and space, within dynamic environments. We provide rich and reproducible datasets that reflect the heterogeneity inherent in Internet of Things (IoT) applications, while exhibiting a high rate of contention and interference. To achieve this, we are using the FIT-IoT Lab, an open testbed dedicated to the IoT, and we are making all the code available in an open manner. In addition, we have developed a tool for generating IoT traces in an automated and reproducible way. We use these datasets to train machine learning algorithms based on regression techniques to evaluate their ability to predict the throughput of IoT applications. In a similar approach, we have also trained and analysed a neural network of the temporal transformer type to predict several Quality of Service (QoS) metrics. In order to take into account the mobility of resources, we are generating IoT traces integrating mobile access points embedded in TurtleBot robots. These traces, which incorporate mobility, are used to validate and test a federated learning framework based on parsimonious temporal transformers. Finally, we propose a decentralised algorithm for predicting human population density by region, based on the use of a particle filter. We test and validate this algorithm using the Webots simulator in the context of servers embedded in robots, and the ns-3 simulator for the network part
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Atouati, Samed. "Du texte aux chiffres : La NLP pour la prédiction des actifs financiers". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT026.

Texto completo da fonte
Resumo:
L’objectif de la thèse est d’étudier à quel point les données en langage naturel peuvent être utiles pour mieux comprendre les relations entre le sentiment public et les entreprises, ainsi qu’entre ce sentiment et les changements de prix sur les marchés. Pour ce faire, nous étudions des données NLP provenant de différentes sources : Twitter, les rapports des entreprises et Reddit. Nous obtenons des résultats prometteurs pour certaines sources, tandis que d’autres n’ont qu’une utilité limitée en ce qui concerne l’évolution des cours des actifs. Elles restent cependant pertinentes pour comprendre les réactions du public aux scandales d’entreprises
The goal of the thesis is to investigate whether natural language data can be useful in better understanding the relationships between the public and the companies, as well as the public and the stock market price changes. In order to do so, we investigate natural language data derived from various sources: Twitter, company filings, and Reddit. We show case promising results for some sources, while others happen to have limited use as far as stock price changes go. Although they remain relevant for understanding public’s reactions to company scandals
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Wohlfarth, Till. "Machine-learning pour la prédiction des prix dans le secteur du tourisme en ligne". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0090/document.

Texto completo da fonte
Resumo:
Nous nous intéressons au problème de la prédiction de l’occurrence d’une baisse de prix pour fournir un conseil à l’achat immédiat ou reporté d’un voyage sur un site web de comparaison des prix. La méthodologie proposée repose sur l’apprentissage statistique d’un modèle d’évolution du prix à partir de l’information conjointe d’attributs du voyage considéré et d’observations passées du prix et de la "popularité" celui-ci. L’originalité principale consiste à représenter l’évolution des prix par le processus ponctuel inhomogène des sauts de celui-ci. A partir d’une base de données constituée par liligo.com, nous mettons en oeuvre une méthode d’apprentissage d’un modèle d’évolution des prix. Ce modèle permet de fournir un prédicteur de l’occurrence d’une baisse du prix sur une période future donnée et donc de prodiguer un conseil d’achat ou d’attente au client
The goal of this paper is to consider the design of decision-making tools in the context of varying travel prices from the customer’s perspective. Based on vast streams of heterogeneous historical data collected through the internet, we describe here two approaches to forecasting travel price changes at a given horizon, taking as input variables a list of descriptive characteristics of the flight, together with possible features of the past evolution of the related price series. Though heterogeneous in many respects ( e.g. sampling, scale), the collection of historical prices series is here represented in a unified manner, by marked point processes (MPP). State-of-the-art supervised learning algorithms, possibly combined with a preliminary clustering stage, grouping flights whose related price series exhibit similar behavior, can be next used in order to help the customer to decide when to purchase her/his ticket
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Motamedi, Nikzad. "Vers la prédiction et la compréhension des effets tribologiques sur les performances systèmes par l'intelligence artificielle". Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILN011.

Texto completo da fonte
Resumo:
Le contact entre deux pièces, notamment quand il est provoqué comme sur les systèmes de freinage, mérite d'être amélioré et donc d'être mieux compris. Les phénomènes mis en jeu sont complexes car ils font appel à des notions multi-échelle, multi-physique dans un contexte d'évolution constante. Une difficulté supplémentaire est que le contact est fermé, et donc il est par conséquent difficile d'observer explicitement les phénomènes d'interface qui joue un rôle prépondérant dans les performances visés (pollution sonore, émission des particules fines, usure etc.). Au regard des normes environnementales européennes qui seront de plus en plus sévères, il est indispensable d'établir de nouvelles stratégies permettant de mieux appréhender le problème dans sa globalité. L'équipe souhaite tendre vers le couplage numérique et expérience. La partie « expérience » s'appuie sur des bancs d'essais dédiés avec une instrumentation riche et fine. La partie « numérique » s'appuie sur des modélisations multi-échelles et multi-physiques tentant de considérer des mécanismes tribologiques au sein d'un système complet. Une difficulté est de vouloir comparer (recaler) ces deux parties.Ainsi, l'objectif de cette thèse est de proposer des modèles prédictifs liant l'interface de contact avec le système complet par l'intelligence artificielle. Dans un premier temps, on tentera de déterminer les fréquences propres d'un système pion-disque en prenant en compte n'importe quelles surfaces pour l'interface. Plus précisément, cette interface présentera un champ de rugosité qui sera généré numériquement. Dans un second temps, un modèle IA est développé pour prédire la distribution de contact pendant un essai. Cette partie s'appuie sur des mesures d'une nappe de thermocouples noyée dans le matériau de friction en proche surface pendant les essais. Dans un troisième temps, en s'appuyant sur des acquisitions expérimentales du profil de surface à différent instant, un modèle est proposé pour déterminer les évolutions de l'usure. Les modèles IA spécifiquement développés pour ces trois parties font appel à des algorithmes de type CNN, GAN, RNN etc. Ces notions n'étant pas commune dans la communauté mécanicienne, elles sont illustrées sur un exemple simple d'identification de comportement en préambule de ce manuscrit. En termes de bilan, les résultats obtenus sont très satisfaisants au regard de la comparaison aux données de simulation et/ou expérimentales. Cela confirme l'intérêt de l'utilisation de l'IA afin de passer un cap dans la prédiction des modèles. De plus, l'IA permet aussi la compréhension et l'importance des paramètres d'entrée qui pourrait servir à moyen terme à optimiser le système ou de piloter les essais
The contact between two parts, especially when it is induced as in braking systems, needs to be improved and therefore to be better understood. The phenomena involved are complex because they involve multi-scale, multi-physics concepts in a context of constant evolution. An additional difficulty is that the contact is closed, and therefore it is difficult to explicitly observe the interface phenomena that play a major role in the targeted performances (noise pollution, emission of fine particles, wear etc.). In view of the European environmental standards which will be increasingly severe, it is essential to establish new strategies to better understand the problem in its entirety. The team wishes to move towards the coupling of numerical and experimental methods. The "experiment" part is based on dedicated test benches with a rich and fine instrumentation. The "numerical" part is based on multi-scale and multi-physics modeling trying to consider tribological mechanisms within a complete system. One difficulty is to compare (realign) these two parts.Thus, the objective of this PhD thesis is to propose predictive models linking the contact interface with the complete system through artificial intelligence. In the first step, we will try to determine the natural frequencies of a pin-on-disk system by considering any surface for the interface. More precisely, this interface will present a roughness field that will be generated numerically. In the second step, an AI model is developed to predict the contact distribution during a test. This part is based on measurements of a thermocouple array embedded in the near surface friction material during the tests. In the third step, based on experimental acquisitions of the surface profile at different times, a model is proposed to determine the evolution of wear. The AI models specifically developed for these three parts use algorithms such as CNN, GAN, RNN etc. These concepts are not common in the mechanical community, they are illustrated on a simple example of behavior identification in the preamble of this manuscript. In terms of results, the obtained results are very satisfactory when compared to simulation and/or experimental data. This confirms the interest of using AI in order to pass a milestone in the prediction of models. Moreover, AI also allows the understanding and the importance of the input parameters which could be used in the medium term to optimize the system or to drive the tests
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Quinson, Martin. "Découverte automatique des caractéristiques et capacités d'une plate-forme de calcul distribué". Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2003. http://tel.archives-ouvertes.fr/tel-00006169.

Texto completo da fonte
Resumo:
Ce mémoire traite de l'obtention d'informations pertinentes, récentes et précises sur l'état courant des plates-formes de calcul modernes. Souvent dénommés grilles, ces environnements se différencient des machines parallèles les ayant précédés par leur nature intrinsèquement hétérogène et fortement dynamique.

Ce document est découpé en trois parties. La première présente les difficultés spécifiques à la grille en se basant sur une sélection de projets d'infrastructures pour la grille et en détaillant les solutions proposées dans ce cadre.

La seconde partie montre comment obtenir efficacement des informations quantitatives sur les capacités de la grille et leur adéquation aux besoins des routines à ordonnancer. Après avoir détaillé les problèmes rencontrés dans ce cadre, nous explicitons notre approche, nommée macro-benchmarking. Nous présentons ensuite l'outil FAST, développé dans le cadre de cette thèse et mettant cette méthodologie en oeuvre. Nous étudions également comment cet outil est utilisé dans différents projets.

La troisième partie traite de l'obtention d'une vision plus qualitative des caractéristiques de la grille, telle que la topologie d'interconnexion des machines la constituant. Après une étude des solutions classiques du domaine, nous présentons ALNeM, notre solution de cartographie automatique ne nécessitant pas de privilège d'exécution particulier. Cet outil est basé sur l'environnement GRAS, développé dans le cadre de ces travaux pour la mise au point des constituants de la grille.
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Bougrain, Laurent. "Étude de la construction par réseaux neuromimétiques de représentations interprétables : application à la prédiction dans le domaine des télécommunications". Nancy 1, 2000. http://www.theses.fr/2000NAN10241.

Texto completo da fonte
Resumo:
Les réseaux de neurones artificiels sont de bons outils de modélisation ( efficaces, facilement adaptables et rapides) mais ils ont la réputation d'être difficiles à interpréter et sont généralement comparés à des boîtes noires dont il n'est pas facile de comprendre l'organisation interne, pourtant responsable de leurs bonnes performances. Pour obtenir une meilleure compréhension du fonctionnement des réseaux connexionnistes et une validation de leur utilisation en tant qu'outils d'acquisition de connaissances, nous avons, dans un premier temps, réuni divers travaux théoriques pour montrer les points communs existant entre certaisn réseaux de neurones classiques et des méthodes statistiques de régression et d'analyses de données. Dans un deuxième temps et à la lumière de ce qui précède, nous avons expliqué les particularités de réseaux connexionnistes plus complexes, tels que des réseaux dynamiques ou modulaires, afin d'exploiter leurs avantages respectifs en concevant un nouveau modèle d'extraction de connaissances adapté à la complexité du phénomène à modéliser. Les réseaux connexionnistes que nous avons réunis et interprétés et le modèle que nous avons développé peuvent, à partir des données, enrichir la compréhension du phénomène en analysant et en organisant les informations par rapport à la tâche à accomplir comme nous l'illustrons à travers une application de prédiction dans le domaine des télécommunications où la connaissance du domaine ne suffit pas à modéliser correctement le phénomène. Les possibilités d'application de notre travail sont donc larges et s'inscrivent dans le cadre de la fouille de données et dans le domaine des sciences cognitives
Artificial neural networks constitute good tools for certain types of computational modelling (being potentially efficient, easy to adapt and fast). However, they are often considered difficult to interpret, and are sometimes treated as black boxes. However, whilst this complexity implies that it is difficult to understand the internal organization that develops through learning, it usually encapsulates one of the key factors for obtaining good results. First, to yield a better understanding of how artificial neural networks behave and to validate their use as knowledge discovery tools, we have examined various theoretical works in order to demonstrate the common principles underlying both certain classical artificial neural network, and statistical methods for regression and data analysis. Second, in light of these studies, we have explained the specificities of some more complex artificial neural networks, such as dynamical and modular networks, in order to exploit their respective advantages in constructing a revised model for knowledge extraction, adjusted to the complexity of the phenomena we want to model. The artificial neural networks we have combined (and the subsequent model we developed) can, starting from task data, enhance the understanding of the phenomena modelled through analysing and organising the information for the task. We demonstrate this in a practical prediction task for telecommunication, where the general domain knowledge alone is insufficient to model the phenomena satisfactorily. This leads us to conclude that the possibility for practical application of out work is broad, and that our methods can combine with those already existing in the data mining and the cognitive sciences
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Gerchinovitz, Sébastien. "Prédiction de suites individuelles et cadre statistique classique : étude de quelques liens autour de la régression parcimonieuse et des techniques d'agrégation". Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00653550.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans le domaine de l'apprentissage statistique. Le cadre principal est celui de la prévision de suites déterministes arbitraires (ou suites individuelles), qui recouvre des problèmes d'apprentissage séquentiel où l'on ne peut ou ne veut pas faire d'hypothèses de stochasticité sur la suite des données à prévoir. Cela conduit à des méthodes très robustes. Dans ces travaux, on étudie quelques liens étroits entre la théorie de la prévision de suites individuelles et le cadre statistique classique, notamment le modèle de régression avec design aléatoire ou fixe, où les données sont modélisées de façon stochastique. Les apports entre ces deux cadres sont mutuels : certaines méthodes statistiques peuvent être adaptées au cadre séquentiel pour bénéficier de garanties déterministes ; réciproquement, des techniques de suites individuelles permettent de calibrer automatiquement des méthodes statistiques pour obtenir des bornes adaptatives en la variance du bruit. On étudie de tels liens sur plusieurs problèmes voisins : la régression linéaire séquentielle parcimonieuse en grande dimension (avec application au cadre stochastique), la régression linéaire séquentielle sur des boules L1, et l'agrégation de modèles non linéaires dans un cadre de sélection de modèles (régression avec design fixe). Enfin, des techniques stochastiques sont utilisées et développées pour déterminer les vitesses minimax de divers critères de performance séquentielle (regrets interne et swap notamment) en environnement déterministe ou stochastique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia