To see the other types of publications on this topic, follow the link: Machine learning approches.

Dissertations / Theses on the topic 'Machine learning approches'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 43 dissertations / theses for your research on the topic 'Machine learning approches.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Arman, Molood. "Machine Learning Approaches for Sub-surface Geological Heterogeneous Sources." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG014.

Full text
Abstract:
Dans le domaine de l'exploration et de la production du pétrole et du gaz, il est essentiel de comprendre les structures géologiques de sous-sol, tels que les diagraphies de puits et les échantillons de roche, afin de fournir des outils de prédiction et d'aide à la décision. Exploiter des données provenant de différentes sources, structurées ou non structurées, telles que des bases de données relationnelles et des rapports numérisés portant sur la géologie du sous-sol, est primordial. Le principal défi pour les données structurées réside dans l'absence d'un schéma global permettant de croiser tous les attributs provenant de différentes sources.Les défis sont autres pour les données non structurées. La plupart des rapports géologiques de sous-sol sont des versions scannées de documents. L'objectif de notre travail de thèse est de fournir une représentation structurée des différentes sources de données, et de construire des modèles de language spécifique au domaine pour l'apprentissage des entités nommées relatives à la géologie du sous-sol
In oil and gas exploration and production, understanding subsurface geological structures, such as well logs and rock samples, is essential to provide predictive and decision support tools. Gathering and using data from a variety of sources, both structured and unstructured, such as relational databases and digitized reports on the subsurface geology, are critical. The main challenge for the structured data is the lack of a global schema to cross-reference all attributes from different sources. The challenges are different for unstructured data. Most subsurface geological reports are scanned versions of documents. Our dissertation aims to provide a structured representation of the different data sources and to build domain-specific language models for learning named entities related to subsurface geology
APA, Harvard, Vancouver, ISO, and other styles
2

Peyrache, Jean-Philippe. "Nouvelles approches itératives avec garanties théoriques pour l'adaptation de domaine non supervisée." Thesis, Saint-Etienne, 2014. http://www.theses.fr/2014STET4023/document.

Full text
Abstract:
Ces dernières années, l’intérêt pour l’apprentissage automatique n’a cessé d’augmenter dans des domaines aussi variés que la reconnaissance d’images ou l’analyse de données médicales. Cependant, une limitation du cadre classique PAC a récemment été mise en avant. Elle a entraîné l’émergence d’un nouvel axe de recherche : l’Adaptation de Domaine, dans lequel on considère que les données d’apprentissage proviennent d’une distribution (dite source) différente de celle (dite cible) dont sont issues les données de test. Les premiers travaux théoriques effectués ont débouché sur la conclusion selon laquelle une bonne performance sur le test peut s’obtenir en minimisant à la fois l’erreur sur le domaine source et un terme de divergence entre les deux distributions. Trois grandes catégories d’approches s’en inspirent : par repondération, par reprojection et par auto-étiquetage. Dans ce travail de thèse, nous proposons deux contributions. La première est une approche de reprojection basée sur la théorie du boosting et s’appliquant aux données numériques. Celle-ci offre des garanties théoriques intéressantes et semble également en mesure d’obtenir de bonnes performances en généralisation. Notre seconde contribution consiste d’une part en la proposition d’un cadre permettant de combler le manque de résultats théoriques pour les méthodes d’auto-étiquetage en donnant des conditions nécessaires à la réussite de ce type d’algorithme. D’autre part, nous proposons dans ce cadre une nouvelle approche utilisant la théorie des (epsilon, gamma, tau)-bonnes fonctions de similarité afin de contourner les limitations imposées par la théorie des noyaux dans le contexte des données structurées
During the past few years, an increasing interest for Machine Learning has been encountered, in various domains like image recognition or medical data analysis. However, a limitation of the classical PAC framework has recently been highlighted. It led to the emergence of a new research axis: Domain Adaptation (DA), in which learning data are considered as coming from a distribution (the source one) different from the one (the target one) from which are generated test data. The first theoretical works concluded that a good performance on the target domain can be obtained by minimizing in the same time the source error and a divergence term between the two distributions. Three main categories of approaches are derived from this idea : by reweighting, by reprojection and by self-labeling. In this thesis work, we propose two contributions. The first one is a reprojection approach based on boosting theory and designed for numerical data. It offers interesting theoretical guarantees and also seems able to obtain good generalization performances. Our second contribution consists first in a framework filling the gap of the lack of theoretical results for self-labeling methods by introducing necessary conditions ensuring the good behavior of this kind of algorithm. On the other hand, we propose in this framework a new approach, using the theory of (epsilon, gamma, tau)- good similarity functions to go around the limitations due to the use of kernel theory in the specific context of structured data
APA, Harvard, Vancouver, ISO, and other styles
3

Cherif, Aymen. "Réseaux de neurones, SVM et approches locales pour la prévision de séries temporelles." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4003/document.

Full text
Abstract:
La prévision des séries temporelles est un problème qui est traité depuis de nombreuses années. On y trouve des applications dans différents domaines tels que : la finance, la médecine, le transport, etc. Dans cette thèse, on s’est intéressé aux méthodes issues de l’apprentissage artificiel : les réseaux de neurones et les SVM. On s’est également intéressé à l’intérêt des méta-méthodes pour améliorer les performances des prédicteurs, notamment l’approche locale. Dans une optique de diviser pour régner, les approches locales effectuent le clustering des données avant d’affecter les prédicteurs aux sous ensembles obtenus. Nous présentons une modification dans l’algorithme d’apprentissage des réseaux de neurones récurrents afin de les adapter à cette approche. Nous proposons également deux nouvelles techniques de clustering, la première basée sur les cartes de Kohonen et la seconde sur les arbres binaires
Time series forecasting is a widely discussed issue for many years. Researchers from various disciplines have addressed it in several application areas : finance, medical, transportation, etc. In this thesis, we focused on machine learning methods : neural networks and SVM. We have also been interested in the meta-methods to push up the predictor performances, and more specifically the local models. In a divide and conquer strategy, the local models perform a clustering over the data sets before different predictors are affected into each obtained subset. We present in this thesis a new algorithm for recurrent neural networks to use them as local predictors. We also propose two novel clustering techniques suitable for local models. The first is based on Kohonen maps, and the second is based on binary trees
APA, Harvard, Vancouver, ISO, and other styles
4

Hollocou, Alexandre. "Nouvelles approches pour le partitionnement de grands graphes." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE063.

Full text
Abstract:
Les graphes sont omniprésents dans de nombreux domaines de recherche, allant de la biologie à la sociologie. Un graphe est une structure mathématique très simple constituée d’un ensemble d’éléments, appelés nœuds, reliés entre eux par des liens, appelés arêtes. Malgré cette simplicité, les graphes sont capables de représenter des systèmes extrêmement complexes, comme les interactions entre protéines ou les collaborations scientifiques. Le partitionnement ou clustering de graphe est un problème central en analyse de graphe dont l’objectif est d’identifier des groupes de nœuds densément interconnectés et peu connectés avec le reste du graphe. Ces groupes de nœuds, appelés clusters, sont fondamentaux pour une compréhension fine de la structure des graphes. Il n’existe pas de définition universelle de ce qu’est un bon cluster, et différentes approches peuvent s’avérer mieux adaptées dans différentes situations. Alors que les méthodes classiques s’attachent à trouver des partitions des nœuds de graphe, c’est-à-dire à colorer ces nœuds de manière à ce qu’un nœud donné n’ait qu’une et une seule couleur, des approches plus élaborées se révèlent nécessaires pour modéliser la structure complexe des graphes que l’on rencontre en situation réelle. En particulier, dans de nombreux cas, il est nécessaire de considérer qu’un nœud donné peut appartenir à plus d’un cluster. Par ailleurs, de nombreux systèmes que l’on rencontre en pratique présentent une structure multi-échelle pour laquelle il est nécessaire de partir à la recherche de hiérarchies de clusters plutôt que d’effectuer un partitionnement à plat. De plus, les graphes que l’on rencontre en pratique évoluent souvent avec le temps et sont trop massifs pour être traités en un seul lot. Pour ces raisons, il est souvent nécessaire d’adopter des approches dites de streaming qui traitent les arêtes au fil de l’eau. Enfin, dans de nombreuses applications, traiter des graphes entiers n’est pas nécessaire ou est trop coûteux, et il est plus approprié de retrouver des clusters locaux dans un voisinage de nœuds d’intérêt plutôt que de colorer tous les nœuds. Dans ce travail, nous étudions des approches alternatives de partitionnement de graphe et mettons au point de nouveaux algorithmes afin de résoudre les différents problèmes évoqués ci-dessus
Graphs are ubiquitous in many fields of research ranging from sociology to biology. A graph is a very simple mathematical structure that consists of a set of elements, called nodes, connected to each other by edges. It is yet able to represent complex systems such as protein-protein interaction or scientific collaborations. Graph clustering is a central problem in the analysis of graphs whose objective is to identify dense groups of nodes that are sparsely connected to the rest of the graph. These groups of nodes, called clusters, are fundamental to an in-depth understanding of graph structures. There is no universal definition of what a good cluster is, and different approaches might be best suited for different applications. Whereas most of classic methods focus on finding node partitions, i.e. on coloring graph nodes so that each node has one and only one color, more elaborate approaches are often necessary to model the complex structure of real-life graphs and to address sophisticated applications. In particular, in many cases, we must consider that a given node can belong to more than one cluster. Besides, many real-world systems exhibit multi-scale structures and one much seek for hierarchies of clusters rather than flat clusterings. Furthermore, graphs often evolve over time and are too massive to be handled in one batch so that one must be able to process stream of edges. Finally, in many applications, processing entire graphs is irrelevant or expensive, and it can be more appropriate to recover local clusters in the neighborhood of nodes of interest rather than color all graph nodes. In this work, we study alternative approaches and design novel algorithms to tackle these different problems. The novel methods that we propose to address these different problems are mostly inspired by variants of modularity, a classic measure that accesses the quality of a node partition, and by random walks, stochastic processes whose properties are closely related to the graph structure. We provide analyses that give theoretical guarantees for the different proposed techniques, and endeavour to evaluate these algorithms on real-world datasets and use cases
APA, Harvard, Vancouver, ISO, and other styles
5

Godet, Pierre. "Approches par apprentissage pour l’estimation de mouvement multiframe en vidéo." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG005.

Full text
Abstract:
Ce travail porte sur l'exploitation de l'information temporelle sur une séquence de plus de deux images pour l'estimation du flot optique, défini comme le champ dense (en tout pixel) des mouvements apparents dans le repère image. Nous étudions d'une part l'utilisation d'une base de modèles temporels, appris par analyse en composantes principales à partir des données étudiées, pour modéliser la dépendance temporelle du mouvement. Cette première étude se focalise sur le contexte de la vélocimétrie par images de particules en mécanique des fluides. D'autre part, le nouvel état de l'art de l'estimation de flot optique ayant récemment été établi par des méthodes basées sur l'apprentissage profond, nous entraînons des réseaux de neurones convolutifs à estimer le flot optique en profitant de la continuité temporelle, dans le cas de séquences d'images naturelles. Nous proposons ensuite STaRFlow, un réseau de neurones convolutif exploitant une mémoire de l'information du passé au moyen d'une récurrence temporelle. Par application répétée d'une même cellule récurrente, les mêmes paramètres appris sont utilisés pour les différents instants considérés et pour les différents niveaux d'un processus multi-échelle. Cette architecture est plus légère que les réseaux concurrents tout en conférant à STaRFlow des performances à l'état de l'art. Au fil de nos travaux, nous mettons en évidence plusieurs cas où l'utilisation de l'information temporelle permet d'améliorer la qualité de l'estimation, en particulier en présence d'occultations, lorsque la qualité image est dégradée (flou, bruit), ou encore dans le cas d'objets fins
This work concerns the use of temporal information on a sequence of more than two images for optical flow estimation. Optical flow is defined as the dense field (in any pixel) of the apparent movements in the image plane. We study on the one hand the use of a basis of temporal models, learned by principal component analysis from the studied data, to model the temporal dependence of the movement. This first study focuses on the context of particle image velocimetry in fluid mechanics. On the other hand, the new state of the art of optical flow estimation having recently been established by methods based on deep learning, we train convolutional neural networks to estimate optical flow by taking advantage of temporal continuity, in the case of natural image sequences. We then propose STaRFlow, a convolutional neural network exploiting a memory of information from the past by using a temporal recurrence. By repeated application of the same recurrent cell, the same learned parameters are used for the different time steps and for the different levels of a multiscale process. This architecture is lighter than competing networks while giving STaRFlow state-of-the-art performance. In the course of our work, we highlight several cases where the use of temporal information improves the quality of the estimation, in particular in the presence of occlusions, when the image quality is degraded (blur, noise), or in the case of thin objects
APA, Harvard, Vancouver, ISO, and other styles
6

Delecraz, Sébastien. "Approches jointes texte/image pour la compréhension multimodale de documents." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0634/document.

Full text
Abstract:
Les mécanismes de compréhension chez l'être humain sont par essence multimodaux. Comprendre le monde qui l'entoure revient chez l'être humain à fusionner l'information issue de l'ensemble de ses récepteurs sensoriels. La plupart des documents utilisés en traitement automatique de l'information sont multimodaux. Par exemple, du texte et des images dans des documents textuels ou des images et du son dans des documents vidéo. Cependant, les traitements qui leurs sont appliqués sont le plus souvent monomodaux. Le but de cette thèse est de proposer des traitements joints s'appliquant principalement au texte et à l'image pour le traitement de documents multimodaux à travers deux études : l'une portant sur la fusion multimodale pour la reconnaissance du rôle du locuteur dans des émissions télévisuelles, l'autre portant sur la complémentarité des modalités pour une tâche d'analyse linguistique sur des corpus d'images avec légendes. Pour la première étude nous nous intéressons à l'analyse de documents audiovisuels provenant de chaînes d'information télévisuelle. Nous proposons une approche utilisant des réseaux de neurones profonds pour la création d'une représentation jointe multimodale pour les représentations et la fusion des modalités. Dans la seconde partie de cette thèse nous nous intéressons aux approches permettant d'utiliser plusieurs sources d'informations multimodales pour une tâche monomodale de traitement automatique du langage, afin d'étudier leur complémentarité. Nous proposons un système complet de correction de rattachements prépositionnels utilisant de l'information visuelle, entraîné sur un corpus multimodal d'images avec légendes
The human faculties of understanding are essentially multimodal. To understand the world around them, human beings fuse the information coming from all of their sensory receptors. Most of the documents used in automatic information processing contain multimodal information, for example text and image in textual documents or image and sound in video documents, however the processings used are most often monomodal. The aim of this thesis is to propose joint processes applying mainly to text and image for the processing of multimodal documents through two studies: one on multimodal fusion for the speaker role recognition in television broadcasts, the other on the complementarity of modalities for a task of linguistic analysis on corpora of images with captions. In the first part of this study, we interested in audiovisual documents analysis from news television channels. We propose an approach that uses in particular deep neural networks for representation and fusion of modalities. In the second part of this thesis, we are interested in approaches allowing to use several sources of multimodal information for a monomodal task of natural language processing in order to study their complementarity. We propose a complete system of correction of prepositional attachments using visual information, trained on a multimodal corpus of images with captions
APA, Harvard, Vancouver, ISO, and other styles
7

Akerma, Mahdjouba. "Impact énergétique de l’effacement dans un entrepôt frigorifique : analyse des approches systémiques : boîte noire / boîte blanche." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS187.

Full text
Abstract:
Les entrepôts frigorifiques et chambres froides forment, de par l'inertie thermique de la masse des produits, une source importante de stockage thermique rapidement accessible et fortement attractive pour répondre aux besoins d’effacement électrique. Cependant, le risque pour le produit lors des fluctuations de température liées aux périodes d’effacement et la crainte d’une surconsommation énergétique, limitent le recours aux effacements par les industriels et acteurs du froid alimentaire. Cette thèse vise à caractériser l’effacement électrique des entrepôts en apportant un éclairage sur le comportement thermique d’un système, en termes de fluctuation de température et de consommation électrique. Une étude expérimentale a été mise en œuvre afin d’étudier plusieurs scénarios d’effacement (durée, fréquence et conditions opératoires) et de développer de nouveaux indicateurs pour caractériser l’impact de l’effacement sur le comportement thermique et énergétique des systèmes frigorifiques. Cette étude a mis en avant, l’importance de l’état de chargement pour limiter la remontée de température de l’air, et réduire l’impact de l’effacement sur les produits entreposés. Par ailleurs, le potentiel d’application de l’effacement dans le cas d’un entrepôt frigorifique ou d’une chambre froide a été évalué, en s’appuyant sur le développement des deux approches de modélisation « boîte noire » (apprentissage automatique par des réseaux de neurones artificiels de type Deep Learning) et « boîte blanche » (physique). Une possibilité d’interaction entre ces deux approches a été proposée. Elle est fondée sur l’utilisation des modèles boîte noire pour la prédiction et l’emploi du modèle boîte blanche pour générer les données d’entrée et de sortie
Refrigerated warehouses and cold rooms, mainly used for food conservation, constitute available storage cells; they can be considered as a network of "thermal batteries" ready to be used and one of the best existing solutions to store and delay electricity consumption. However, the risk related to temperature fluctuations of products due to periods of demand response - DR* and the risk of energy overconsumption limit the use of this strategy by industrials in food refrigeration. The present PhD thesis aims to characterize the electrical DR of warehouses and cold rooms by examining the thermal behavior of those systems, in terms of temperature fluctuation and electrical consumption. An experimental set-up was developed to study several DR scenarios (duration, frequency and operating conditions) and to propose new indicators to characterize the impact of DR periods on the thermal and energy behavior of refrigeration systems. This study has highlighted the importance of the presence of load to limit the temperature rise and thus to reduce the impact on stored products. The potential for DR application in the case of a cold store and a cold room was assessed, based on the development of two modeling approaches: “black box” (Machine Learning by artificial neural networks using Deep Learning models) and “white box” (physics). A possibility of interaction between these two approaches has been proposed, based on the use of black box models for prediction and the use of the white box model to generate input and output data
APA, Harvard, Vancouver, ISO, and other styles
8

Pinault, Florian. "Apprentissage par renforcement pour la généralisation des approches automatiques dans la conception des systèmes de dialogue oral." Phd thesis, Université d'Avignon, 2011. http://tel.archives-ouvertes.fr/tel-00933937.

Full text
Abstract:
Les systèmes de dialogue homme machine actuellement utilisés dans l'industrie sont fortement limités par une forme de communication très rigide imposant à l'utilisateur de suivre la logique du concepteur du système. Cette limitation est en partie due à leur représentation de l'état de dialogue sous la forme de formulaires préétablis.Pour répondre à cette difficulté, nous proposons d'utiliser une représentation sémantique à structure plus riche et flexible visant à permettre à l'utilisateur de formuler librement sa demande.Une deuxième difficulté qui handicape grandement les systèmes de dialogue est le fort taux d'erreur du système de reconnaissance vocale. Afin de traiter ces erreurs de manière quantitative, la volonté de réaliser une planification de stratégie de dialogue en milieu incertain a conduit à utiliser des méthodes d'apprentissage par renforcement telles que les processus de décision de Markov partiellement observables (POMDP). Mais un inconvénient du paradigme POMDP est sa trop grande complexité algorithmique. Certaines propositions récentes permettent de réduire la complexité du modèle. Mais elles utilisent une représentation en formulaire et ne peuvent être appliqués directement à la représentation sémantique riche que nous proposons d'utiliser.Afin d'appliquer le modèle POMDP dans un système dont le modèle sémantique est complexe, nous proposons une nouvelle façon de contrôler sa complexité en introduisant un nouveau paradigme : le POMDP résumé à double suivi de la croyance. Dans notre proposition, le POMDP maitre, complexe, est transformé en un POMDP résumé, plus simple. Un premier suivi de croyance (belief update) est réalisé dans l'espace maitre (en intégrant des observations probabilistes sous forme de listes nbest). Et un second suivi de croyance est réalisé dans l'espace résumé, les stratégies obtenues sont ainsi optimisées sur un véritable POMDP.Nous proposons deux méthodes pour définir la projection du POMDP maitre en un POMDP résumé : par des règles manuelles et par regroupement automatique par k plus proches voisins. Pour cette dernière, nous proposons d'utiliser la distance d'édition entre graphes, que nous généralisons pour obtenir une distance entre listes nbest.En outre, le couplage entre un système résumé, reposant sur un modèle statistique par POMDP, et un système expert, reposant sur des règles ad hoc, fournit un meilleur contrôle sur la stratégie finale. Ce manque de contrôle est en effet une des faiblesses empêchant l'adoption des POMDP pour le dialogue dans l'industrie.Dans le domaine du renseignement d'informations touristiques et de la réservation de chambres d'hôtel, les résultats sur des dialogues simulés montrent l'efficacité de l'approche par renforcement associée à un système de règles pour s'adapter à un environnement bruité. Les tests réels sur des utilisateurs humains montrent qu'un système optimisé par renforcement obtient cependant de meilleures performances sur le critère pour lequel il a été optimisé.
APA, Harvard, Vancouver, ISO, and other styles
9

Pereira, Cécile. "Nouvelles approches bioinformatiques pour l'étude à grande échelle de l'évolution des activités enzymatiques." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112065/document.

Full text
Abstract:
Cette thèse a pour objectif de proposer de nouvelles méthodes permettant l'étude de l'évolution du métabolisme. Pour cela, nous avons choisi de nous pencher sur le problème de comparaison du métabolisme de centaines de micro-organismes.Afin de comparer le métabolisme de différentes espèces, il faut dans un premier temps connaître le métabolisme de chacune de ces espèces.Les protéomes des micro-organismes avec lesquels nous souhaitons travailler proviennent de différentes bases de données et ont été séquencés et annotés par différentes équipes, via différentes méthodes. L'annotation fonctionnelle peut donc être de qualité hétérogène. C'est pourquoi il est nécessaire d'effectuer une ré-annotation fonctionnelle standardisée des protéomes des organismes que nous souhaitons comparer.L'annotation de séquences protéiques peut être réalisée par le transfert d'annotations entre séquences orthologues. Il existe plus de 39 bases de données répertoriant des orthologues prédits par différentes méthodes. Il est connu que ces méthodes mènent à des prédictions en partie différentes. Afin de tenir compte des prédictions actuelles tout en ajoutant de l'information pertinente, nous avons développé la méta-approche MARIO. Celle-ci combine les intersections des résultats de plusieurs méthodes de détections de groupes d'orthologues et les enrichit grâce à l'utilisation de profils HMM. Nous montrons que notre méta-approche permet de prédire un plus grand nombre d'orthologues tout en améliorant la similarité de fonction des paires d'orthologues prédites. Cela nous a permis de prédire le répertoire enzymatique de 178 protéomes de micro-organismes (dont 174 champignons).Dans un second temps, nous analysons ces répertoires enzymatiques afin d'en apprendre plus sur l'évolution du métabolisme. Dans ce but, nous cherchons des combinaisons de présence/absence d'activités enzymatiques permettant de caractériser un groupe taxonomique donné. Ainsi, il devient possible de déduire si la création d'un groupe taxonomique particulier peut s'expliquer par (ou a induit) l'apparition de certaines spécificités au niveau de son métabolisme.Pour cela, nous avons appliqué des méthodes d'apprentissage supervisé interprétables (règles et arbres de décision) sur les profils enzymatiques. Nous utilisons comme attributs les activités enzymatiques, comme classe les groupes taxonomiques et comme exemples les champignons. Les résultats obtenus, cohérents avec nos connaissances actuelles sur ces organismes, montrent que l'application de méthodes d'apprentissage supervisé est efficace pour extraire de l'information des profils phylogénétiques. Le métabolisme conserve donc des traces de l'évolution des espèces.De plus, cette approche, dans le cas de prédiction de classifieurs présentant un faible nombre d'erreurs, peut permettre de mettre en évidence l'existence de probables transferts horizontaux. C'est le cas par exemple du transfert du gène codant pour l'EC:3.1.6.6 d'un ancêtre des pezizomycotina vers un ancêtre d'Ustilago maydis
This thesis has for objective to propose new methods allowing the study of the evolution of the metabolism. For that purpose, we chose to deal with the problem of comparison of the metabolism of hundred microorganisms.To compare the metabolism of various species, it is necessary to know at first the metabolism of each of these species.We work with proteomes of the microorganisms coming from various databases and sequenced and annotated by various teams, via various methods. The functional annotation can thus be of heterogeneous quality. That is why it is necessary to make a standardized functional annotation of this proteomes.The annotation of protein sequences can be realized by the transfer of annotations between orthologs sequences. There are more than 39 databases listing orthologues predicted by various methods. It is known that these methods lead to partially different predictions. To take into account current predictions and also adding relevant information, we developed the meta approach MARIO. This one combines the intersections of the results of several methods of detection of groups of orthologs and add sequences to this groups by using HMM profiles. We show that our meta approach allows to predict a largest number of orthologs while improving the similarity of function of the pairs of predicted orthologs. It allowed us to predict the enzymatic directory of 178 proteomes of microorganisms (among which 174 fungi).Secondly, we analyze these enzymatic directories in order to analyse the evolution of the metabolism. In this purpose, we look for combinations of presence / absence of enzymatic activities allowing to characterize a taxonomic group. So, it becomes possible to deduct if the creation of a particular taxonomic group can give some explanation by (or led to) the appearance of specificities at the level of its metabolism.For that purpose, we applied interpretable machine learning methods (rulers and decision trees) to the enzymatic profiles. We use as attributes the enzymatic activities, as classes the taxonomic groups and as examples the fungi. The results, coherent with our current knowledge on these species, show that the application of methods of machine learning is effective to extract informations of the phylogenetic profiles. The metabolism thus keeps tracks of the evolution of the species.Furthermore, this approach, in the case of prediction of classifiers presenting a low number of errors, can allow to highlight the existence of likely horizontal transfers. It is the case for example of the transfer of the gene coding for the EC:3.1.6.6 of an ancestor of pezizomycotina towards an ancestor of Ustilago maydis
APA, Harvard, Vancouver, ISO, and other styles
10

Morvant, Emilie. "Apprentissage de vote de majorité pour la classification supervisée et l'adaptation de domaine : approches PAC-Bayésiennes et combinaison de similarités." Phd thesis, Aix-Marseille Université, 2013. http://tel.archives-ouvertes.fr/tel-00879072.

Full text
Abstract:
De nos jours, avec l'expansion d'Internet, l'abondance et la diversité des données accessibles qui en résulte, de nombreuses applications requièrent l'utilisation de méthodes d'apprentissage automatique supervisé capables de prendre en considération différentes sources d'informations. Par exemple, pour des applications relevant de l'indexation sémantique de documents multimédia, il s'agit de pouvoir efficacement tirer bénéfice d'informations liées à la couleur, au texte, à la texture ou au son des documents à traiter. La plupart des méthodes existantes proposent de combiner ces informations multimodales, soit en fusionnant directement les descriptions, soit en combinant des similarités ou des classifieurs, avec pour objectif de construire un modèle de classification automatique plus fiable pour la tâche visée. Ces aspects multimodaux induisent généralement deux types de difficultés. D'une part, il faut être capable d'utiliser au mieux toute l'information a priori disponible sur les objets à combiner. D'autre part, les données sur lesquelles le modèle doit être appliqué ne suivent nécessairement pas la même distribution de probabilité que les données utilisées lors de la phase d'apprentissage. Dans ce contexte, il faut être à même d'adapter le modèle à de nouvelles données, ce qui relève de l'adaptation de domaine. Dans cette thèse, nous proposons plusieurs contributions fondées théoriquement et répondant à ces problématiques. Une première série de contributions s'intéresse à l'apprentissage de votes de majorité pondérés sur un ensemble de votants dans le cadre de la classification supervisée. Ces contributions s'inscrivent dans le contexte de la théorie PAC-Bayésienne permettant d'étudier les capacités en généralisation de tels votes de majorité en supposant un a priori sur la pertinence des votants. Notre première contribution vise à étendre un algorithme récent, MinCq, minimisant une borne sur l'erreur du vote de majorité en classification binaire. Cette extension permet de prendre en compte une connaissance a priori sur les performances des votants à combiner sous la forme d'une distribution alignée. Nous illustrons son intérêt dans une optique de combinaison de classifieurs de type plus proches voisins, puis dans une perspective de fusion de classifieurs pour l'indexation sémantique de documents multimédia. Nous proposons ensuite une contribution théorique pour des problèmes de classification multiclasse. Cette approche repose sur une analyse PAC-Bayésienne originale en considérant la norme opérateur de la matrice de confusion comme mesure de risque. Notre seconde série de contributions concerne la problématique de l'adaptation de domaine. Dans cette situation, nous présentons notre troisième apport visant à combiner des similarités permettant d'inférer un espace de représentation de manière à rapprocher les distributions des données d'apprentissage et des données à traiter. Cette contribution se base sur la théorie des fonctions de similarités (epsilon,gamma,tau)-bonnes et se justifie par la minimisation d'une borne classique en adaptation de domaine. Pour notre quatrième et dernière contribution, nous proposons la première analyse PAC-Bayésienne appropriée à l'adaptation de domaine. Cette analyse se base sur une mesure consistante de divergence entre distributions permettant de dériver une borne en généralisation pour l'apprentissage de votes de majorité en classification binaire. Elle nous permet également de proposer un algorithme adapté aux classifieurs linéaires capable de minimiser cette borne de manière directe.
APA, Harvard, Vancouver, ISO, and other styles
11

Delecraz, Sébastien. "Approches jointes texte/image pour la compréhension multimodale de documents." Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0634.

Full text
Abstract:
Les mécanismes de compréhension chez l'être humain sont par essence multimodaux. Comprendre le monde qui l'entoure revient chez l'être humain à fusionner l'information issue de l'ensemble de ses récepteurs sensoriels. La plupart des documents utilisés en traitement automatique de l'information sont multimodaux. Par exemple, du texte et des images dans des documents textuels ou des images et du son dans des documents vidéo. Cependant, les traitements qui leurs sont appliqués sont le plus souvent monomodaux. Le but de cette thèse est de proposer des traitements joints s'appliquant principalement au texte et à l'image pour le traitement de documents multimodaux à travers deux études : l'une portant sur la fusion multimodale pour la reconnaissance du rôle du locuteur dans des émissions télévisuelles, l'autre portant sur la complémentarité des modalités pour une tâche d'analyse linguistique sur des corpus d'images avec légendes. Pour la première étude nous nous intéressons à l'analyse de documents audiovisuels provenant de chaînes d'information télévisuelle. Nous proposons une approche utilisant des réseaux de neurones profonds pour la création d'une représentation jointe multimodale pour les représentations et la fusion des modalités. Dans la seconde partie de cette thèse nous nous intéressons aux approches permettant d'utiliser plusieurs sources d'informations multimodales pour une tâche monomodale de traitement automatique du langage, afin d'étudier leur complémentarité. Nous proposons un système complet de correction de rattachements prépositionnels utilisant de l'information visuelle, entraîné sur un corpus multimodal d'images avec légendes
The human faculties of understanding are essentially multimodal. To understand the world around them, human beings fuse the information coming from all of their sensory receptors. Most of the documents used in automatic information processing contain multimodal information, for example text and image in textual documents or image and sound in video documents, however the processings used are most often monomodal. The aim of this thesis is to propose joint processes applying mainly to text and image for the processing of multimodal documents through two studies: one on multimodal fusion for the speaker role recognition in television broadcasts, the other on the complementarity of modalities for a task of linguistic analysis on corpora of images with captions. In the first part of this study, we interested in audiovisual documents analysis from news television channels. We propose an approach that uses in particular deep neural networks for representation and fusion of modalities. In the second part of this thesis, we are interested in approaches allowing to use several sources of multimodal information for a monomodal task of natural language processing in order to study their complementarity. We propose a complete system of correction of prepositional attachments using visual information, trained on a multimodal corpus of images with captions
APA, Harvard, Vancouver, ISO, and other styles
12

Khemiri, Abdelhak. "Approches pour la vérification et la validation des modèles de production : application à une usine de fabrication de semi-conducteurs." Electronic Thesis or Diss., Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0157.

Full text
Abstract:
Aujourd’hui les processus métiers ont une place centrale dans les organisations et la question de leur fiabilité a attiré de plus en plus d’attention aussi bien du côté des industriels que de la communauté scientifique. En effet, une erreur ou un dysfonctionnement dans les modèles de production peut lourdement fragiliser les entreprises. Ce risque se voit exacerbé par l’importance grandissante que prennent l’automatisation et l’informatisation des processus. Ainsi, cette thèse s’intéresse aux problématiques liées à la vérification et la validation des processus et modèles de production d’une usine manufacturière. Pour répondre à ces besoins, deux approches ont été proposées dans le cadre de cette thèse. La première vise à améliorer le modèle informationnel des processus de production au travers d’une approche basée sur l’apprentissage automatique permettant de découvrir les règles qui correspondent au bon paramétrage du modèle informationnel. Une phase d’industrialisation est réalisée au sein d'une usine de fabrication de semi-conducteurs et les résultats obtenus sont présentés. La deuxième contribution concerne l’impact des données dans la perspective fonctionnelle d’un processus métier, qui limite l’utilisation de méthodes classiques de vérification. Ainsi, nous proposons une approche qui combine la simulation à événements discrets et le model-checking. La simulation permet de tirer profit des connaissances des experts dans le but d’identifier un sous-ensemble d’états où une propriété donnée est plus susceptible d’être insatisfaite permettant au model-checking de se concentrer sur ce sous-ensemble. L’approche est testée et validée sur un modèle de réseaux sur puces
Today, business processes have a central place in organizations and the question of their reliability has attracted increasing attention from both industry and the scientific community. Indeed, an error or malfunction in production models can seriously weaken companies. This risk is amplified by the growing importance of process automation and computerization. Thus, this thesis focuses on issues related to the verification and validation of processes and production models of a manufacturing plant. To meet these needs, two approaches have been proposed in this thesis. The first one aims at improving the informational model of production processes through an approach based on machine learning to discover the rules that correspond to the right configuration of the informational model. An industrialization phase is carried out in a semiconductor manufacturing plant and the results obtained are presented. The second contribution concerns the impact of data in the functional perspective of a business process, which limits the use of traditional verification methods. Thus, we propose an approach that combines discrete-event simulation and model-checking. Simulation allows taking advantage of experts' knowledge in order to identify a subset of states where a given property is more likely to be unsatisfied, allowing model-checking to focus on this subset. The approach is tested and validated on a network on-chip model
APA, Harvard, Vancouver, ISO, and other styles
13

Azouz, Nesrine. "Approches intelligentes pour le pilotage adaptatif des systèmes en flux tirés dans le contexte de l'industrie 4.0." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC028/document.

Full text
Abstract:
De nos jours, de nombreux systèmes de production sont gérés en flux « tirés » et utilisent des méthodes basées sur des « cartes », comme : Kanban, ConWIP, COBACABANA, etc. Malgré leur simplicité et leur efficacité, ces méthodes ne sont pas adaptées lorsque la production n’est pas stable et que la demande du client varie. Dans de tels cas, les systèmes de production doivent donc adapter la tension de leur flux tout au long du processus de fabrication. Pour ce faire, il faut déterminer comment ajuster dynamiquement le nombre de cartes (ou de ‘e-card’) en fonction du contexte. Malheureusement, ces décisions sont complexes et difficiles à prendre en temps réel. De plus, dans certains cas, changer trop souvent le nombre de cartes kanban peut perturber la production et engendrer un problème de nervosité. Les opportunités offertes par l’industrie 4.0 peuvent être exploitées pour définir des stratégies intelligentes de pilotage de flux permettant d’adapter dynamiquement ce nombre de cartes kanban.Dans cette thèse, nous proposons, dans un premier temps, une approche adaptative basée sur la simulation et l'optimisation multi-objectif, capable de prendre en considération le problème de la nervosité et de décider de manière autonome (ou d'aider les gestionnaires) quand et où ajouter ou retirer des cartes Kanban. Dans un deuxième temps, nous proposons une nouvelle approche adaptative et intelligente basée sur un réseau de neurones dont l’apprentissage est d’abord réalisé hors ligne à l’aide d’un modèle numérique jumeau (simulation), exploité par une optimisation multi-objectif. Après l’apprentissage, le réseau de neurones permet de décider en temps réel, quand et à quelle étape de fabrication il est pertinent de changer le nombre de cartes kanban. Des comparaisons faites avec les meilleures méthodes publiées dans la littérature montrent de meilleurs résultats avec des changements moins fréquents
Today, many production systems are managed in "pull" control system and used "card-based" methods such as: Kanban, ConWIP, COBACABANA, etc. Despite their simplicity and efficiency, these methods are not suitable when production is not stable and customer demand varies. In such cases, the production systems must therefore adapt the “tightness” of their production flow throughout the manufacturing process. To do this, we must determine how to dynamically adjust the number of cards (or e-card) depending on the context. Unfortunately, these decisions are complex and difficult to make in real time. In addition, in some cases, changing too often the number of kanban cards can disrupt production and cause a nervousness problem. The opportunities offered by Industry 4.0 can be exploited to define smart flow control strategies to dynamically adapt this number of kanban cards.In this thesis, we propose, firstly, an adaptive approach based on simulation and multi-objective optimization technique, able to take into account the problem of nervousness and to decide autonomously (or to help managers) when and where adding or removing Kanban cards. Then, we propose a new adaptive and intelligent approach based on a neural network whose learning is first realized offline using a twin digital model (simulation) and exploited by a multi-objective optimization method. Then, the neural network could be able to decide in real time, when and at which manufacturing stage it is relevant to change the number of kanban cards. Comparisons made with the best methods published in the literature show better results with less frequent changes
APA, Harvard, Vancouver, ISO, and other styles
14

Pomot, Lucas. "Métamatériaux sismiques : transformation géométrique, homogénéisation et approche expérimentale." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0406.

Full text
Abstract:
Dans un premier temps nous nous consacrerons à l'étude des métamatériaux créés par transformation géométrique pour le cas de l'équation de Helmholtz. C'est le cas de figure le plus étudié jusqu'à présent avec de nombreux résultats théoriques validés. Nous présenterons ici une méthode générale combinant théorie de l'homogénéisation et algorithme génétique permettant de déterminer les paramètres géométrique et physique de la cellule élémentaire qui sera utilisée pour approximer les propriétés du matériau transformé. Le deuxième chapitre de ce manuscrit sera dédié à l'étude de l'équation de Kirchhoff - Love. Cette équation a successivement été présentée comme invariante puis non invariante par transformation géométrique. Le dernier résultat démontrant son caractère non invariant comporte néanmoins quelques incohérences sur le plan énergétique. Nous reviendrons sur ce point et nous proposerons une approche énergétique qui s'affranchit de ces problèmes d'incohérence. Enfin, nous nous intéresserons aux métamatériaux sismiques via une approche expérimentale. En utilisant des instruments de mesures de dernière génération nous sommes parvenus à explorer en laboratoire un nouveau type d'interaction entre des ondes de surface se propageant dans un substrat rocheux en présence d'un réseau de tiges en métal en surface. Cette expérience suggère la possibilité de filtrer des ondes sismiques à grande échelle en terrains durs
First a general process is proposed to experimentally design anisotropic inhomogeneous metamaterials obtained through a change of coordinate in the Helmholtz equation. The method is applied to the case of a cylindrical transformation that allows to perform cloaking. To approximate such complex metamaterials we apply results of the theory of homogenization and combine them with a genetic algorithm. To illustrate the power of our approach, we design three types of cloaks composed of isotropic concentric layers structured with three types of perforations: curved rectangles, split rings and crosses. These cloaks have parameters compatible with existing technology and they mimic the behavior of the transformed material.Then we focus on elastic waves, espcially plate waves. Controlling elastic waves in plates is a major challenge previously addressed without energy considerations. We propose an energy approach for the design of plate cloaks, which prevents any unphysical features. Within this framework, it is shown that the Kirchhoff-Love equation for anisotropic heterogeneous plates is form invariant for a class of transformations with a vanishing Hessian. This formalism is detailed and numerically validated with three-dimensional simulations in the time domain. Finally we performed a lab scale experiment studying the interaction between surface wave propagating in rock and a network of resonators made of aluminium rod. Using high precision mesurement methods we managed to give new insights on this type of interactions
APA, Harvard, Vancouver, ISO, and other styles
15

Lesieur, Thibault. "Factorisation matricielle et tensorielle par une approche issue de la physique statistique." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS345/document.

Full text
Abstract:
Dans cette thèse, je présente des résultats sur la factorisation de matrice et de tenseur. Les matrices étant un objet omniprésent en mathématique, un grand nombre de problèmes d'apprentissage machine peuvent être transcrits en un problème de factorisation de matrice de petit rang. C'est une des méthodes les plus basiques utilisée dans les méthodes d'apprentissage non supervisé et les problèmes de réduction dimensionnelle. Les résultats présentés dans cette thèse ont pour la plupart déjà été inclus dans des publications antérieures [LKZ 2015]. Le problème de la factorisation de matrice de petit rang devient de plus en plus difficile quand on rajoute des contraintes additionnelles, comme par exemple la positivité d'un des facteurs. Nous présentons ici un cadre dans lequel analyser ce problème sous un angle Bayésien où les priors sur les facteurs peuvent être génériques et où l'output channel à travers duquel la matrice est observée peut être générique aussi. Nous tracerons un parallèle entre le problème de factorisation matricielle et les problèmes de verre de spin vectoriel. Ce cadre permet d'aborder d'une façon unifiée des problèmes qui étaient abordés de façon séparée dans des publications précédentes. Nous dérivons en détail la forme générale des équations de Low-rank Approximate Message Passing (Low-RAMP) ce qui donnera un algorithme de factorisation. Ces équations sont connues en physique statistique sous le nom des équations TAP. Nous dérivons ces équations dans différents cas, pour le modèle de Sherrington-Kirkpatrick, les restricted Boltzmann machine, le modèle de Hopfield ou encore le modèle xy. La dynamique des équations Low-RAMP peut être analysée en utilisant les équations de State Evolution; ces équations sont équivalentes à un calcul des répliques symétriques. Dans la section dévolue aux résultats nous étudierons de nombreux diagrammes de phase et transition de phase dans le cas Bayes-optimale. Nous présenterons différentes typologies de diagrammes de phase et leurs interprétations en terme de performances algorithmiques
In this thesis we present the result on low rank matrix and tensor factorization. Matrices being such an ubiquitous mathematical object a lot of machine learning can be mapped to a low-rank matrix factorization problem. It is for example one of the basic methods used in data analysis for unsupervised learning of relevant features and other types of dimensionality reduction. The result presented in this thesis have been included in previous work [LKZ 201].The problem of low rank matrix becomes harder once one adds constraint to the problem like for instance the positivity of one of the factor of the factorization. We present a framework to study the constrained low-rank matrix estimation for a general prior on the factors, and a general output channel through which the matrix is observed. We draw a paralel with the study of vector-spin glass models -- presenting a unifying way to study a number of problems considered previously in separate statistical physics works. We present a number of applications for the problem in data analysis. We derive in detail ageneral form of the low-rank approximate message passing (Low-RAMP) algorithm that is known in statistical physics as the TAP equations. We thus unify the derivation of the TAP equations for models as different as the Sherrington-Kirkpatrick model, the restricted Boltzmann machine, the Hopfield model or vector (xy, Heisenberg and other) spin glasses. The state evolution of the Low-RAMP algorithm is also derived, and is equivalent to the replica symmetric solution for the large class of vector-spin glass models. In the section devoted to result we study in detail phase diagrams and phase transitions for the Bayes-optimal inference in low-rank matrix estimation. We present a typology of phase transitions and their relation to performance of algorithms such as the Low-RAMP or commonly used spectral methods
APA, Harvard, Vancouver, ISO, and other styles
16

Gordaliza, Pastor Paula. "Fair learning : une approche basée sur le transport optimale." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30084.

Full text
Abstract:
L'objectif de cette thèse est double. D'une part, les méthodes de transport optimal sont étudiées pour l'inférence statistique. D'autre part, le récent problème de l'apprentissage équitable est considéré avec des contributions à travers le prisme de la théorie du transport optimal. L'utilisation généralisée des applications basées sur les modèles d'apprentissage automatique dans la vie quotidienne et le monde professionnel s'est accompagnée de préoccupations quant aux questions éthiques qui peuvent découler de l'adoption de ces technologies. Dans la première partie de cette thèse, nous motivons le problème de l'équité en présentant quelques résultats statistiques complets en étudiant le critère statistical parity par l'analyse de l'indice disparate impact sur l'ensemble de données réel Adult income. Il est important de noter que nous montrons qu'il peut être particulièrement difficile de créer des modèles d'apprentissage machine équitables, surtout lorsque les observations de formation contiennent des biais. Ensuite, une revue des mathématiques pour l'équité dans l'apprentissage machine est donné dans un cadre général, avec également quelques contributions nouvelles dans l'analyse du prix pour l'équité dans la régression et la classification. Dans cette dernière, nous terminons cette première partie en reformulant les liens entre l'équité et la prévisibilité en termes de mesures de probabilité. Nous analysons les méthodes de réparation basées sur le transport de distributions conditionnelles vers le barycentre de Wasserstein. Enfin, nous proposons le random repair qui permet de trouver un compromis entre une perte minimale d'information et un certain degré d'équité. La deuxième partie est dédiée à la théorie asymptotique du coût de transport empirique. Nous fournissons un Théorème de Limite Centrale pour la distance de Monge-Kantorovich entre deux distributions empiriques de tailles différentes n et m, Wp(Pn,Qm), p > = 1, avec observations sur R. Dans le cas de p > 1, nos hypothèses sont nettes en termes de moments et de régularité. Nous prouvons des résultats portant sur le choix des constantes de centrage. Nous fournissons une estimation consistente de la variance asymptotique qui permet de construire tests à deux échantillons et des intervalles de confiance pour certifier la similarité entre deux distributions. Ceux-ci sont ensuite utilisés pour évaluer un nouveau critère d'équité de l'ensemble des données dans la classification. En outre, nous fournissons un principe de déviations modérées pour le coût de transport empirique dans la dimension générale. Enfin, les barycentres de Wasserstein et le critère de variance en termes de la distance de Wasserstein sont utilisés dans de nombreux problèmes pour analyser l'homogénéité des ensembles de distributions et les relations structurelles entre les observations. Nous proposons l'estimation des quantiles du processus empirique de la variation de Wasserstein en utilisant une procédure bootstrap. Ensuite, nous utilisons ces résultats pour l'inférence statistique sur un modèle d'enregistrement de distribution avec des fonctions de déformation générale. Les tests sont basés sur la variance des distributions par rapport à leurs barycentres de Wasserstein pour lesquels nous prouvons les théorèmes de limite centrale, y compris les versions bootstrap
The aim of this thesis is two-fold. On the one hand, optimal transportation methods are studied for statistical inference purposes. On the other hand, the recent problem of fair learning is addressed through the prism of optimal transport theory. The generalization of applications based on machine learning models in the everyday life and the professional world has been accompanied by concerns about the ethical issues that may arise from the adoption of these technologies. In the first part of the thesis, we motivate the fairness problem by presenting some comprehensive results from the study of the statistical parity criterion through the analysis of the disparate impact index on the real and well-known Adult Income dataset. Importantly, we show that trying to make fair machine learning models may be a particularly challenging task, especially when the training observations contain bias. Then a review of Mathematics for fairness in machine learning is given in a general setting, with some novel contributions in the analysis of the price for fairness in regression and classification. In the latter, we finish this first part by recasting the links between fairness and predictability in terms of probability metrics. We analyze repair methods based on mapping conditional distributions to the Wasserstein barycenter. Finally, we propose a random repair which yields a tradeoff between minimal information loss and a certain amount of fairness. The second part is devoted to the asymptotic theory of the empirical transportation cost. We provide a Central Limit Theorem for the Monge-Kantorovich distance between two empirical distributions with different sizes n and m, Wp(Pn,Qm), p > = 1, for observations on R. In the case p > 1 our assumptions are sharp in terms of moments and smoothness. We prove results dealing with the choice of centering constants. We provide a consistent estimate of the asymptotic variance which enables to build two sample tests and confidence intervals to certify the similarity between two distributions. These are then used to assess a new criterion of data set fairness in classification. Additionally, we provide a moderate deviation principle for the empirical transportation cost in general dimension. Finally, Wasserstein barycenters and variance-like criterion using Wasserstein distance are used in many problems to analyze the homogeneity of collections of distributions and structural relationships between the observations. We propose the estimation of the quantiles of the empirical process of the Wasserstein's variation using a bootstrap procedure. Then we use these results for statistical inference on a distribution registration model for general deformation functions. The tests are based on the variance of the distributions with respect to their Wasserstein's barycenters for which we prove central limit theorems, including bootstrap versions
APA, Harvard, Vancouver, ISO, and other styles
17

Jarry, Gabriel. "Analyse et détection des trajectoires d'approches atypiques des aéronefs à l'aide de l'analyse de données fonctionnelles et de l'apprentissage automatique." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30284.

Full text
Abstract:
L'amélioration de la sécurité aérienne implique généralement l'identification, la détection et la gestion des événements indésirables qui peuvent conduire à des événements finaux mortels. De précédentes études menées par la DSAC, l'autorité de surveillance française, ont permis d'identifier les approches non-conformes présentant des déviations par rapport aux procédures standards comme des événements indésirables. Cette thèse vise à explorer les techniques de l'analyse de données fonctionnelles et d'apprentissage automatique afin de fournir des algorithmes permettant la détection et l'analyse de trajectoires atypiques en approche à partir de données sol. Quatre axes de recherche sont abordés. Le premier axe vise à développer un algorithme d'analyse post-opérationnel basé sur des techniques d'analyse de données fonctionnelles et d'apprentissage non-supervisé pour la détection de comportements atypiques en approche. Le modèle sera confronté à l'analyse des bureaux de sécurité des vols des compagnies aériennes, et sera appliqué dans le contexte particulier de la période COVID-19 pour illustrer son utilisation potentielle alors que le système global ATM est confronté à une crise. Le deuxième axe de recherche s'intéresse plus particulièrement à la génération et à l'extraction d'informations à partir de données radar à l'aide de nouvelles techniques telles que l'apprentissage automatique. Ces méthodologies permettent d'améliorer la compréhension et l'analyse des trajectoires, par exemple dans le cas de l'estimation des paramètres embarqués à partir des paramètres radar. Le troisième axe, propose de nouvelles techniques de manipulation et de génération de données en utilisant le cadre de l'analyse de données fonctionnelles. Enfin, le quatrième axe se concentre sur l'extension en temps réel de l'algorithme post-opérationnel grâce à l'utilisation de techniques de contrôle optimal, donnant des pistes vers de nouveaux systèmes d'alerte permettant une meilleure conscience de la situation
Improving aviation safety generally involves identifying, detecting and managing undesirable events that can lead to final events with fatalities. Previous studies conducted by the French National Supervisory Authority have led to the identification of non-compliant approaches presenting deviation from standard procedures as undesirable events. This thesis aims to explore functional data analysis and machine learning techniques in order to provide algorithms for the detection and analysis of atypical trajectories in approach from ground side. Four research directions are being investigated. The first axis aims to develop a post-op analysis algorithm based on functional data analysis techniques and unsupervised learning for the detection of atypical behaviours in approach. The model is confronted with the analysis of airline flight safety offices, and is applied in the particular context of the COVID-19 crisis to illustrate its potential use while the global ATM system is facing a standstill. The second axis of research addresses the generation and extraction of information from radar data using new techniques such as Machine Learning. These methodologies allow to \mbox{improve} the understanding and the analysis of trajectories, for example in the case of the estimation of on-board parameters from radar parameters. The third axis proposes novel data manipulation and generation techniques using the functional data analysis framework. Finally, the fourth axis focuses on extending the post-operational algorithm into real time with the use of optimal control techniques, giving directions to new situation awareness alerting systems
APA, Harvard, Vancouver, ISO, and other styles
18

Bardolle, Frédéric. "Modélisation des hydrosystèmes par approche systémique." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAH006/document.

Full text
Abstract:
Dans l'état actuel des connaissances, il est impossible de poser correctement toute la physique permettant de modéliser les hydrosystèmes dans leur ensemble, notamment à cause de la dynamique très contrastée des différents compartiments. Les modèles systémiques simplifient la représentation des hydrosystèmes en ne considérant que leurs flux d’échange. L’objet de ce travail est de proposer un outil de modélisation systémique fournissant des informations sur le fonctionnement physique des hydrosystèmes, tout en étant simple et parcimonieux. Ce modèle nommé MASH (pour Modélisation des Hydrosystèmes par Approche Systémique) est basé sur l’utilisation de fonctions de transfert paramétriques choisies en fonction de leur faible paramétrisation, leur caractère général et leur interprétation physique. Il est versatile, dans le sens que son architecture est modulable et que le nombre d’entrées, le nombre de fonctions de transfert en série et le type de fonctions de transfert utilisé est laissée à la discrétion de l’utilisateur. Ce modèle est inversé en utilisant de récentes avancées en apprentissage automatique grâce à une famille d’heuristiques basée sur l’intelligence en essaim nommé « optimisation par essaim de particule » (ou PSO pour « Particle Swarm Optimization »). Le modèle et ses algorithmes d’inversion sont testés sur un cas d’école synthétique, puis sur un cas d’application réel
In the light of current knowledge, hydrosystems cannot be modelled as a whole since underlying physical principles are not totally understood. Systemic models simplify hydrosystem representation by considering only water flows. The aim of this work is to provide a systemic modelling tool giving information about hydrosystem physical behavior while being simple and parsimonious. This model, called HMSA (for Hydrosystem Modelling with a Systemic Approach) is based on parametric transfer functions chose for their low parametrization, their general nature and their physical interpretation. It is versatile, since its architecture is modular, and the user can choose the number of inputs, outputs and transfer functions. Inversion is done with recent machine learning heuristic family, based on swarm intelligence called PSO (Particle Swarm Optimization). The model and its inversion algorithms are tested first with a textbook case, and then with a real-world case
APA, Harvard, Vancouver, ISO, and other styles
19

Darmet, Ludovic. "Vers une approche basée modèle-image flexible et adaptative en criminalistique des images." Thesis, Université Grenoble Alpes, 2020. https://tel.archives-ouvertes.fr/tel-03086427.

Full text
Abstract:
Les images numériques sont devenues un moyen de communication standard et universel. Elles prennent place dans notre vie de tous les jours, ce qui entraîne directement des inquiétudes quant à leur intégrité. Nos travaux de recherche étudient différentes méthodes pour examiner l’authenticité d’une image numérique. Nous nous plaçons dans un contexte réaliste où les images sont en grandes quantités et avec une large diversité de manipulations et falsifications ainsi que de sources. Cela nous a poussé à développer des méthodes flexibles et adaptative face à cette diversité.Nous nous sommes en premier lieu intéressés à la détection de manipulations à l’aide de la modélisation statistiques des images. Les manipulations sont des opérations élémentaires telles qu’un flou, l’ajout de bruit ou une compression. Dans ce cadre, nous nous sommes plus particulièrement focalisés sur les effets d’un pré-traitement. A cause de limitations de stockage et autres, une image peut être re-dimensionnée ou re-compressée juste après sa capture. L’ajout d’une manipulation se fait donc ensuite sur une image déjà pré-traitée. Nous montrons qu’un pré-redimensionnement pour les images de test induit une chute de performance pour des détecteurs entraînés avec des images en pleine taille. Partant de ce constat, nous introduisons deux nouvelles méthodes pour mitiger cette chute de performance pour des détecteurs basés sur l’utilisation de mixtures de gaussiennes. Ces détecteurs modélisent les statistiques locales, sur des tuiles (patches), d’images naturelles. Cela nous permet de proposer une adaptation de modèle guidée par les changements dans les statistiques locales de l’image. Notre première méthode est une adaptation entièrement non-supervisée, alors que la seconde requière l’accès à quelques labels, faiblement supervisé, pour les images pré-resizées.Ensuite, nous nous sommes tournés vers la détection de falsifications et plus spécifiquement l’identification de copier-coller. Le copier-coller est l’une des falsification les plus populaires. Une zone source est copiée vers une zone cible de la même image. La grande majorité des détecteurs existants identifient indifféremment les deux zones (source et cible). Dans un scénario opérationnel, seulement la zone cible est intéressante car uniquement elle représente une zone de falsification. Ainsi, nous proposons une méthode pour discerner les deux zones. Notre méthode utilise également la modélisation locale des statistiques de l’image à l’aide de mixtures de gaussiennes. La procédure est spécifique à chaque image et ainsi évite la nécessité d’avoir recours à de larges bases d’entraînement et permet une plus grande flexibilité.Des résultats expérimentaux pour toutes les méthodes précédemment décrites sont présentés sur des benchmarks classiques de la littérature et comparés aux méthodes de l’état de l’art. Nous montrons que le détecteur classique de détection de manipulations basé sur les mixtures de gaussiennes, associé à nos nouvelles méthodes d’adaptation de modèle peut surpasser les résultats de récentes méthodes deep-learning. Notre méthode de discernement entre source/cible pour copier-coller égale ou même surpasse les performances des dernières méthodes d’apprentissage profond. Nous expliquons ces bons résultats des méthodes classiques face aux méthodes d’apprentissage profond par la flexibilité et l’adaptabilité supplémentaire dont elles font preuve.Pour finir, cette thèse s’est déroulée dans le contexte très spécial d’un concours organisé conjointement par l’Agence National de la Recherche et la Direction Général de l’Armement. Nous décrivons dans un appendice, les différents tours de ce concours et les méthodes que nous avons développé. Nous dressons également un bilan des enseignements de cette expérience qui avait pour but de passer de benchmarks publics à une détection de falsifications d’images très réalistes
Images are nowadays a standard and mature medium of communication.They appear in our day to day life and therefore they are subject to concernsabout security. In this work, we study different methods to assess theintegrity of images. Because of a context of high volume and versatilityof tampering techniques and image sources, our work is driven by the necessity to developflexible methods to adapt the diversity of images.We first focus on manipulations detection through statistical modeling ofthe images. Manipulations are elementary operations such as blurring,noise addition, or compression. In this context, we are more preciselyinterested in the effects of pre-processing. Because of storagelimitation or other reasons, images can be resized or compressed justafter their capture. Addition of a manipulation would then be applied on analready pre-processed image. We show that a pre-resizing of test datainduces a drop of performance for detectors trained on full-sized images.Based on these observations, we introduce two methods to counterbalancethis performance loss for a pipeline of classification based onGaussian Mixture Models. This pipeline models the local statistics, onpatches, of natural images. It allows us to propose adaptation of themodels driven by the changes in local statistics. Our first method ofadaptation is fully unsupervised while the second one, only requiring a fewlabels, is weakly supervised. Thus, our methods are flexible to adaptversatility of source of images.Then we move to falsification detection and more precisely to copy-moveidentification. Copy-move is one of the most common image tampering technique. Asource area is copied into a target area within the same image. The vastmajority of existing detectors identify indifferently the two zones(source and target). In an operational scenario, only the target arearepresents a tampering area and is thus an area of interest. Accordingly, wepropose a method to disentangle the two zones. Our method takesadvantage of local modeling of statistics in natural images withGaussian Mixture Model. The procedure is specific for each image toavoid the necessity of using a large training dataset and to increase flexibility.Results for all the techniques described above are illustrated on publicbenchmarks and compared to state of the art methods. We show that theclassical pipeline for manipulations detection with Gaussian MixtureModel and adaptation procedure can surpass results of fine-tuned andrecent deep-learning methods. Our method for source/target disentanglingin copy-move also matches or even surpasses performances of the latestdeep-learning methods. We explain the good results of these classicalmethods against deep-learning by their additional flexibility andadaptation abilities.Finally, this thesis has occurred in the special context of a contestjointly organized by the French National Research Agency and theGeneral Directorate of Armament. We describe in the Appendix thedifferent stages of the contest and the methods we have developed, as well asthe lessons we have learned from this experience to move the image forensics domain into the wild
APA, Harvard, Vancouver, ISO, and other styles
20

Sayadi, Karim. "Classification du texte numérique et numérisé. Approche fondée sur les algorithmes d'apprentissage automatique." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066079/document.

Full text
Abstract:
Différentes disciplines des sciences humaines telles la philologie ou la paléographie font face à des tâches complexes et fastidieuses pour l'examen des sources de données. La proposition d'approches computationnelles en humanités permet d'adresser les problématiques rencontrées telles que la lecture, l'analyse et l'archivage de façon systématique. Les modèles conceptuels élaborés reposent sur des algorithmes et ces derniers donnent lieu à des implémentations informatiques qui automatisent ces tâches fastidieuses. La première partie de la thèse vise, d'une part, à établir la structuration thématique d'un corpus, en construisant des espaces sémantiques de grande dimension. D'autre part, elle vise au suivi dynamique des thématiques qui constitue un réel défi scientifique, notamment en raison du passage à l'échelle. La seconde partie de la thèse traite de manière holistique la page d'un document numérisé sans aucune intervention préalable. Le but est d'apprendre automatiquement des représentations du trait de l'écriture ou du tracé d'un certain script par rapport au tracé d'un autre script. Il faut dans ce cadre tenir compte de l'environnement où se trouve le tracé : image, artefact, bruits dus à la détérioration de la qualité du papier, etc. Notre approche propose un empilement de réseaux de neurones auto-encodeurs afin de fournir une représentation alternative des données reçues en entrée
Different disciplines in the humanities, such as philology or palaeography, face complex and time-consuming tasks whenever it comes to examining the data sources. The introduction of computational approaches in humanities makes it possible to address issues such as semantic analysis and systematic archiving. The conceptual models developed are based on algorithms that are later hard coded in order to automate these tedious tasks. In the first part of the thesis we propose a novel method to build a semantic space based on topics modeling. In the second part and in order to classify historical documents according to their script. We propose a novel representation learning method based on stacking convolutional auto-encoder. The goal is to automatically learn plot representations of the script or the written language
APA, Harvard, Vancouver, ISO, and other styles
21

Trullo, Ramirez Roger. "Approche basées sur l'apprentissage en profondeur pour la segmentation des organes à risques dans les tomodensitométries thoraciques." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMR063.

Full text
Abstract:
La radiothérapie est un traitement de choix pour le cancer thoracique, l’une des principales causes de décès dans le monde. La planification de la radiothérapie nécessite de contourer non seulement la tumeur, mais également les organes à risque (OAR) situés près de la tumeur dans le thorax, tels que le coeur, les poumons, l’oesophage, etc. Cette segmentation permet de minimiser la quantité d’irradiation reçue pendant le traitement. Aujourd’hui, la segmentation de OAR est réalisée principalement manuellement par des cliniciens sur des images scanner (CT), malgré une prise en charge logicielle partielle. C’est une tâche complexe, sujette à la variabilité intra et interobservateur. Dans ce travail, nous présentons plusieurs méthodologies utilisant des techniques d’apprentissage profond pour segmenter automatiquement le coeur, la trachée, l’aorte et l’oesophage. En particulier, l’oesophage est particulièrement difficile à segmenter, en raison de l’absence de contraste et de variabilité de forme entre différents patients. Les réseaux profonds convolutionnels offrent aujourd’hui des performances de pointe en matière desegmentation sémantique, nous montrons d’abord comment un type spécifique d’architecture basée sur des skip connections peut améliorer la précision des résultats, par rapport à un réseau pleinement convolutionnel (FCN) standard. Dans une deuxième contribution, nous avons intégré des informations de contexte spatial au processus de segmentation, par le biais de réseaux collaboratifs, permettant les segmentations de chaque organe individuellement. Troisièmement, nous proposons une représentation différente des données, basée sur une carte de distance, utilisée en conjointement avec des réseaux adversariaux (GAN), comme un autre moyen de contraindre le contexte anatomique. Les méthodes proposées ont été évaluées sur une base d’images scanner de 60 patients. Les résultats montrent des résultats encourageants pour l’application clinique et souligne le potentiel des méthodes prenant en compte le contexte spatial dans la segmentation
Radiotherapy is one of the options for treatment currently available for patients affected by cancer, one of the leading cause of deaths worldwide. Before radiotherapy, organs at risk (OAR) located near the target tumor, such as the heart, the lungs, the esophagus, etc. in thoracic cancer, must be outlined, in order to minimize the quantity of irradiation that they receive during treatment. Today, segmentation of the OAR is performed mainly manually by clinicians on Computed Tomography (CT) images, despite some partial software support. It is a tedious task, prone to intra and inter-observer variability. In this work, we present several frameworks using deep learning techniques to automatically segment the heart, trachea, aorta and esophagus. In particular, the esophagus is notably challenging to segment, due to the lack of surrounding contrast and shape variability across different patients. As deep networks and in particular fully convolutional networks offer now state of the art performance for semantic segmentation, we first show how a specific type of architecture based on skip connections can improve the accuracy of the results. As a second contribution, we demonstrate that context information can be of vital importance in the segmentation task, where we propose the use of two collaborative networks. Third, we propose a different, distance aware representation of the data, which is then used in junction with adversarial networks, as another way to constrain the anatomical context. All the proposed methods have been tested on 60 patients with 3D-CT scans, showing good performance compared with other methods
APA, Harvard, Vancouver, ISO, and other styles
22

Castro, Márcio. "Optimisation de la performance des applications de mémoire transactionnelle sur des plates-formes multicoeurs : une approche basée sur l'apprentissage automatique." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM074/document.

Full text
Abstract:
Le concept de processeur multicœurs constitue le facteur dominant pour offrir des hautes performances aux applications parallèles. Afin de développer des applications parallèles capable de tirer profit de ces plate-formes, les développeurs doivent prendre en compte plusieurs aspects, allant de l'architecture aux caractéristiques propres à l'application. Dans ce contexte, la Mémoire Transactionnelle (Transactional Memory – TM) apparaît comme une alternative intéressante à la synchronisation basée sur les verrous pour ces plates-formes. Elle permet aux programmeurs d'écrire du code parallèle encapsulé dans des transactions, offrant des garanties comme l'atomicité et l'isolement. Lors de l'exécution, les opérations sont exécutées spéculativement et les conflits sont résolus par ré-exécution des transactions en conflit. Bien que le modèle de TM ait pour but de simplifier la programmation concurrente, les meilleures performances ne pourront être obtenues que si l'exécutif est capable de s'adapter aux caractéristiques des applications et de la plate-forme. Les contributions de cette thèse concernent l'analyse et l'amélioration des performances des applications basées sur la Mémoire Transactionnelle Logicielle (Software Transactional Memory – STM) pour des plates-formes multicœurs. Dans un premier temps, nous montrons que le modèle de TM et ses performances sont difficiles à analyser. Pour s'attaquer à ce problème, nous proposons un mécanisme de traçage générique et portable qui permet de récupérer des événements spécifiques à la TM afin de mieux analyser les performances des applications. Par exemple, les données tracées peuvent être utilisées pour détecter si l'application présente des points de contention ou si cette contention est répartie sur toute l'exécution. Notre approche peut être utilisée sur différentes applications et systèmes STM sans modifier leurs codes sources. Ensuite, nous abordons l'amélioration des performances des applications sur des plate-formes multicœurs. Nous soulignons que le placement des threads (thread mapping) est très important et peut améliorer considérablement les performances globales obtenues. Pour faire face à la grande diversité des applications, des systèmes STM et des plates-formes, nous proposons une approche basée sur l'Apprentissage Automatique (Machine Learning) pour prédire automatiquement les stratégies de placement de threads appropriées pour les applications de TM. Au cours d'une phase d'apprentissage préliminaire, nous construisons les profiles des applications s'exécutant sur différents systèmes STM pour obtenir un prédicteur. Nous utilisons ensuite ce prédicteur pour placer les threads de façon statique ou dynamique dans un système STM récent. Finalement, nous effectuons une évaluation expérimentale et nous montrons que l'approche statique est suffisamment précise et améliore les performances d'un ensemble d'applications d'un maximum de 18%. En ce qui concerne l'approche dynamique, nous montrons que l'on peut détecter des changements de phase d'exécution des applications composées des diverses charges de travail, en prévoyant une stratégie de placement appropriée pour chaque phase. Sur ces applications, nous avons obtenu des améliorations de performances d'un maximum de 31% par rapport à la meilleure stratégie statique
Multicore processors are now a mainstream approach to deliver higher performance to parallel applications. In order to develop efficient parallel applications for those platforms, developers must take care of several aspects, ranging from the architectural to the application level. In this context, Transactional Memory (TM) appears as a programmer friendly alternative to traditional lock-based concurrency for those platforms. It allows programmers to write parallel code as transactions, which are guaranteed to execute atomically and in isolation regardless of eventual data races. At runtime, transactions are executed speculatively and conflicts are solved by re-executing conflicting transactions. Although TM intends to simplify concurrent programming, the best performance can only be obtained if the underlying runtime system matches the application and platform characteristics. The contributions of this thesis concern the analysis and improvement of the performance of TM applications based on Software Transactional Memory (STM) on multicore platforms. Firstly, we show that the TM model makes the performance analysis of TM applications a daunting task. To tackle this problem, we propose a generic and portable tracing mechanism that gathers specific TM events, allowing us to better understand the performances obtained. The traced data can be used, for instance, to discover if the TM application presents points of contention or if the contention is spread out over the whole execution. Our tracing mechanism can be used with different TM applications and STM systems without any changes in their original source codes. Secondly, we address the performance improvement of TM applications on multicores. We point out that thread mapping is very important for TM applications and it can considerably improve the global performances achieved. To deal with the large diversity of TM applications, STM systems and multicore platforms, we propose an approach based on Machine Learning to automatically predict suitable thread mapping strategies for TM applications. During a prior learning phase, we profile several TM applications running on different STM systems to construct a predictor. We then use the predictor to perform static or dynamic thread mapping in a state-of-the-art STM system, making it transparent to the users. Finally, we perform an experimental evaluation and we show that the static approach is fairly accurate and can improve the performance of a set of TM applications by up to 18%. Concerning the dynamic approach, we show that it can detect different phase changes during the execution of TM applications composed of diverse workloads, predicting thread mappings adapted for each phase. On those applications, we achieve performance improvements of up to 31% in comparison to the best static strategy
APA, Harvard, Vancouver, ISO, and other styles
23

Piette, Eric. "Une nouvelle approche au General Game Playing dirigée par les contraintes." Thesis, Artois, 2016. http://www.theses.fr/2016ARTO0401/document.

Full text
Abstract:
Développer un programme capable de jouer à n’importe quel jeu de stratégie, souvent désigné par le General Game Playing (GGP) constitue un des Graal de l’intelligence artificielle. Les compétitions GGP, où chaque jeu est représenté par un ensemble de règles logiques au travers du Game Description Language (GDL), ont conduit la recherche à confronter de nombreuses approches incluant les méthodes de type Monte Carlo, la construction automatique de fonctions d’évaluation, ou la programmation logique et ASP. De par cette thèse, nous proposons une nouvelle approche dirigée par les contraintes stochastiques.Dans un premier temps, nous nous concentrons sur l’élaboration d’une traduction de GDL en réseauxde contraintes stochastiques (SCSP) dans le but de fournir une représentation dense des jeux de stratégies et permettre la modélisation de stratégies.Par la suite, nous exploitons un fragment de SCSP au travers d’un algorithme dénommé MAC-UCBcombinant l’algorithme MAC (Maintaining Arc Consistency) utilisé pour résoudre chaque niveau duSCSP tour après tour, et à l’aide de UCB (Upper Confidence Bound) afin d’estimer l’utilité de chaquestratégie obtenue par le dernier niveau de chaque séquence. L’efficacité de cette nouvelle technique sur les autres approches GGP est confirmée par WoodStock, implémentant MAC-UCB, le leader actuel du tournoi continu de GGP.Finalement, dans une dernière partie, nous proposons une approche alternative à la détection de symétries dans les jeux stochastiques, inspirée de la programmation par contraintes. Nous montrons expérimentalement que cette approche couplée à MAC-UCB, surpasse les meilleures approches du domaine et a permis à WoodStock de devenir champion GGP 2016
The ability for a computer program to effectively play any strategic game, often referred to General Game Playing (GGP), is a key challenge in AI. The GGP competitions, where any game is represented according to a set of logical rules in the Game Description Language (GDL), have led researches to compare various approaches, including Monte Carlo methods, automatic constructions of evaluation functions, logic programming, and answer set programming through some general game players. In this thesis, we offer a new approach driven by stochastic constraints. We first focus on a translation process from GDL to stochastic constraint networks (SCSP) in order to provide compact representations of strategic games and to model strategies. In a second part, we exploit a fragment of SCSP through an algorithm called MAC-UCB by coupling the MAC (Maintaining Arc Consistency) algorithm, used to solve each stage of the SCSP in turn, together with the UCB (Upper Confidence Bound) policy for approximating the values of those strategies obtained by the last stage in the sequence. The efficiency of this technical on the others GGP approaches is confirmed by WoodStock, implementing MAC-UCB, the actual leader on the GGP Continuous Tournament. Finally, in the last part, we propose an alternative approach to symmetry detection in stochastic games, inspired from constraint programming techniques. We demonstrate experimentally that MAC-UCB, coupled with our constranit-based symmetry detection approach, significantly outperforms the best approaches and made WoodStock the GGP champion 2016
APA, Harvard, Vancouver, ISO, and other styles
24

Boisbunon, Aurélie. "Sélection de modèle : une approche décisionnelle." Phd thesis, Université de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00793898.

Full text
Abstract:
Cette thèse s'articule autour de la problématique de la sélection de modèle, étudiée dans le contexte de la régression linéaire. L'objectif est de déterminer le meilleur modèle de prédiction à partir de données mesurées, c'est-à-dire le modèle réalisant le meilleur compromis entre attache aux données et complexité du modèle. La contribution principale consiste en la dérivation de critères d'évaluation de modèles basés sur des techniques de théorie de la décision, plus précisément l'estimation de coût. Ces critères reposent sur une hypothèse distributionnelle plus large que l'hypothèse classique gaussienne avec indépendance entre les observations : la famille des lois à symétrie sphérique. Cette famille nous permet à la fois de nous affranchir de l'hypothèse d'indépendance et d'ajouter une plus grande robustesse puisque nos critères ne dépendent pas de la forme spécifique de la distribution. Nous proposons également une méthode de comparaison des critères dérivés au travers d'une mesure de type Erreur quadratique (MSE), qui permet de déterminer si un critère d'évaluation de modèle est meilleur qu'un autre. La seconde contribution attaque le problème de la construction des différents modèles comparés. Les collections de modèles considérées sont celles issues des méthodes de régularisation parcimonieuses, de type Lasso. En particulier, nous nous sommes intéressés à la Pénalité Concave Minimax (MCP), qui garde la sélection du Lasso tout en corrigeant son biais d'estimation. Cette pénalité correspond cependant à un problème non différentiable et non convexe. La généralisation des outils habituels de sous-différentielles grâce aux différentielles de Clarke a permis de déterminer les conditions d'optimalité et de développer un algorithme de chemin de régularisation pour le MCP. Enfin, nous comparons nos propositions avec celles de la littérature au travers d'une étude numérique, dans laquelle nous vérifions la qualité de la sélection. Les résultats montrent notamment que nos critères obtiennent des performances comparables à ceux de la littérature, et que les critères les plus couramment utilisés en pratique (validation croisée) ne sont pas toujours parmi les plus performants.
APA, Harvard, Vancouver, ISO, and other styles
25

Ribault, Alnour. "Optimisation de la consommation d’énergie d’un entrepôt frigorifique : double approche par la recherche opérationnelle et l’apprentissage automatique." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE2008.

Full text
Abstract:
Les entrepôts frigorifiques en Europe consomment une quantité importante d’énergie afin de maintenir leurs chambres froides à basse température. La méthode de gestion de la production de froid utilisée dans la plupart des entrepôts frigorifiques ne prend pas en compte les variations de prix de l’électricité causées par les besoins fluctuants du réseau électrique, malgré la possibilitéd’utiliser l’inertie thermique des chambres froides ainsi que la cuve de réfrigérant comme des stocks d’énergie. De plus, les compresseurs frigorifiques sont utilisés à des niveaux de production au rendement sous-optimal. Ces pratiques entraînent des surplus de coût et de quantité d’énergie consommée.Dans ces travaux de recherche, deux approches sont proposées pour améliorer le pilotage des entrepôts frigorifiques. La première est basée sur une modélisation mathématique des entrepôts, puis par l’application d’algorithmes d’optimisation afin de générer des planifications de production dont le coût est minimisé. La seconde, basée sur des techniques d’apprentissage automatique,vise à déterminer les meilleures décisions de production en fonction du contexte de production via la prédiction du cout futur engendré par chaque décision de production possible. Ces deux approches sont comparées à la méthode usuelle de pilotage des entrepôts frigorifiques
Cold storage in Europe consume important amounts of energy to maintain cold rooms at low temperatures. The cold production control method most commonly used in cold stores does not account for variations in the price of electricity caused by the fluctuating needs of the electrical network. The thermal inertia of the cold rooms as well as the coolant tank could be used as energy storage. Moreover, the compressors are often used at suboptimal production levels. Those practices lead to extra energy consumption costs.In the present research work, two approaches are proposed to improve the control of cold stores. The first approach is based on the mathematical modelling of the cold stores, and by the application of optimisation algorithms to those models in order to generate energy consumption schedules with minimal cost. The second approach, based on machine learning techniques, aims at establishing the best production decision in a given context by predicting the future cost generated by each possible production decision. These two approaches are compared to the most common control method for cold stores
APA, Harvard, Vancouver, ISO, and other styles
26

Niaf, Émilie. "Aide au diagnostic du cancer de la prostate par IRM multi-paramétrique : une approche par classification supervisée." Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10271/document.

Full text
Abstract:
Le cancer de la prostate est la deuxième cause de mortalité chez l’homme en France. L’IRM multiparamétrique est considérée comme la technique la plus prometteuse pour permettre une cartographie du cancer, ouvrant la voie au traitement focal, alternatif à la prostatectomie radicale. Néanmoins, elle reste difficile à interpréter et est sujette à une forte variabilité inter- et intra-expert, d’où la nécessité de développer des systèmes experts capables d’aider le radiologue dans son diagnostic. Nous proposons un système original d’aide au diagnostic (CAD) offrant un second avis au radiologue sur des zones suspectes pointées sur l’image. Nous évaluons notre système en nous appuyant sur une base de données clinique de 30 patients, annotées de manière fiable et exhaustive grâce à l’analyse des coupes histologiques obtenues par prostatectomie. Les performances mesurées dans des conditions cliniques auprès de 12 radiologues, sans et avec notre outil, démontrent l’apport significatif de ce CAD sur la qualité du diagnostic, la confiance des radiologues et la variabilité inter-expert. La création d’une base de corrélations anatomo-radiologiques est une tâche complexe et fastidieuse. Beaucoup d’études n’ont pas d’autre choix que de s’appuyer sur l’analyse subjective d’un radiologue expert, entâchée d’incertitude. Nous proposons un nouveau schéma de classification, basé sur l’algorithme du séparateur à vaste marge (SVM), capable d’intégrer, dans la fonction d’apprentissage, l’incertitude sur l’appartenance à une classe (ex. sain/malin) de certains échantillons de la base d’entraînement. Les résultats obtenus, tant sur des exemples simulés que sur notre base de données cliniques, démontrent le potentiel de ce nouvel algorithme, en particulier pour les applications CAD, mais aussi de manière plus générale pour toute application de machine learning s’appuyant sur un étiquetage quantitatif des données
Prostate cancer is one of the leading cause of death in France. Multi-parametric MRI is considered the most promising technique for cancer visualisation, opening the way to focal treatments as an alternative to prostatectomy. Nevertheless, its interpretation remains difficult and subject to inter- and intra-observer variability, which motivates the development of expert systems to assist radiologists in making their diagnosis. We propose an original computer-aided diagnosis system returning a malignancy score to any suspicious region outlined on MR images, which can be used as a second view by radiologists. The CAD performances are evaluated based on a clinical database of 30 patients, exhaustively and reliably annotated thanks to the histological ground truth obtained via prostatectomy. Finally, we demonstrate the influence of this system in clinical condition based on a ROC analysis involving 12 radiologists, and show a significant increase of diagnostic accuracy, rating confidence and a decrease in inter-expert variability. Building an anatomo-radiological correlation database is a complex and fastidious task, so that numerous studies base their evaluation analysis on the expertise of one experienced radiologist, which is thus doomed to contain uncertainties. We propose a new classification scheme, based on the support vector machine (SVM) algorithm, which is able to account for uncertain data during the learning step. The results obtained, both on toy examples and on our clinical database, demonstrate the potential of this new approach that can be extended to any machine learning problem relying on a probabilitic labelled dataset
APA, Harvard, Vancouver, ISO, and other styles
27

Jabaian, Bassam. "Systèmes de compréhension et de traduction de la parole : vers une approche unifiée dans le cadre de la portabilité multilingue des systèmes de dialogue." Phd thesis, Université d'Avignon, 2012. http://tel.archives-ouvertes.fr/tel-00818970.

Full text
Abstract:
La généralisation de l'usage des systèmes de dialogue homme-machine accroît la nécessité du développement rapide des différents composants de ces systèmes. Les systèmes de dialogue peuvent être conçus pour différents domaines d'application et dans des langues différentes. La nécessité d'une production rapide pour de nouvelles langues reste un problème ouvert et crucial auquel il est nécessaire d'apporter des solutions efficaces.Nos travaux s'intéressent particulièrement au module de compréhension de la parole et proposent des approches pour la portabilité rapide peu coûteuse de ce module.Les méthodes statistiques ont montré de bonnes performances pour concevoir les modules de compréhension de la parole pour l'étiquetage sémantique de tours de dialogue.Cependant ces méthodes nécessitent de larges corpus pour être apprises. La collecte de ces corpus est aussi coûteuse en temps et en expertise humaine.Dans cette thèse, nous proposons plusieurs approches pour porter un système de compréhension d'une langue vers une autre en utilisant les techniques de la traduction automatique. Les premiers travaux consistent à appliquer la traduction automatique à plusieurs niveaux du processus de portabilité du système de compréhension afin de réduire le coût lié à production de nouvelles données d'apprentissage. Les résultats expérimentaux montrent que l'utilisation de la traduction automatique permet d'obtenir des systèmes performant avec un minimum de contribution humaine.Cette thèse traite donc à la fois de la traduction automatique et de la compréhension de la parole. Nous avons effectué une comparaison approfondie entre les méthodes utilisées pour chacune des tâches et nous avons proposé un décodage conjoint basé sur une méthode discriminante qui à la fois traduit une phrase et lui attribue ses étiquettes sémantiques. Ce décodage est obtenu par une approche à base de graphe qui permet de composer un graphe de traduction avec un graphe de compréhension. Cette représentation peut être généralisée pour permettre des transmissions d'informations riches entre les composants du système de dialogue
APA, Harvard, Vancouver, ISO, and other styles
28

Maaloul, Mohamed. "Approche hybride pour le résumé automatique de textes : Application à la langue arabe." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4778.

Full text
Abstract:
Cette thèse s'intègre dans le cadre du traitement automatique du langage naturel. La problématique du résumé automatique de documents arabes qui a été abordée, dans cette thèse, s'est cristallisée autour de deux points. Le premier point concerne les critères utilisés pour décider du contenu essentiel à extraire. Le deuxième point se focalise sur les moyens qui permettent d'exprimer le contenu essentiel extrait sous la forme d'un texte ciblant les besoins potentiels d'un utilisateur. Afin de montrer la faisabilité de notre approche, nous avons développé le système "L.A.E", basé sur une approche hybride qui combine une analyse symbolique avec un traitement numérique. Les résultats d'évaluation de ce système sont encourageants et prouvent la performance de l'approche hybride proposée. Ces résultats, ont montré, en premier lieu, l'applicabilité de l'approche dans le contexte de documents sans restriction quant à leur thème (Éducation, Sport, Science, Politique, Reportage, etc.), leur contenu et leur volume. Ils ont aussi montré l'importance de l'apprentissage dans la phase de classement et sélection des phrases forment l'extrait final
This thesis falls within the framework of Natural Language Processing. The problems of automatic summarization of Arabic documents which was approached, in this thesis, are based on two points. The first point relates to the criteria used to determine the essential content to extract. The second point focuses on the means to express the essential content extracted in the form of a text targeting the user potential needs.In order to show the feasibility of our approach, we developed the "L.A.E" system, based on a hybrid approach which combines a symbolic analysis with a numerical processing.The evaluation results are encouraging and prove the performance of the proposed hybrid approach.These results showed, initially, the applicability of the approach in the context of mono documents without restriction as for their topics (Education, Sport, Science, Politics, Interaction, etc), their content and their volume. They also showed the importance of the machine learning in the phase of classification and selection of the sentences forming the final extract
APA, Harvard, Vancouver, ISO, and other styles
29

Qamar, Ali Mustafa. "Mesures de similarité et cosinus généralisé : une approche d'apprentissage supervisé fondée sur les k plus proches voisins." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM083.

Full text
Abstract:
Les performances des algorithmes d'apprentissage automatique dépendent de la métrique utilisée pour comparer deux objets, et beaucoup de travaux ont montré qu'il était préférable d'apprendre une métrique à partir des données plutôt que se reposer sur une métrique simple fondée sur la matrice identité. Ces résultats ont fourni la base au domaine maintenant qualifié d'apprentissage de métrique. Toutefois, dans ce domaine, la très grande majorité des développements concerne l'apprentissage de distances. Toutefois, dans certaines situations, il est préférable d'utiliser des similarités (par exemple le cosinus) que des distances. Il est donc important, dans ces situations, d'apprendre correctement les métriques à la base des mesures de similarité. Il n'existe pas à notre connaissance de travaux complets sur le sujet, et c'est une des motivations de cette thèse. Dans le cas des systèmes de filtrage d'information où le but est d'affecter un flot de documents à un ou plusieurs thèmes prédéfinis et où peu d'information de supervision est disponible, des seuils peuvent être appris pour améliorer les mesures de similarité standard telles que le cosinus. L'apprentissage de tels seuils représente le premier pas vers un apprentissage complet des mesures de similarité. Nous avons utilisé cette stratégie au cours des campagnes CLEF INFILE 2008 et 2009, en proposant des versions en ligne et batch de nos algorithmes. Cependant, dans le cas où l'on dispose de suffisamment d'information de supervision, comme en catégorisation, il est préférable d'apprendre des métriques complètes, et pas seulement des seuils. Nous avons développé plusieurs algorithmes qui visent à ce but dans le cadre de la catégorisation à base de k plus proches voisins. Nous avons tout d'abord développé un algorithme, SiLA, qui permet d'apprendre des similarités non contraintes (c'est-à-dire que la mesure peut être symétrique ou non). SiLA est une extension du perceptron par vote et permet d'apprendre des similarités qui généralisent le cosinus, ou les coefficients de Dice ou de Jaccard. Nous avons ensuite comparé SiLA avec RELIEF, un algorithme standard de re-pondération d'attributs, dont le but n'est pas sans lien avec l'apprentissage de métrique. En effet, il a récemment été suggéré par Sun et Wu que RELIEF pouvait être considéré comme un algorithme d'apprentissage de métrique avec pour fonction objectif une approximation de la fonction de perte 0-1. Nous montrons ici que cette approximation est relativement mauvaise et peut être avantageusement remplacée par une autre, qui conduit à un algorithme dont les performances sont meilleures. Nous nous sommes enfin intéressés à une extension directe du cosinus, extension définie comme la forme normalisée d'un produit scalaire dans un espace projeté. Ce travail a donné lieu à l'algorithme gCosLA. Nous avons testé tous nos algorithmes sur plusieurs bases de données. Un test statistique, le s-test, est utilisé pour déterminer si les différences entre résultats sont significatives ou non. GCosLA est l'algorithme qui a fourni les meilleurs résultats. De plus, SiLA et gCosLA se comparent avantageusement à plusieurs algorithmes standard, ce qui illustre leur bien fondé
Almost all machine learning problems depend heavily on the metric used. Many works have proved that it is a far better approach to learn the metric structure from the data rather than assuming a simple geometry based on the identity matrix. This has paved the way for a new research theme called metric learning. Most of the works in this domain have based their approaches on distance learning only. However some other works have shown that similarity should be preferred over distance metrics while dealing with textual datasets as well as with non-textual ones. Being able to efficiently learn appropriate similarity measures, as opposed to distances, is thus of high importance for various collections. If several works have partially addressed this problem for different applications, no previous work is known which has fully addressed it in the context of learning similarity metrics for kNN classification. This is exactly the focus of the current study. In the case of information filtering systems where the aim is to filter an incoming stream of documents into a set of predefined topics with little supervision, cosine based category specific thresholds can be learned. Learning such thresholds can be seen as a first step towards learning a complete similarity measure. This strategy was used to develop Online and Batch algorithms for information filtering during the INFILE (Information Filtering) track of the CLEF (Cross Language Evaluation Forum) campaign during the years 2008 and 2009. However, provided enough supervised information is available, as is the case in classification settings, it is usually beneficial to learn a complete metric as opposed to learning thresholds. To this end, we developed numerous algorithms for learning complete similarity metrics for kNN classification. An unconstrained similarity learning algorithm called SiLA is developed in which case the normalization is independent of the similarity matrix. SiLA encompasses, among others, the standard cosine measure, as well as the Dice and Jaccard coefficients. SiLA is an extension of the voted perceptron algorithm and allows to learn different types of similarity functions (based on diagonal, symmetric or asymmetric matrices). We then compare SiLA with RELIEF, a well known feature re-weighting algorithm. It has recently been suggested by Sun and Wu that RELIEF can be seen as a distance metric learning algorithm optimizing a cost function which is an approximation of the 0-1 loss. We show here that this approximation is loose, and propose a stricter version closer to the the 0-1 loss, leading to a new, and better, RELIEF-based algorithm for classification. We then focus on a direct extension of the cosine similarity measure, defined as a normalized scalar product in a projected space. The associated algorithm is called generalized Cosine simiLarity Algorithm (gCosLA). All of the algorithms are tested on many different datasets. A statistical test, the s-test, is employed to assess whether the results are significantly different. GCosLA performed statistically much better than SiLA on many of the datasets. Furthermore, SiLA and gCosLA were compared with many state of the art algorithms, illustrating their well-foundedness
APA, Harvard, Vancouver, ISO, and other styles
30

Kosowska-Stamirowska, Zuzanna. "Évolution et robustesse du réseau maritime mondial : une approche par les systèmes complexes." Thesis, Paris 1, 2020. http://www.theses.fr/2020PA01H022.

Full text
Abstract:
Plus de 70% de la valeur totale du commerce international est acheminée par voie maritime, ce qui représente 80% de la totalité du fret en volume. En 2016, le secrétaire général de l’ONU a attiré l’attention sur le rôle du transport maritime, qu’il décrit comme « l’épine dorsale du commerce mondial et de l’économie mondiale”. Les flux du commerce maritime ont un impact non seulement sur le développement économique des régions concernées, mais également sur leurs écosystèmes. Les navires en mouvement étant notamment un important vecteur de propagation pour les bioinvasions. En parallèle, l’avenir du secteur du transport maritime est inextricablement lié au changement climatique : les mouvements de navires contribuent de manière significative aux émissions mondiales de CO2, de NOx et de SOx, avec des émissions de CO2 comparables à celles de l’Allemagne et des émissions de NOx et de SOx comparables à celles des États-Unis. Le développement de la navigation dans l’Arctique devenant une réalité, la nécessité de comprendre le comportement de ce système et de prévoir les futurs flux du commerce maritime s’impose. Malgré l’importance évidente et cruciale de la logistique maritime pour l’économie mondiale, très peu de travaux fournissent une vue détaillée de la répartition mondiale des flux commerciaux maritimes, et encore moins n’analysent leur évolution sur le long terme et les règles qui les régissent. Dans cette thèse, nous utilisons une base de données unique sur les mouvements quotidiens de la flotte mondiale entre 1977 et 2008, fournie par l’assureur maritime Lloyd’s, afin de constituer un réseau complexe des flux du commerce maritime où les ports représentent les nœuds et les liens sont créés par les traversées de navires. Dans cette thèse, nous effectuons une analyse du réseau du commerce maritime qui est entièrement data-driven. Nous utilisons des outils issus de la science de la complexité et de Machine Learning appliqués aux données de réseau pour étudier les propriétés de ce réseau et développer des modèles de prévision des ouvertures de nouvelles lignes maritimes et des volumes des flux commerciaux futurs sur des liens. L’application du Machine Learning pour analyser les flux commerciaux sur le réseau nous paraît être une nouvelle approche par rapport à l’état de l’art. Cette approche nécessitait une sélection et une modification soigneuses des outils d’apprentissage automatique existants pour les adapter aux données de type réseau et sur des flux physiques. Les résultats de la thèse suggèrent que le commerce maritime suit une marche aléatoire sur la structure sous-jacente du réseau. [...] Grâce à une expérience naturelle impliquant une redirection du trafic du port de Kobe après le tremblement de terre de 1995, nous constatons que le trafic a été redirigé de préférence vers les ports qui avaient le plus grand nombre de voisins communs avec Kobe avant la catastrophe naturelle. Ensuite, en simulant des attaques ciblées sur le réseau du commerce maritime, nous analysons les meilleurs critères qui permettraient de maximiser les dommages causés au réseau, ainsi que la robustesse générale du réseau face aux différents types d’attaques. Tous ces résultats suggèrent que les flux commerciaux maritimes suivent une forme de marche aléatoire sur le réseau des connexions maritimes, ce qui fournit la preuve d’une vision nouvelle de la nature des flux commerciaux
Over 70% of the total value of international trade is carried by sea, accounting for 80% of all cargo in terms of volume. In 2016, the UN Secretary General drew attention to the role of maritime transport, describing it as “the backbone of global trade and of the global economy”. Maritime trade flows impact not only the economic development of the concerned regions, but also their ecosystems. Moving ships are an important vector of spread for bioinvasions. Shipping routes are constantly evolving and likely to be affected by the consequences of Climate Change, while at the same time ships are a considerable source of air pollution, with CO2 emissions at a level comparable to Germany, and NOx and SOx emissions comparable to the United States. With the development of Arctic shipping becoming a reality, the need to understand the behavior of this system and to forecast future maritime trade flows reasserts itself. Despite their scope and crucial importance, studies of maritime trade flows on a global scale, based on data and formal methods are scarce, and even fewer studies address the question of their evolution. In this thesis we use a unique database on daily movements of the world fleet between 1977 and 2008 provided by the maritime insurer Lloyd’s in order to build a complex network of maritime trade flows where ports stand for nodes and links are created by ship voyages. In this thesis we perform a data-driven analysis of the maritime trade network. We use tools from Complexity Science and Machine Learning applied on network data to study the network’s properties and develop models for predicting the opening of new shipping lines and for forecasting future trade volume on links. Applying Machine Learning to analyse networked trade flows appears to be a new approach with respect to the state-of-the-art, and required careful selection and customization of existing Machine Learning tools to make them fit networked data on physical flows. The results of the thesis suggest a hypothesis of trade following a random walk on the underlying network structure. [...] Thanks to a natural experiment, involving traffic redirection from the port of Kobe after the 1995 earthquake, we find that the traffic was redirected preferentially to ports which had the highest number of Common Neighbors with Kobe before the cataclysm. Then, by simulating targeted attacks on the maritime trade network, we analyze the best criteria which may serve to maximize the harm done to the network and analyse the overall robustness of the network to different types of attacks. All these results hint that maritime trade flows follow a form of random walk on the network of sea connections, which provides evidence for a novel view on the nature of trade flows
APA, Harvard, Vancouver, ISO, and other styles
31

Mazac, Sébastien. "Approche décentralisée de l'apprentissage constructiviste et modélisation multi-agent du problème d'amorçage de l'apprentissage sensorimoteur en environnement continu : application à l'intelligence ambiante." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10147/document.

Full text
Abstract:
Nous proposons donc un modèle original d'apprentissage constructiviste adapté pour un système d'AmI. Ce modèle repose sur une approche décentralisée, permettant de multiples implémentations convenant à un environnement hétérogène. Dans les environnements réels continus sans modélisation à priori, se pose la question de la modélisation des structures élémentaires de représentation et particulièrement le problème d'amorçage de l'apprentissage sensorimoteur (comme décrit par [Kuipers06]). Dans le cadre du modèle général proposé, nous explicitons ce problème particulier et proposons de le traiter comme une forme d'auto-organisation modélisée par un système multi-agent. Cette approche permet de construire des motifs d'interaction élémentaires à partir des seules données brutes, sur lesquels peut reposer la construction d'une représentation plus élaborée (voir [Mazac14]). Nous présentons enfin une série d'expérimentations illustrant la résolution de ce problème d'amorçage : tout d'abord grâce à un environnement simulé, qui permet de maitriser les régularités de l'environnement et autorise des expérimentations rapides ; ensuite en implémentant ce système d'apprentissage au sein d'un environnement d'AmI réel. Pour cela le modèle est intégré dans le système d'AmI développé par l'entreprise partenaire de cette thèse CIFRE. Puis nous présentons une possible application industrielle des résultats de cette première étape implémentée d'amorçage de l'apprentissage sensorimoteur. Nous concluons par l'analyse des résultats et des perspectives de ce type d'approche pour l'AmI et l'application en général de l'IA aux systèmes réels en environnements continus
The theory of cognitive development from Jean Piaget (1923) is a constructivist perspective of learning that has substantially influenced cognitive science domain. Within AI, lots of works have tried to take inspiration from this paradigm since the beginning of the discipline. Indeed it seems that constructivism is a possible trail in order to overcome the limitations of classical techniques stemming from cognitivism or connectionism and create autonomous agents, fitted with strong adaptation ability within their environment, modelled on biological organisms. Potential applications concern intelligent agents in interaction with a complex environment, with objectives that cannot be predefined. Like robotics, Ambient Intelligence (AmI) is a rich and ambitious paradigm that represents a high complexity challenge for AI. In particular, as a part of constructivist theory, the agent has to build a representation of the world that relies on the learning of sensori-motor patterns starting from its own experience only. This step is difficult to set up for systems in continuous environments, using raw data from sensors without a priori modelling.With the use of multi-agent systems, we investigate the development of new techniques in order to adapt constructivist approach of learning on actual cases. Therefore, we use ambient intelligence as a reference domain for the application of our approach
APA, Harvard, Vancouver, ISO, and other styles
32

Dubois-Chevalier, Julie. "Chimiothèque : vers une approche rationnelle pour la sélection de sous-chimiothèques." Phd thesis, Université d'Orléans, 2011. http://tel.archives-ouvertes.fr/tel-00675250.

Full text
Abstract:
La sélection de sous-ensembles de molécules diverses est un enjeu très important de la recherche pharmaceutique. En effet, de la qualité de cette sélection, dépendra la découverte efficace d'un médicament. De nombreuses méthodes existent pour répondre à cette demande. Certaines sont basées sur la création de groupes de molécules, d'autres sur le principe de dissimilarité inter-moléculaire. Nous proposons dans ce travail, une nouvelle technique à la croisée de ces méthodes, qui permet d'obtenir des sous-ensembles à la fois divers dans l'espace et représentatifs de l'ensemble initial duquel ils sont extraits. Pour créer cette méthode de sélection, nous avons tout d'abord défini et formalisé mathématiquement un critère de diversité, puis nous nous sommes appuyés sur des heuristiques connues en apprentissage artificiel pour concevoir l'algorithme. Celui-ci a été comparé à d'autres types de sélections de diversité couramment utilisées en chémoinformatique telles que les k-medoïds, Maximum-Dissimilarity, Sphere-Exclusion. La formalisation du critère de diversité nous a enfin permis de proposer un nouveau critère d'évaluation de la qualité des sélections. La méthode et le critère présentés dans ce travail donnent des échantillons divers et représentatifs d'un espace chimique.
APA, Harvard, Vancouver, ISO, and other styles
33

Banus, Cobo Jaume. "Coeur & Cerveau. Lien entre les pathologies cardiovasculaires et la neurodégénérescence par une approche combinée biophysique et statistique." Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4030.

Full text
Abstract:
Les études cliniques ont identifié plusieurs facteurs de risque cardiovasculaire associés à la démence et aux pathologies cardiaques, mais leur interaction pathologique reste mal comprise. Habituellement, l'étude de la relation cœur-cerveau est réalisée à travers d'analyses statistiques explorant l'association entre les indicateurs cardiaques et les biomarqueurs cognitifs. Ce type d'étude est généralement réalisé dans des bases de données épidémiologiques, pour lesquelles des mesures conjointes du cerveau et du cœur sont disponibles. Par conséquent, la généralisation de ces résultats aux études sur la démence est difficile, car les évaluations approfondies des fonctions cardiovasculaires dans les bases de données sur la démence actuellement disponibles font généralement défaut. Un autre facteur limitatif des études actuelles est l'interprétabilité limitée des relations physiopathologiques entre le cœur et le cerveau. L'amélioration de notre compréhension des implications de la fonction cardiovasculaire dans la démence nécessite le développement de modèles mécniaques de la physiologie cardiaque, ainsi que le développement de nouvelles approches permettant d'intégrer ces modèles avec des biomarqueurs cérébraux basés sur l'image. Pour relever ces défis, nous avons développé dans cette thèse de nouveaux outils informatiques basés sur l'intégration de modèles mécaniques dans un cadre d'apprentissage statistique. Premièrement, nous avons étudié l'association entre des indicateurs physiologiques non observables, tels que la contractilité cardiaque, et des caractéristiques d'imagerie dérivées du cerveau. À cette fin, l'espace des paramètres d'un modèle mécanique de la fonction cardiaque a été contraint pendant l'étape de personnalisation sur la base des relations entre les paramètres du modèle cardiaque et les informations cérébrales. Cela permet d’attenuer le caractère mal defini du problème inverse associé à la personnalisation du modèle, et d'obtenir des solutions spécifiques au patient qui sont comparables au sein de la population.Deuxièmement, nous avons développé un modèle d'imputation probabiliste qui permet d'imputer les informations cardiaques manquantes dans des bases de données limitées. L'imputation repose sur les dynamiques cœur-cerveau apprises à partir de l'analyse d'une grande population de sujets, et utilise cette connaissance pour obtenir des solutions plausibles dans des bases de données partielles. La nature générative de l'approche permet de simuler l'évolution des paramètres du modèle cardiaque lorsque les caractéristiques du cerveau changent. Troisièmement, nous avons analysé le rôle des paramètres du modèle cardiaque comme biomarqueurs précoces de la démence, ce qui pourrait aider à identifier les individus à risque. Dans ce but, nous avons imputé les informations cardiaques manquantes dans une cohorte longitudinale de la maladie d'Alzheimer. Ensuite, grâce à la modélisation de la progression de la maladie, nous avons estimé le stade de la maladie pour chaque individu sur la base de l'évolution des biomarqueurs. Ceci a permis d'obtenir un modèle de l'évolution de la maladie, d'analyser le rôle de la fonction cardiaque, et d'identifier les paramètres du modèle cardiaque comme biomarqueurs potentiels de la démence à un stade précoce. Les résultats démontrent l'importance des outils développés en obtenant des associations cliniquement plausibles entre les paramètres du modèle cardiaque et les caractéristiques de l'imagerie cérébrale. Ces résultats mettent également en évidence des informations sur la relation physiologique entre la fonction cardiaque et les biomarqueurs de la démence. Les résultats obtenus ouvrent de nouvelles voies de recherche, telles que l'utilisation de modèles mécaniques plus complexes permettant de mieux caractériser la relation cœur-cerveau, ou l'utilisation de modèles cardiaques biophysiques pour dériver des biomarqueurs in-silico afin d'identifier les individus à risque de démence
Clinical studies have identified several cardiovascular risk factors associated to dementia and cardiac pathologies, but their pathological interaction remains poorly understood. Classically, the investigation of the heart-brain relationship is mostly carried out through statistical analysis exploring the association between cardiac indicators and cognitive biomarkers. This kind of investigations are usually performed in large-scale epidemiological datasets, for which joint measurements of both brain and heart are available. For this reason, most of these analyses are performed on cohorts representing the general population. Therefore, the generalisation of these findings to dementia studies is generally difficult, since extensive assessments of cardiac and cardiovascular function in currently available dementia dataset is usually lacking. Another limiting factor of current studies is the limited interpretability of the complex pathophysiological relations between heart and brain allowed by standard correlation analyses. Improving our understanding of the implications of cardiovascular function in dementia ultimately requires the development of more refined mechanistic models of cardiac physiology, as well as the development of novel approaches allowing to integrate these models with image-based brain biomarkers. To address these challenges, in this thesis we developed new computational tools based on the integration of mechanistic models within a statistical learning framework. First, we studied the association between non-observable physiological indicators, such as cardiac contractility, and brain-derived imaging features. To this end, the parameter-space of a mechanistic model of the cardiac function was constrained during the personalisation stage based on the relationships between the parameters of the cardiac model and brain information. This allows to tackle the ill-posedness of the inverse problem associated to model personalisation, and obtain patient-specific solutions that are comparable population-wise.Second, we developed a probabilistic imputation model that allows to impute missing cardiac information in datasets with limited data. The imputation leverages on the cardiac-brain dynamics learned in a large-scale population analysis, and uses this knowledge to obtain plausible solutions in datasets with partial data. The generative nature of the approach allows to simulate the evolution of cardiac model parameters as brain features change. The framework is based on a conditional variational autoencoder (CVAE) combined with Gaussian process (GP) regression. Third, we analysed the potential role of cardiac model parameters as early biomarkers for dementia, which could help to identify individuals at risk. To this end, we imputed missing cardiac information in an Alzheimer's disease (AD) longitudinal cohort. Next, via disease progression modelling we estimated the disease stage for each individual based on the evolution of biomarkers. This allowed to obtain a model of the disease evolution, to analyse the role of cardiac function in AD, and to identify cardiac model parameters as potential early-stage biomarkers of dementia. These results demonstrate the importance of the developed tools by providing clinically plausible associations between cardiac model parameters and brain imaging features in an epidemiological dataset, as well as highlighting insights about the physiological relationship between cardiac function and dementia biomarkers. The obtained results open new research directions, such as the use of more complex mechanistic models that allow to better characterise the heart-brain relationship, or the use of biophysical cardiac models to derive in-silico biomarkers for identifying individuals at risk of dementia in clinical routine, and/or for their inclusion in neuroprotective trials
APA, Harvard, Vancouver, ISO, and other styles
34

Castellano, Aloïs. "Étude des effets de la température sur les combustibles nucléaires par une approche ab initio." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS062.

Full text
Abstract:
Pour assurer la sécurité de la production d’électricité par l’énergie nucléaire, une compréhension du comportement des matériaux servant de combustibles est nécessaire. Ce travail apporte une contribution à l’étude des effets de la température sur les combustibles nucléaires, en utilisant une approche ab initio à travers la théorie de la fonctionnelle de la densité et la dynamique moléculaire ab initio (AIMD). Pour prendre en compte explicitement les effets de la température, une méthode non perturbative de dynamique des réseaux est formalisée, permettant ainsi d’étudier l’évolution des phonons et des propriétés thermodynamiques avec la température. Afin de réduire le coût en temps de calcul important de l’AIMD, une méthode d’échantillonnage utilisant le machine-learning est développée, ce qui permet d’accélérer les simulations de matériaux à température finie. Ces différentes méthodes sont appliquées pour décrire la stabilisation de l’alliage uranium-molybdène à haute température, ainsi que la dynamique des réseaux des dioxydes d’uranium et de plutonium
To ensure the security of nuclear electricity production, an understanding of the behavior of nuclear fuel materials is necessary. This work aims at making a contribution to the study of the effects of temperature on nuclear fuels, by using an ab initio approach through density functional theory and ab initio molecular dynamics (AIMD). To explicity take account of the temperature, a non-perturbative lattice dynamics method is formalised, allowing to study the evolution of phonons and thermodynamic properties with temperature. In order to reduce the important computational cost of AIMD, a machine-learning based sampling method is developped, which allows to accelerate the simulation of materials at finite temperature. Those different methods are applied to describe the stabilisation of uranium-molybdenum alloy at high temperature, as well as the lattice dynamics of uranium and plutonium dioxides
APA, Harvard, Vancouver, ISO, and other styles
35

Loisel, Julie. "Détection des ruptures de la chaîne du froid par une approche d'apprentissage automatique." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASB014.

Full text
Abstract:
La chaîne du froid est indispensable pour assurer la sécurité sanitaire et éviter le gaspillage alimentaire. Pour suivre l'évolution de la température de l'air à travers la chaîne du froid, les capteurs sans fil sont de plus en plus utilisés, mais l'exploitation de ces mesures est encore limitée. Cette thèse explore comment l'apprentissage automatique peut être utilisé pour prédire la température de différents types de produits alimentaires à partir d'une mesure de la température de l'air dans une palette et détecter les ruptures de chaîne du froid. Nous avons d'abord introduit une définition de rupture de la chaîne du froid en fonction de deux grandes catégories de produits : les produits qui doivent être conservés à une température réglementée tels que les viandes et les poissons et les produits pour lesquels une température de conservation est recommandée tels que les fruits et légumes. Pour les premiers, les ruptures de la chaîne du froid peuvent entraîner une intoxication alimentaire et pour les seconds, elles peuvent dégrader les qualités organoleptiques.Pour les produits à température réglementée, il est crucial de prédire la température des produits afin d'assurer qu'ils ne dépassent pas le seuil réglementaire. Bien que plusieurs études aient déjà démontré l'efficacité des réseaux de neurones pour la prédiction de la température des produits, aucune n'a comparé les données synthétiques et expérimentales pour les entraîner. Dans cette thèse, nous avons proposé de comparer ces deux types de données afin de fournir des directives précises pour le développement de réseaux de neurones. En pratique, les produits et les emballages sont très variés, il est donc impossible de faire des expériences à chaque application en raison de la lourdeur de la mise en œuvre.En comparant les données synthétiques et expérimentales, nous avons pu déterminer les meilleures lignes directrices pour développer des réseaux de neurones pour prédire la température des produits et maintenir la chaîne du froid.Pour les produits dont la température est réglementaire, une fois la rupture détectée, ils ne sont plus consommables et doivent être éliminés. Pour les produits dont la température recommandée, nous avons comparé trois approches différentes pour détecter les ruptures et mettre en place une action correctrice : a) méthode basée sur un seuil de température, b) méthode basée sur un classifieur qui détermine si le produit sera livré avec les qualités attendues et c) méthode également basée un classifieur mais qui intègre le coût de l'action correctrice dans la prise de décision. Les performances des trois méthodes sont discutées et des perspectives d'amélioration sont proposées
The cold chain is essential to ensure food safety and avoid food waste. Wireless sensors are increasingly used to monitor the air temperature through the cold chain, however, the exploitation of these measurements is still limited. This thesis explores how machine learning can be used to predict the temperature of different food products types from the measured air temperature in a pallet and detect cold chain breaks. We introduced, firstly, a definition of a cold chain break based on two main product categories: products obligatorily preserved at a regulated temperature such as meat and fish, and products for which a temperature is recommended such as fruits and vegetables. The cold chain break leads to food poisoning for the first product category and organoleptic quality degradation for the second one.For temperature-regulated products, it is crucial to predict the product temperature to ensure that it does not exceed the regulatory temperature. Although several studies demonstrated the effectiveness of neural networks for the prediction, none has compared the synthetic and experimental data to train them. In this thesis, we proposed to compare these two types of data in order to provide guidelines for the development of neural networks. In practice, the products and packaging are diverse; experiments for each application are impossible due to the complexity of implementation. By comparing synthetic and experimental data, we were able to determine best practices for developing neural networks to predict product temperature and maintain cold chain. For temperature-regulated products, once the cold chain break is detected, they are no more consumable and must be eliminated. For temperature-recommended products, we compared three different approaches to detect cold chain breaks and implement corrective actions: a) method based on a temperature threshold, b) method based on a classifier which determines whether the products will be delivered with the expected qualities, and c) method also based on a classifier but which integrates the cost of the corrective measure in the decision-making process. The performances of the three methods are discussed and prospects for improvement are proposed
APA, Harvard, Vancouver, ISO, and other styles
36

Shahzad, Atif. "Une Approche Hybride de Simulation-Optimisation Basée sur la fouille de Données pour les problèmes d'ordonnancement." Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00647353.

Full text
Abstract:
Une approche hybride basée sur la fouille de données pour découvrir de nouvelles règles de priorité pour le problème l'ordonnancement job-shop est présentée. Cette approche est basée sur la recherche de connaissances supposées être intégrés dans les solutions efficaces fournies par un module d'optimisation préalablement mis en oeuvre et utilisant la recherche tabou. L'objectif est de découvrir les principes directeurs de l'ordonnancement à l'aide de la fouille de données et donc d'obtenir un ensemble de règles capables d'obtenir des solutions efficaces pour un problème d'ordonnancement. Une structure basée sur fouille de données est présentée et mise en œuvre pour un problème de job shop avec comme objectifs le retard maximum et le retard moyen. Les résultats obtenus sont très prometteurs.
APA, Harvard, Vancouver, ISO, and other styles
37

Raimondo, Federico. "Normalisation et automatisation du diagnostic des patients atteints de troubles de la conscience : une approche par apprentissage automatique appliquée aux signaux électrophysiologiques du cerveau et du corps." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS321.

Full text
Abstract:
Les progrès de la médecine moderne ont entraîné une augmentation du nombre de patients ayant des troubles de la conscience (DOC). Ces derniers, alors qu’ils sont éveillés, ne présentent pas de signes comportementaux de conscience. L’évaluation comportementale précise de ces patients a des implications médico-éthiques et sociales cruciales, car elle conditionne généralement le pronostic. Ainsi, les erreurs diagnostiques liées aux limites intrinsèques des outils comportementaux sont une préoccupation majeure pour les cliniciens et l’électroencéphalographie (EEG) pourrait s’avérer utile. Dans une étude précédente, nous avions introduit l’utilisation de marqueurs extraits de l’EEG et l’apprentissage supervisé pour le diagnostic des patients DOC. Dans ce travail, nous avons développé cet outil et analysé son applicabilité et ses limites. De plus, nous avons proposé deux approches pour améliorer la précision de cette méthode: (1) l’utilisation de multiples modalités de stimulation pour inclure des corrélats neuronaux de l’intégration multisensorielle et (2) l’analyse des modulations de l’activité cardiaque par la conscience. Nos résultats dépassent l’état actuel des connaissances dans deux dimensions. Cliniquement, nous avons constaté que la méthode pouvait être utilisée dans des contextes hétérogènes, confirmant l’utilité de l’apprentissage automatique en tant qu’outil automatisé de diagnostic clinique. Scientifiquement, nos résultats soulignent que les interactions cerveau-corps pourraient être le mécanisme fondamental pour soutenir l’intégration multisensorielle en un percept unique, conduisant à l’émergence de la conscience. Au total, ces travaux illustrent l’importance de l’apprentissage automatique pour une évaluation individualisée de la conscience et ouvrent la voie à l’inclusion des fonctions corporelles pour la quantification des états de conscience
Advances in modern medicine have led to an increase of patients diagnosed with disorders of consciousness (DOC). In these conditions, patients are awake, but without behavioural signs of awareness. An accurate evaluation of DOC patients has medico-ethical and societal implications, and it is of crucial importance because it typically informs prognosis. Misdiagnosis of patients, however, is a major concern in clinics due to intrinsic limitations of behavioural tools. One accessible assisting methodology for clinicians is electroencephalography (EEG). In a previous study, we introduced the use of EEG-extracted markers and machine learning as a tool for the diagnosis of DOC patients. In this work, we developed an automated analysis tool, and analysed the applicability and limitations of this method. Additionally, we proposed two approaches to enhance the accuracy of this method: (1) the use of multiple stimulation modalities to include neural correlates of multisensory integration and (2) the analysis of consciousness-mediated modulations of cardiac activity. Our results exceed the current state of knowledge in two dimensions. Clinically, we found that the method can be used in heterogeneous contexts, confirming the utility of machine learning as an automated tool for clinical diagnosis. Scientifically, our results highlight that brain-body interactions might be the fundamental mechanism to support the fusion of multiple senses into a unique percept, leading to the emergence of consciousness. Taken together, this work illustrates the importance of machine learning to individualised clinical assessment, and paves the way for inclusion of bodily functions when quantifying global states of consciousness
Avances en la medicina moderna han llevado a un incremento en el número de pacientes diagnosticados con desordenes de consciencia (DOC). En estas condiciones, los pacientes se encuentran despiertos, pero no muestran signos de entendimiento acerca de si mismos o el lugar donde se encuentran. Una evaluación precisa de los pacientes tiene implicaciones medico-éticas y sociales, y es de suma importancia porque típicamente informa el pronós- tico. Los diagnósticos erróneos, no obstante, es una gran preocupación en las clínicas debido a las limitaciones intrínsecas de las herramientas de diagnostico basados en comportamiento. Una tecnología accesible para asistir a los médicos es la electroencefalografía (EEG). In un estudio previo, introducimos el uso de marcadores extraídos de EEG en combinación con aprendizaje automático como una herramienta para el diagnostico de pacientes DOC. En este trabajo, desarrollamos una herramienta de análisis automatizado, y analizamos la aplicabil- idad y limitaciones de este método. Adicionalmente, proponemos dos enfoques para incre- mentar la precision del diagnóstico: (1) el uso de múltiples modalidades de estimulación para incluir los correlatos neuronales de la integración multisensorial y (2) el análisis de las mod- ulaciones de la actividad cardíaca mediadas por la conciencia. Nuestros resultados exceden el conocimiento actual en dos dimensiones. Clínicamente, encontramos que el método puede ser utilizada en contextos heterogéneos, confirmando la utilidad del aprendizaje automático como una herramientas para el diagnóstico clínico. Científicamente, nuestros resultados re- saltan que las interacciones entre el cerebro y el cuerpo pueden ser el mecanismo funda- mental para sostener la fusión de multiples sentidos en una única percepción, conduciendo a la emergencia de la consciencia. En conjunto, este trabajo ilustra la importancia del apren- dizaje automático para la evaluación clínica individualizada, y crea un punto de partida para la inclusión de las funciones corporales en la cuantificación de los estados de conciencia globales
APA, Harvard, Vancouver, ISO, and other styles
38

Deleforge, Antoine. "Projection d'espaces acoustiques: une approche par apprentissage automatisé de la séparation et de la localisation." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00913965.

Full text
Abstract:
Dans cette thèse, nous abordons les problemes longtemps etudiés de la séparation et de la localisation binaurale (deux microphones) de sources sonores par l'apprentissage supervisé. Dans ce but, nous développons un nouveau paradigme dénommé projection d'espaces acoustiques, à la croisée des chemins de la perception binaurale, de l'écoute robotisée, du traitement du signal audio, et de l'apprentissage automatise. L'approche proposée consiste à apprendre un lien entre les indices auditifs perçus par le système et la position de la source sonore dans une autre modalité du système, comme l'espace visuel ou l'espace moteur. Nous proposons de nouveaux protocoles expérimentaux permettant d'acquérir automatiquement de grands ensembles d'entraînement qui associent de telles données. Les jeux de données obtenus sont ensuite utilisés pour révéler certaines propriétés intrinsèques des espaces acoustiques, et conduisent au développement d'une famille générale de modèles probabilistes permettant la projection localement linéaire d'un espace de haute dimension vers un espace de basse dimension. Nous montrons que ces modèles unifient plusieurs méthodes de régression et de réduction de dimension existantes, tout en incluant un grand nombre de nouveaux modèles qui généralisent les précédents. Les popriétés et l'inférence de ces modèles sont d'etaillées en profondeur, et le net avantage des méthodes proposées par rapport à des techniques de l'etat de l'art est établit sur différentes applications de projection d'espace, au delà du champs de l'analyse de scènes auditives. Nous montrons ensuite comment les méthodes proposées peuvent être étendues probabilistiquement pour s'attaquer au fameux problème de la soirée cocktail, c'est à dire, localiser une ou plusieurs sources sonores émettant simultanément dans un environnement réel, et reséparer les signaux mélangés. Nous montrons que les techniques qui en découlent accomplissent cette tâche avec une précision inégalée. Ceci démontre le rôle important de l'apprentissage et met en avant le paradigme de la projection d'espaces acoustiques comme un outil prometteur pour aborder de façon robuste les problèmes les plus difficiles de l'audition binaurale computationnelle.
APA, Harvard, Vancouver, ISO, and other styles
39

Berkane, Yassamina. "Time organization for urban mobility congestion : an interdisciplinary approach for Bureaux des Temps." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG071.

Full text
Abstract:
Soutenue par la croissance démographique au sein des zones urbaines, l'augmentation de la mobilité quotidienne est un défi majeur pour la gestion des villes et de leurs infrastructures routières, dans une optique de croissance économique et de développement durable. Dans cette thèse, le concept de gestion du temps est intégré dans une nouvelle approche pour réduire la congestion de la mobilité urbaine. Les méthodes traditionnelles se concentrent principalement sur les aspects spatiaux, négligeant ainsi la dimension temporelle. Dans l'approche proposée, nous nous intéressons à la prise en compte de concepts des Sciences Humaines et Sociales (SHS), en particulier les concepts sociologiques, avec les Sciences et Technologies de l'Information et de la Communication (STIC) pour proposer une solution d'aide à la décision pour les Bureaux des Temps, qui vise à modifier les temporalités afin de réduire la congestion urbaine. Cette approche intègre trois phases : identifier les profils de mobilité, analyser la congestion du trafic et prendre des décisions temporelles. Les profils de mobilité sont prédits à l'aide de techniques d'apprentissage en prenant en compte des critères sociologiques. L'analyse de la congestion du trafic exploite des données de l'application Waze. Enfin, l'utilisation des modèles de séries temporelles nous permet de prédire les degrés de congestion afin de proposer des temps de départ optimisés pour éviter la congestion urbaine. La solution proposée a le potentiel d'intégrer un ensemble de données hétérogènes dans la gestion de la congestion pour des villes urbaines harmonieuses
Population growth and urbanization are major challenges for the management of cities and their resources. Urban mobility is one of these challenges because of its impact on quality of life, economic productivity, and environmental sustainability. In this thesis, the concept of time management is integrated into a new approach to reduce urban mobility congestion. Traditional methods primarily focus on spatial aspects, thus neglecting the temporal dimension. We concentrate on integrating concepts from the Social and Human Sciences (SHS), particularly sociological concepts, into Sciences and Technologies of Information and Communication (STIC) to propose a decision-support solution for the time bureaus, which aims to modify temporalities to reduce urban congestion.The proposed approach consists of three phases: identifying mobility profiles, analyzing traffic congestion, and making temporal decisions. Mobility profiles are predicted using learning techniques that take into account sociological criteria. Traffic congestion analysis investigates Waze data. Finally, the use of time series models allows us to predict congestion levels to propose optimized departure times to avoid urban congestion. The proposed solution has the potential to integrate a set of heterogeneous data in congestion management for harmonious urban cities
APA, Harvard, Vancouver, ISO, and other styles
40

Silva, Bernardes Juliana. "Evolution et apprentissage automatique pour l'annotation fonctionnelle et la classification des homologies lointains en protéines." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00684155.

Full text
Abstract:
La détection d'homologues lointains est essentielle pour le classement fonctionnel et structural des séquences protéiques et pour l'amélioration de l'annotation des génomes très divergents. Pour le classement des séquences, nous présentons la méthode "ILP-SVM homology", combinant la programmation logique inductive (PLI) et les modèles propositionnels. Elle propose une nouvelle représentation logique des propriétés physico-chimiques des résidus et des positions conservées au sein de l'alignement de séquences. Ainsi, PLI trouve les règles les plus fréquentes et les utilise pour la phase d'apprentissage utilisant des modèles d'arbre de décision ou de machine à vecteurs de support. La méthode présente au moins les mêmes performances que les autres méthodes trouvées dans la littérature. Puis, nous proposons la méthode CASH pour annoter les génomes très divergents. CASH a été appliqué à Plasmodium falciparum, mais reste applicable à toutes les espèces. CASH utilise aussi bien l'information issue de génomes proches ou éloignés de P. falciparum. Chaque domaine connu est ainsi représenté par un ensemble de modèles évolutifs, et les sorties sont combinées par un méta-classificateur qui assigne un score de confiance à chaque prédiction. Basé sur ce score et sur des propriétés de co-ocurrences de domaines, CASH trouve l'architecture la plus probable de chaque séquence en appliquant une approche d'optimisation multi-objectif. CASH est capable d'annoter 70% des domaines protéiques de P. falciparum, contre une moyenne de 58% pour ses concurrents. De nouveaux domaines protéiques ont pu être caractérisés au sein de protéines de fonction inconnue ou déjà annotées.
APA, Harvard, Vancouver, ISO, and other styles
41

Zowid, Fauzi Mohammed. "Development and performance evaluation of multi-criteria inventory classification methods." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0331.

Full text
Abstract:
Cette thèse traite du problème de la classification des produits dans les systèmes de gestion de stock. Plus précisément, elle vise à proposer de nouvelles méthodes de classification pour résoudre le problème de la classification multicritères des produits en stock (MCIC). Actuellement, la méthode ABC de classification des produits en stock est largement utilisée pour rationaliser les systèmes de gestion de stock composés de milliers de produits (SKU). Les méthodes de classification des stocks ABC à un seul critère sont souvent utilisées dans la pratique et, récemment, les MCIC ont également attiré l’attention des chercheurs et des industriels. En ce qui concerne les méthodes multicritères MCIC, un grand nombre de méthodes ont été développées dans la littérature, appartenant à trois approches principales, à savoir: (1) l'approche à base de Machine Learning (ML), (2) programmation mathématique (MP), et (3) multicritères d’aide à la décision (MCDM). Dans ML, de nombreuses méthodes de type ML supervisé ont été proposées ainsi qu'un certain nombre de méthodes hybrides. Cependant, à notre connaissance, très peu d'études de recherche ont envisagé le type ML non supervisé. Concernant les approches de type MP, un certain nombre de méthodes ont été développées en utilisant la programmation linéaire et non linéaire, telles que les méthodes Ng et ZF. Cependant, la plupart de ces méthodes doivent encore être améliorées pour en limiter les inconvénients. Sur MCDM, plusieurs méthodes ont été proposées pour fournir des classifications ABC, y compris la méthode TOPSIS (technique for order preference by similarity to ideal solution), qui est bien connue pour son attractivité et son utilisation, ainsi que certaines méthodes hybrides combinées avec TOPSIS. Il convient de noter que la plupart des études publiées se sont uniquement concentrées sur la proposition de méthodes de classification pour classer les SKUs dans un système de gestion de stock avec un intérêt limité par rapport à l'objectif initial et le plus important de notre travail, qui est la performance en termes de coûts et de niveau de service de la méthode proposée. De plus, la plupart des études existantes n'ont pas considéré des systèmes de gestion de stock avec un grand nombre de données réelles (un grand nombre de références) pour évaluer empiriquement leurs performances et recommander l'utilisation d’une méthode particulière pour des mises en pratique réelles. Ainsi, cette thèse propose d'abord d'évaluer la performance (coût et service) des méthodes MCIC existantes et de proposer diverses méthodes de classification alternatives qui réduisent les coûts et conduisent à des niveaux de service plus élevés. Plus précisément, trois méthodes de type ML non supervisées sont proposées et analysées : Agglomerative hierarchical clustering, Gaussian mixture model et K-means. En outre, d'autres méthodes hybrides dans les approches de type MP et MCDM sont également développées. Ces méthodes proposées représentent une hybridation des méthodes TOPSIS et Ng avec la méthode Triangular distribution, la méthode Simple additive weighting (SAW) et la méthode Multi-Objective Optimization Method by Ratio Analysis (MOORA). Pour mener nos recherches, la thèse analyse empiriquement les performances des méthodes considérées au moyen de deux jeux de données. Le premier jeu de données est un jeu de données benchmark qui provient d’une unité d’hôpital, souvent utilisé dans la littérature traitant des méthodes MCIC, composé de 47 SKUs. Le deuxième jeu de données se compose de 9086 SKUs et provient d'un détaillant aux Pays-Bas qui vend des produits de bricolage. Les performances des méthodes proposées sont comparées à celles des méthodes de classification MCIC existantes dans la littérature. Les résultats empiriques révèlent que les méthodes proposées donnent des performances prometteuses en conduisant à une plus grande efficacité combinée service-coût, notamment pour le second jeu de données très significatif
This thesis deals with the issue of inventory classification within supply chains. More specifically, it aims to provide new alternative classification methods to address the multi-criteria inventory classification (MCIC) problem. It is well known that the ABC inventory classification technique is widely used to streamline inventory systems composed of thousands of stock-keeping-units (SKUs). Single-criterion inventory classification (SCIC) methods are often used in practice and recently MCIC techniques have also attracted researchers and practitioners. With regard to the MCIC techniques, large number of studies have been developed that belong to three main approaches, namely: (1) the machine learning (ML), (2) the mathematical programming (MP), and (3) the multi-criteria decision making (MCDM). On the ML approach, many research methods belonging to the supervised ML type have been proposed as well as a number of hybrid methods. However, to the best of our knowledge, very few research studies have considered the unsupervised ML type. On the MP approach, a number of methods have been developed using linear and non-linear programming, such as the Ng and the ZF methods. Yet, most of these developed methods still can be granted more attentions for more improvements and shortcomings reduction. On the MCDM approach, several methods have been proposed to provide ABC classifications, including the TOPSIS (technique for order preference by similarity to ideal solution) method, which is well known for its wide attractiveness and utilization, as well as some hybrid TOPSIS methods.It is worth noting that most of the published studies have only focused on providing classification methods to rank the SKUs in an inventory system without any interest in the original and most important goal of this exercise, which is achieving a combined service-cost inventory performance, i.e. the maximization of service levels and the minimization of inventory costs. Moreover, most of the existing studies have not considered large and real-life datasets to recommend the run of MCIC technique for real life implementations. Thus, this thesis proposes first to evaluate the inventory performance (cost and service) of existing MCIC methods and to provide various alternative classification methods that lead to higher service and cost performance. More specifically, three unsupervised machine learning methods are proposed and analyzed: the Agglomerative hierarchical clustering, the Gaussian mixture model and K-means. In addition, other hybrid methods within the MP and MCDM approaches are also developed. These proposed methods represent a hybridization of the TOPSIS and Ng methods with the triangular distribution, the Simple additive weighting (SAW) and the Multi-objective optimization method by ratio analysis (MOORA).To conduct our research, the thesis empirically analyzes the performance of the proposed methods by means of two datasets containing more than nine thousand SKUs. The first dataset is a benchmark dataset originating from a Hospital Respiratory Theory Unit, often used in the literature dealing with the MCIC methods, composed of 47 SKUs. The second dataset consists of 9,086 SKUs and coming from a retailer in the Netherlands. The performances of the proposed methods are compared to that of existing MCIC classification methods in the literature. The empirical results reveal that the proposed methods can carry promising performances by leading to a higher combined service-cost efficiency
APA, Harvard, Vancouver, ISO, and other styles
42

Lavallée, Jean-François. "Moranapho : apprentissage non supervisé de la morphologie d'une langue par généralisation de relations analogiques." Thèse, 2010. http://hdl.handle.net/1866/4524.

Full text
Abstract:
Récemment, nous avons pu observer un intérêt grandissant pour l'application de l'analogie formelle à l'analyse morphologique. L'intérêt premier de ce concept repose sur ses parallèles avec le processus mental impliqué dans la création de nouveaux termes basée sur les relations morphologiques préexistantes de la langue. Toutefois, l'utilisation de ce concept reste tout de même marginale due notamment à son coût de calcul élevé.Dans ce document, nous présenterons le système à base de graphe Moranapho fondé sur l'analogie formelle. Nous démontrerons par notre participation au Morpho Challenge 2009 (Kurimo:10) et nos expériences subséquentes, que la qualité des analyses obtenues par ce système rivalise avec l'état de l'art. Nous analyserons aussi l'influence de certaines de ses composantes sur la qualité des analyses morphologiques produites. Nous appuierons les conclusions tirées de nos analyses sur des théories bien établies dans le domaine de la linguistique. Ceci nous permet donc de fournir certaines prédictions sur les succès et les échecs de notre système, lorsqu'appliqué à d'autres langues que celles testées au cours de nos expériences.
Recently, we have witnessed a growing interest in applying the concept of formal analogy to unsupervised morphology acquisition. The attractiveness of this concept lies in its parallels with the mental process involved in the creation of new words based on morphological relations existing in the language. However, the use of formal analogy remain marginal partly due to their high computational cost. In this document, we present Moranapho, a graph-based system founded on the concept of formal analogy. Our participation in the 2009 Morpho Challenge (Kurimo:10) and our subsequent experiments demonstrate that the performance of Moranapho are favorably comparable to the state-of-the-art. We studied the influence of some of its components on the quality of the morphological analysis produced as well. Finally, we will discuss our findings based on well-established theories in the field of linguistics. This allows us to provide some predictions on the successes and failures of our system when applied to languages other than those tested in our experiments.
APA, Harvard, Vancouver, ISO, and other styles
43

Alameda-Pineda, Xavier. "Analyse Égocentrique de Scènes Audio-Visuelles. Une approche par Apprentissage Automatique et Traitement du Signal." Phd thesis, 2013. http://tel.archives-ouvertes.fr/tel-00880117.

Full text
Abstract:
Depuis les vingt dernières années, l'industrie a développé plusieurs produits commerciaux dotés de capacités auditives et visuelles. La grand majorité de ces produits est composée d'un caméscope et d'un microphone embarqué (téléphones portables, tablettes, etc). D'autres, comme la Kinect, sont équipés de capteurs de profondeur et/ou de petits réseaux de microphones. On trouve également des téléphones portables dotés d'un système de vision stéréo. En même temps, plusieurs systèmes orientés recherche sont apparus (par exemple, le robot humanoïde NAO). Du fait que ces systèmes sont compacts, leurs capteurs sont positionnés près les uns des autres. En conséquence, ils ne peuvent pas capturer la scène complète, mais qu'un point de vue très particulier de l'interaction sociale en cours. On appelle cela "Analyse Égocentrique de Scènes Audio-Visuelles''. Cette thèse contribue à cette thématique de plusieurs façons. D'abord, en fournissant une base de données publique qui cible des applications comme la reconnaissance d'actions et de gestes, localisation et suivi d'interlocuteurs, analyse du tour de parole, localisation de sources auditives, etc. Cette base a été utilisé en dedans et en dehors de cette thèse. Nous avons aussi travaillé le problème de la détection d'événements audio-visuels. Nous avons montré comme la confiance en une des modalités (issue de la vision en l'occurrence), peut être modélisée pour biaiser la méthode, en donnant lieu à un algorithme d'espérance-maximisation visuellement supervisé. Ensuite, nous avons modifié l'approche pour cibler la détection audio-visuelle d'interlocuteurs en utilisant le robot humanoïde NAO. En parallèle aux travaux en détection audio-visuelle d'interlocuteurs, nous avons développé une nouvelle approche pour la reconnaissance audio-visuelle de commandes. Nous avons évalué la qualité de plusieurs indices et classeurs, et confirmé que l'utilisation des données auditives et visuelles favorise la reconnaissance, en comparaison aux méthodes qui n'utilisent que l'audio ou que la vidéo. Plus tard, nous avons cherché la meilleure méthode pour des ensembles d'entraînement minuscules (5-10 observations par catégorie). Il s'agit d'un problème intéressant, car les systèmes réels ont besoin de s'adapter très rapidement et d'apprendre de nouvelles commandes. Ces systèmes doivent être opérationnels avec très peu d'échantillons pour l'usage publique. Pour finir, nous avons contribué au champ de la localisation de sources sonores, dans le cas particulier des réseaux coplanaires de microphones. C'est une problématique importante, car la géométrie du réseau est arbitraire et inconnue. En conséquence, cela ouvre la voie pour travailler avec des réseaux de microphones dynamiques, qui peuvent adapter leur géométrie pour mieux répondre à certaines tâches. De plus, la conception des produits commerciaux peut être contrainte de façon que les réseaux linéaires ou circulaires ne sont pas bien adaptés.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography