Dissertations / Theses on the topic 'Apprentissage automatique – Applications industrielles'

To see the other types of publications on this topic, follow the link: Apprentissage automatique – Applications industrielles.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Apprentissage automatique – Applications industrielles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Langlois, Julien. "Vision industrielle et réseaux de neurones profonds : application au dévracage de pièces plastiques industrielles." Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4010/document.

Full text
Abstract:
Ces travaux de thèse présentent une méthode d’estimation de pose de pièces industrielles en vue de leur dévracage à partir d’un système mono-caméra 2D en utilisant une approche par apprentissage avec des réseaux profonds. Dans un premier temps, des réseaux de neurones assurent la segmentation d’un nombre prédéterminé de pièces dans la scène. En appliquant le masque binaire d’une pièce à l’image originale, un second réseau infère la profondeur locale de cet objet. En parallèle des coordonnées de la pièce dans l’image, cette profondeur est employée dans deux réseaux estimant à la fois l’orientation de l’objet sous la forme d’un quaternion et sa translation sur l’axe Z. Enfin, un module de recalage travaillant sur la rétro-projection de la profondeur et le modèle 3D de l’objet, permet d’affiner la pose prédite par les réseaux. Afin de pallier le manque de données réelles annotées dans un contexte industriel, un processus de création de données synthétiques est proposé. En effectuant des rendus aux multiples luminosités, la versatilité du jeu de données permet d’anticiper les différentes conditions hostiles d’exploitation du réseau dans un environnement de production
This work presents a pose estimation method from a RGB image of industrial parts placed in a bin. In a first time, neural networks are used to segment a certain number of parts in the scene. After applying an object mask to the original image, a second network is inferring the local depth of the part. Both the local pixel coordinates of the part and the local depth are used in two networks estimating the orientation of the object as a quaternion and its translation on the Z axis. Finally, a registration module working on the back-projected local depth and the 3D model of the part is refining the pose inferred from the previous networks. To deal with the lack of annotated real images in an industrial context, an data generation process is proposed. By using various light parameters, the dataset versatility allows to anticipate multiple challenging exploitation scenarios within an industrial environment
APA, Harvard, Vancouver, ISO, and other styles
2

Le, Nguyen Minh Huong. "Online machine learning-based predictive maintenance for the railway industry." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT027.

Full text
Abstract:
En tant que moyen de transport en commun efficace sur de longues distances, le chemin de fer continuera de prospérer pour son empreinte carbone limitée dans l'environnement. Assurer la fiabilité des équipements et la sécurité des passagers fait ressortir la nécessité d'une maintenance efficace. Outre la maintenance corrective et périodique courante, la maintenance prédictive a pris de l'importance ces derniers temps. Les progrès récents de l'apprentissage automatique et l'abondance de données poussent les praticiens à la maintenance prédictive basée sur les données. La pratique courante consiste à collecter des données pour former un modèle d'apprentissage automatique, puis à déployer le modèle pour la production et à le conserver inchangé par la suite. Nous soutenons qu'une telle pratique est sous-optimale sur un flux de données. Le caractère illimité du flux rend le modèle sujet à un apprentissage incomplet. Les changements dynamiques sur le flux introduisent de nouveaux concepts invisibles pour le modèle et diminuent sa précision. La vitesse du flux rend l'étiquetage manuel impossible et désactive les algorithmes d'apprentissage supervisé. Par conséquent, il est nécessaire de passer d'un paradigme d'apprentissage statique et hors ligne à un paradigme adaptatif en ligne, en particulier lorsque de nouvelles générations de trains connectés générant en continu des données de capteurs sont déjà une réalité. Nous étudions l'applicabilité de l'apprentissage automatique en ligne pour la maintenance prédictive sur des systèmes complexes typiques du secteur ferroviaire. Tout d'abord, nous développons InterCE en tant que framework basé sur l'apprentissage actif pour extraire des cycles d'un flux non étiqueté en interagissant avec un expert humain. Ensuite, nous implémentons un auto-encodeur à mémoire longue et courte durée pour transformer les cycles extraits en vecteurs de caractéristiques plus compacts tout en restant représentatifs. Enfin, nous concevons CheMoc comme un framework pour surveiller en permanence l'état des systèmes en utilisant le clustering adaptatif en ligne. Nos méthodes sont évaluées sur les systèmes d'accès voyageurs sur deux flottes de trains gérés par la société nationale des chemins de fer SNCF de la France
Being an effective long-distance mass transit, the railway will continue to flourish for its limited carbon footprint in the environment. Ensuring the equipment's reliability and passenger safety brings forth the need for efficient maintenance. Apart from the prevalence of corrective and periodic maintenance, predictive maintenance has come into prominence lately. Recent advances in machine learning and the abundance of data drive practitioners to data-driven predictive maintenance. The common practice is to collect data to train a machine learning model, then deploy the model for production and keep it unchanged afterward. We argue that such practice is suboptimal on a data stream. The unboundedness of the stream makes the model prone to incomplete learning. Dynamic changes on the stream introduce novel concepts unseen by the model and decrease its accuracy. The velocity of the stream makes manual labeling infeasible and disables supervised learning algorithms. Therefore, switching from a static, offline learning paradigm to an adaptive, online one is necessary, especially when new generations of connected trains continuously generating sensor data have already been a reality. We investigate the applicability of online machine learning for predictive maintenance on typical complex systems in the railway. First, we develop InterCE as an active learning-based framework that extracts cycles from an unlabeled stream by interacting with a human expert. Then, we implement a long short-term memory autoencoder to transform the extracted cycles into feature vectors that are more compact yet remain representative. Finally, we design CheMoc as a framework that continuously monitors the condition of the systems using online adaptive clustering. Our methods are evaluated on the passenger access systems on two fleets of passenger trains managed by the national railway company SNCF of France
APA, Harvard, Vancouver, ISO, and other styles
3

Teytaud, Olivier. "Apprentissage, réseaux de neurones et applications." Lyon 2, 2001. http://theses.univ-lyon2.fr/documents/lyon2/2001/teytaud_o.

Full text
Abstract:
Les fondements théoriques de l'apprentissage sont en grande partie posés. Comme la calculabilité est venue à maturité en s'orientant vers la complexité, l'apprentissage mûrit face à des résultats négatifs forts qui rendent sans espoir la quête d'algorithmes universels, efficaces pour toute donnée. Vraisemblablement les grandes avancées à venir seront (a) soit dans des domaines connexes où l'étude théorique a moins été poussée, (b) soit moins philosophiques et plus concrètes (théorique à préoccupations algorithmiques, représentation de données structurées, implémentation physique, modularité), soit enfin (c) dans la modélisation biologique. Cette thèse résume (et essaie modestement de compléter) les avancées théoriques statistiques, des points de vue successifs des cas où l'apprentissage est difficile (i. E. , où l'on sort du cadre iid sans bruit avec a priori de VC-dimension finie), des utilisations non-standards de la VC-théorie (non-supervisé, extraction de règles : c'est le (a) ci-dessus), puis du passage au concret avec le passage aux préoccupations algorithmiques (validité des approximations dans les Supports Vector Machines, efficacité des algorithmes de Gibbs quoique l'étude soit très incomplète, plus proches voisins rapides d'un point de vue expérimental représentation de données structurées images ou textes - tout cela est le (b)) et la modélisation biologique (c)
APA, Harvard, Vancouver, ISO, and other styles
4

Teytaud, Olivier Paugam-Moisy Hélène. "Apprentissage, réseaux de neurones et applications." [S.l.] : [s.n.], 2001. http://demeter.univ-lyon2.fr:8080/sdx/theses/lyon2/2001/teytaud_o.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Zennir, Youcef. "Apprentissage par renforcement et systèmes distribués : application à l'apprentissage de la marche d'un robot hexapode." Lyon, INSA, 2004. http://theses.insa-lyon.fr/publication/2004ISAL0034/these.pdf.

Full text
Abstract:
Le but de cette thèse est d'étudier et de proposer des techniques d'apprentissage par renforcement pour l'apprentissage de la marche d'un robot marcheur hexapode. L'hypothèse sur laquelle repose ce travail est que des marches peuvent être obtenues lorsque la commande des mouvements est distribuée au niveau de chaque patte plutôt que d'être centralisée. Une approche distribuée de l'apprentissage par renforcement de type Q-learning a été retenue dans laquelle les agents (les contrôleurs de mouvement) contribuant à une même tâche mènent leur propre apprentissage en tenant compte ou non de l'existence des autres agents. Différentes simulations et tests on été menés avec pour objectif la génération de marches périodiques stables. La marche apparaît comme un phénomène émergeant des mouvements individuels des pattes. L'influence des paramètres d'apprentissage sur les marches obtenues est étudiée. Sont aussi traités des problèmes de tolérances aux fautes et de manque d'information sur l'état du robot. Enfin il est vérifié en simulation que, avec les algorithmes développés, le robot apprend à rattraper une trajectoire prédéfinie tout en contrôlant sa posture
The goal of this thesis is to study and to develop reinforcement learning techniques in order a hexapod robot to learn to walk. The main assumption on which this work is based is that effective gaits can be obtained as the control of the movements is distributed on each leg rather than centralised in a single decision centre. A distributed approach of the Q-learning technique is adopted in which the agents contributing to the same global objective perform their own learning process taking into account or not the other agents. The centralised and distributed approaches are compared. Different simulations and tests are carried out so as to generate stable periodic gaits. The influence of the learning parameters on the quality of the gaits are studied. The walk appears as an emerging phenomenon from the individual movements of the legs. Problems of fault tolerance and lack of state information are investigated. Finally it is verified that with the developed algorithm the simulated robot learns how to reach a desired trajectory while controlling its posture
APA, Harvard, Vancouver, ISO, and other styles
6

Makiou, Abdelhamid. "Sécurité des applications Web : Analyse, modélisation et détection des attaques par apprentissage automatique." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0084/document.

Full text
Abstract:
Les applications Web sont l’épine dorsale des systèmes d’information modernes. L’exposition sur Internet de ces applications engendre continuellement de nouvelles formes de menaces qui peuvent mettre en péril la sécurité de l’ensemble du système d’information. Pour parer à ces menaces, il existe des solutions robustes et riches en fonctionnalités. Ces solutions se basent sur des modèles de détection des attaques bien éprouvés, avec pour chaque modèle, des avantages et des limites. Nos travaux consistent à intégrer des fonctionnalités de plusieurs modèles dans une seule solution afin d’augmenter la capacité de détection. Pour atteindre cet objectif, nous définissons dans une première contribution, une classification des menaces adaptée au contexte des applications Web. Cette classification sert aussi à résoudre certains problèmes d’ordonnancement des opérations d’analyse lors de la phase de détection des attaques. Dans une seconde contribution, nous proposons une architecture de filtrage des attaques basée sur deux modèles d’analyse. Le premier est un module d’analyse comportementale, et le second utilise l’approche d’inspection par signature. Le principal défi à soulever avec cette architecture est d’adapter le modèle d’analyse comportementale au contexte des applications Web. Nous apportons des réponses à ce défi par l’utilisation d’une approche de modélisation des comportements malicieux. Ainsi, il est possible de construire pour chaque classe d’attaque son propre modèle de comportement anormal. Pour construire ces modèles, nous utilisons des classifieurs basés sur l’apprentissage automatique supervisé. Ces classifieurs utilisent des jeux de données d’apprentissage pour apprendre les comportements déviants de chaque classe d’attaques. Ainsi, un deuxième verrou en termes de disponibilité des données d’apprentissage a été levé. En effet, dans une dernière contribution, nous avons défini et conçu une plateforme de génération automatique des données d’entrainement. Les données générées par cette plateforme sont normalisées et catégorisées pour chaque classe d’attaques. Le modèle de génération des données d’apprentissage que nous avons développé est capable d’apprendre "de ses erreurs" d’une manière continue afin de produire des ensembles de données d’apprentissage de meilleure qualité
Web applications are the backbone of modern information systems. The Internet exposure of these applications continually generates new forms of threats that can jeopardize the security of the entire information system. To counter these threats, there are robust and feature-rich solutions. These solutions are based on well-proven attack detection models, with advantages and limitations for each model. Our work consists in integrating functionalities of several models into a single solution in order to increase the detection capacity. To achieve this objective, we define in a first contribution, a classification of the threats adapted to the context of the Web applications. This classification also serves to solve some problems of scheduling analysis operations during the detection phase of the attacks. In a second contribution, we propose an architecture of Web application firewall based on two analysis models. The first is a behavioral analysis module, and the second uses the signature inspection approach. The main challenge to be addressed with this architecture is to adapt the behavioral analysis model to the context of Web applications. We are responding to this challenge by using a modeling approach of malicious behavior. Thus, it is possible to construct for each attack class its own model of abnormal behavior. To construct these models, we use classifiers based on supervised machine learning. These classifiers use learning datasets to learn the deviant behaviors of each class of attacks. Thus, a second lock in terms of the availability of the learning data has been lifted. Indeed, in a final contribution, we defined and designed a platform for automatic generation of training datasets. The data generated by this platform is standardized and categorized for each class of attacks. The learning data generation model we have developed is able to learn "from its own errors" continuously in order to produce higher quality machine learning datasets
APA, Harvard, Vancouver, ISO, and other styles
7

Knyazeva, Elena. "Apprendre par imitation : applications à quelques problèmes d'apprentissage structuré en traitement des langues." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS134/document.

Full text
Abstract:
L’apprentissage structuré est devenu omniprésent dans le traitement automatique des langues naturelles. De nombreuses applications qui font maintenant partie de notre vie telles que des assistants personnels, la traduction automatique, ou encore la reconnaissance vocale, reposent sur ces techniques. Les problèmes d'apprentissage structuré qu’il est nécessaire de résoudre sont de plus en plus complexes et demandent de prendre en compte de plus en plus d’informations à des niveaux linguistiques variés (morphologique, syntaxique, etc.) et reposent la question du meilleurs compromis entre la finesse de la modélisation et l’exactitude des algorithmes d’apprentissage et d’inférence. L’apprentissage par imitation propose de réaliser les procédures d’apprentissage et d’inférence de manière approchée afin de pouvoir exploiter pleinement des structures de dépendance plus riches. Cette thèse explore ce cadre d’apprentissage, en particulier l’algorithme SEARN, à la fois sur le plan théorique ainsi que ses possibilités d’application aux tâches de traitement automatique des langues, notamment aux plus complexes telles que la traduction. Concernant les aspects théoriques, nous présentons un cadre unifié pour les différentes familles d’apprentissage par imitation, qui permet de redériver de manière simple les propriétés de convergence de ces algorithmes; concernant les aspects plus appliqués, nous utilisons l’apprentissage par imitation d’une part pour explorer l’étiquetage de séquences en ordre libre; d’autre part pour étudier des stratégies de décodage en deux étapes pour la traduction automatique
Structured learning has become ubiquitousin Natural Language Processing; a multitude ofapplications, such as personal assistants, machinetranslation and speech recognition, to name just afew, rely on such techniques. The structured learningproblems that must now be solved are becomingincreasingly more complex and require an increasingamount of information at different linguisticlevels (morphological, syntactic, etc.). It is thereforecrucial to find the best trade-off between the degreeof modelling detail and the exactitude of the inferencealgorithm. Imitation learning aims to perform approximatelearning and inference in order to better exploitricher dependency structures. In this thesis, we explorethe use of this specific learning setting, in particularusing the SEARN algorithm, both from a theoreticalperspective and in terms of the practical applicationsto Natural Language Processing tasks, especiallyto complex tasks such as machine translation.Concerning the theoretical aspects, we introduce aunified framework for different imitation learning algorithmfamilies, allowing us to review and simplifythe convergence properties of the algorithms. With regardsto the more practical application of our work, weuse imitation learning first to experiment with free ordersequence labelling and secondly to explore twostepdecoding strategies for machine translation
APA, Harvard, Vancouver, ISO, and other styles
8

Mokhtari, Myriam. "Réseau neuronal aléatoire : applications à l'apprentissage et à la reconnaissance d'images." Paris 5, 1994. http://www.theses.fr/1994PA05S019.

Full text
Abstract:
Le réseau neuronal aléatoire (rna) est un nouveau modèle introduit par Gelenbe en 1989. Il représente l'état d'un réseau markovien dans lequel circulent des signaux positifs et négatifs. Gelenbe a montré que la distribution stationnaire de l'état du réseau constituée par le potentiel à l'entrée de chaque neurone est égale au produit des probabilités marginales de l'état de chaque neurone. L'algorithme d'apprentissage supervisé pour le rna proposé par Gelenbe en 1992 présente l'intérêt de s'appliquer à des réseaux récurrents. L'objectif de cette thèse est d'étudier le rna en tant que mémoire auto-associative. L'apprentissage des exemples consiste à calculer les poids des connexions et aussi des autres paramètres du rna. Il peut être hebbien ou supervisé. Selon chacun d'entre eux, différentes méthodes propres au rna sont proposées par l'auteur pour la détermination des paramètres du réseau. De même, pour la reconnaissance d'exemples bruites, l'auteur introduit plusieurs méthodes de reconnaissance basées sur les caractéristiques du rna. Les simulations réalisées sur des images typées, chiffres digitalisés et exemples aléatoires montrent que le rna avec apprentissage hebbien peut être plus résistant au bruit que les modèles connexionnistes classiques, sous réserve que ses paramètres soient bien choisis. L'apprentissage supervisé appliqué au rna donne des résultats de reconnaissance similaires à ceux des modèles connexionnistes connus. Enfin, la plupart des résultats théoriques et extensions du modèle rna sont regroupés dans cette thèse. Cet ouvrage invite donc le lecteur à exploiter toutes les richesses du rna.
APA, Harvard, Vancouver, ISO, and other styles
9

Bély, Marina. "Détection automatique et correction des carences en azote assimilable des fermentations alcooliques en conditions œnologiques : étude cinétique et approche physiologique." Montpellier 2, 1990. http://www.theses.fr/1990MON20292.

Full text
Abstract:
Le traitement d'un grand nombre de mouts (90), issus de différentes régions viticoles et divers cépages a permis de mieux décrire les cinétiques de fermentation alcoolique en conditions oenologiques et de montrer leur grande variabilité. Celle-ci est due principalement avant tout a la concentration en azote assimilable. En effet, la durée de fermentation et la vitesse maximale de production de CO2 sont fortement corrélées avec la quantité initiale en azote assimilable. Cette dernière relation permet de proposer une stratégie de pilotage de la fermentation basée sur la détection précoce des carences azotées. L'efficacité (vis-à-vis de la durée de fermentation) des ajouts d'azote ammoniacal est d'autant plus importante que la teneur initiale en azote du mout est faible. Ce phénomène est particulièrement marqué lorsque les concentrations en azote sont inferieures a 140 mgn/l (valeur que nous retiendrons comme seuil de carence azotée). D'un point de vue technologique, le moment optimal pour effectuer cette addition d'azote se situe à un degré d'avancement de réaction voisin de 0,4. Parallèlement à cette étude cinétique, nous avons mis en évidence que la vitesse d'assimilation des sucres peut être un facteur limitant de la cinétique fermentaire. Ceci semble être lié à l'inactivation des systèmes de transport, et ce, en relation avec la teneur en azote assimilable des moûts
APA, Harvard, Vancouver, ISO, and other styles
10

Bérard, Alexandre. "Neural machine translation architectures and applications." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I022/document.

Full text
Abstract:
Cette thèse est centrée sur deux principaux objectifs : l'adaptation de techniques de traduction neuronale à de nouvelles tâches, et la reproduction de travaux de recherche existants. Nos efforts pour la reproductibilité ont résulté en la création de deux ressources : MultiVec, un outil permettant l'utilisation de plusieurs techniques liées au word embeddings; ainsi qu'un outil proposant plusieurs modèles pour la traduction automatique et d’autres tâches similaires (par ex. post-édition automatique). Nous travaillons ensuite sur plusieurs tâches liées à la traduction : la Traduction Automatique (TA), Traduction Automatique de la Parole, et la Post-Édition Automatique. Pour la tâche de TA, nous répliquons des travaux fondateurs basés sur les réseaux de neurones, et effectuons une étude sur des TED Talks, où nous avançons l'état de l'art. La tâche suivante consiste à traduire la parole dans une langue vers le texte dans une autre langue. Dans cette thèse, nous nous concentrons sur le problème inexploré de traduction dite « end-to-end », qui ne passe pas par une transcription intermédiaire dans la langue source. Nous proposons le premier modèle end-to-end, et l'évaluons sur deux problèmes : la traduction de livres audio, et d'expressions de voyage. Notre tâche finale est la post-édition automatique, qui consiste à corriger les sorties d'un système de traduction dans un scénario « boîte noire », en apprenant à partir de données produites par des post-éditeurs humains. Nous étendons des résultats publiés dans le cadre des tâches de WMT 2016 et 2017, et proposons de nouveaux modèles pour la post-édition automatique dans un scénario avec peu de données
This thesis is centered on two main objectives: adaptation of Neural Machine Translation techniques to new tasks and research replication. Our efforts towards research replication have led to the production of two resources: MultiVec, a framework that facilitates the use of several techniques related to word embeddings (Word2vec, Bivec and Paragraph Vector); and a framework for Neural Machine Translation that implements several architectures and can be used for regular MT, Automatic Post-Editing, and Speech Recognition or Translation. These two resources are publicly available and now extensively used by the research community. We extend our NMT framework to work on three related tasks: Machine Translation (MT), Automatic Speech Translation (AST) and Automatic Post-Editing (APE). For the machine translation task, we replicate pioneer neural-based work, and do a case study on TED talks where we advance the state-of-the-art. Automatic speech translation consists in translating speech from one language to text in another language. In this thesis, we focus on the unexplored problem of end-to-end speech translation, which does not use an intermediate source-language text transcription. We propose the first model for end-to-end AST and apply it on two benchmarks: translation of audiobooks and of basic travel expressions. Our final task is automatic post-editing, which consists in automatically correcting the outputs of an MT system in a black-box scenario, by training on data that was produced by human post-editors. We replicate and extend published results on the WMT 2016 and 2017 tasks, and propose new neural architectures for low-resource automatic post-editing
APA, Harvard, Vancouver, ISO, and other styles
11

Burel, Gilles. "RESEAUX DE NEURONES EN TRAITEMENT D'IMAGES - Des Modèles théoriques aux Applications Industrielles -." Phd thesis, Université de Bretagne occidentale - Brest, 1991. http://tel.archives-ouvertes.fr/tel-00101699.

Full text
Abstract:
Les travaux présentés portent sur les réseaux de neurones appliqués au
traitement du signal et de l'image. On se place d'emblée du point de vue de
l'industriel impliqué dans la recherche, c'est à dire que l'on s'intéresse à
des problèmes réalistes, sans pour autant négliger la recherche
théorique.

Dans une première partie, nous montrons
l'intérêt des réseaux de neurones comme source d'inspiration pour la
conception de nouveaux algorithmes. Nous proposons en particulier une
structure originale pour la prédiction, ainsi que de nouveaux algorithmes de
Quantification Vectorielle. Les propriétés des algorithmes existants sont
également éclaircies du point de vue théorique, et des méthodes de réglage
automatique de leurs paramètres sont proposées.

On montre ensuite les capacités des réseaux de neurones à traiter un vaste champ
d'applications d'intérêt industriel. Pour divers problèmes de traitement de
l'image et du signal (de la segmentation à la séparation de sources, en
passant par la reconnaissance de formes et la compression de données), on
montre qu'il est possible de développer à moindre coût une solution neuronale
efficace.
APA, Harvard, Vancouver, ISO, and other styles
12

Bertrand, Hadrien. "Optimisation d'hyper-paramètres en apprentissage profond et apprentissage par transfert : applications en imagerie médicale." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT001/document.

Full text
Abstract:
Ces dernières années, l'apprentissage profond a complètement changé le domaine de vision par ordinateur. Plus rapide, donnant de meilleurs résultats, et nécessitant une expertise moindre pour être utilisé que les méthodes classiques de vision par ordinateur, l'apprentissage profond est devenu omniprésent dans tous les problèmes d'imagerie, y compris l'imagerie médicale.Au début de cette thèse, la construction de réseaux de neurones adaptés à des tâches spécifiques ne bénéficiait pas encore de suffisamment d'outils ni d'une compréhension approfondie. Afin de trouver automatiquement des réseaux de neurones adaptés à des tâches spécifiques, nous avons ainsi apporté des contributions à l’optimisation d’hyper-paramètres de réseaux de neurones. Cette thèse propose une comparaison de certaines méthodes d'optimisation, une amélioration en performance d'une de ces méthodes, l'optimisation bayésienne, et une nouvelle méthode d'optimisation d'hyper-paramètres basé sur la combinaison de deux méthodes existantes : l'optimisation bayésienne et hyperband.Une fois équipés de ces outils, nous les avons utilisés pour des problèmes d'imagerie médicale : la classification de champs de vue en IRM, et la segmentation du rein en échographie 3D pour deux groupes de patients. Cette dernière tâche a nécessité le développement d'une nouvelle méthode d'apprentissage par transfert reposant sur la modification du réseau de neurones source par l'ajout de nouvelles couches de transformations géométrique et d'intensité.En dernière partie, cette thèse revient vers les méthodes classiques de vision par ordinateur, et nous proposons un nouvel algorithme de segmentation qui combine les méthodes de déformations de modèles et l'apprentissage profond. Nous montrons comment utiliser un réseau de neurones pour prédire des transformations globales et locales sans accès aux vérités-terrains de ces transformations. Cette méthode est validé sur la tâche de la segmentation du rein en échographie 3D
In the last few years, deep learning has changed irrevocably the field of computer vision. Faster, giving better results, and requiring a lower degree of expertise to use than traditional computer vision methods, deep learning has become ubiquitous in every imaging application. This includes medical imaging applications. At the beginning of this thesis, there was still a strong lack of tools and understanding of how to build efficient neural networks for specific tasks. Thus this thesis first focused on the topic of hyper-parameter optimization for deep neural networks, i.e. methods for automatically finding efficient neural networks on specific tasks. The thesis includes a comparison of different methods, a performance improvement of one of these methods, Bayesian optimization, and the proposal of a new method of hyper-parameter optimization by combining two existing methods: Bayesian optimization and Hyperband.From there, we used these methods for medical imaging applications such as the classification of field-of-view in MRI, and the segmentation of the kidney in 3D ultrasound images across two populations of patients. This last task required the development of a new transfer learning method based on the modification of the source network by adding new geometric and intensity transformation layers.Finally this thesis loops back to older computer vision methods, and we propose a new segmentation algorithm combining template deformation and deep learning. We show how to use a neural network to predict global and local transformations without requiring the ground-truth of these transformations. The method is validated on the task of kidney segmentation in 3D US images
APA, Harvard, Vancouver, ISO, and other styles
13

Soulier, Bruno. "Sur la modélisation expérimentale en mécanique : précision, optimisation et applications industrielles." Cachan, Ecole normale supérieure, 1994. http://www.theses.fr/1994DENS0020.

Full text
Abstract:
ADans le domaine de la mécanique, en l'absence de modèles et de connaissances précises sur un phénomène physique, les activités de recherche et développement incluent très souvent des études expérimentales. Les applications sont nombreuses, aussi bien pour la mise au point que pour l'optimisation de procédés de fabrication et de produits. Dans ces différentes applications, l'expérimentation est motivée par l'obtention d'un modèle, tiré d'un nombre limité d'expériences, qui permet d'effectuer des prédictions ou une optimisation à l'intérieur du domaine expérimental. L'approche phénoménologique que nous présentons consiste à construire un modèle où, en entrée interviennent des facteurs contrôlés et maîtrisables supposés influents, et en sortie des réponses caractéristiques des phénomènes physiques étudiés. Nous étudions et mettons en oeuvre différentes méthodes issues de recherches en statistique (régression multilinéaire, approche bayésienne) et en intelligence artificielle (techniques d'apprentissage) qui permettent d'obtenir une modélisation du phénomène physique sur l'ensemble du domaine expérimental. Notre étude a pour objectif de minimiser l'influence des points d'essais sur la qualité et la précision de la modélisation expérimentale. La technique des plans d'expériences, en tant que technique de conduite et de campagne d'essais, fondée sur l'optimisation des techniques de régression linéaire, permet d'adopter une démarche formelle dans la définition des essais, et d'apprécier la confiance à accorder aux résultats. Nous avons développé un outil de conduite d'essais par plans d'expériences, construit autour d'une structure de données orientée objet, utilisant des techniques de programmation de l'intelligence artificielle, qui permet de construire des plans d'expériences orthogonaux et D-optimaux pouvant intégrer des essais existants et prendre en compte des contraintes sur le domaine d'etude, effectuer une analyse statistique et interpréter les résultats expérimentaux à l'aide d'outils graphiques. Cet outil prend en compte des outils statistiques dans le but d'estimer le degré de confiance et de précision de la modélisation expérimentale.
APA, Harvard, Vancouver, ISO, and other styles
14

Kannan, Hariprasad. "Quelques applications de l’optimisation numérique aux problèmes d’inférence et d’apprentissage." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC067/document.

Full text
Abstract:
Les relaxations en problème d’optimisation linéaire jouent un rôle central en inférence du maximum a posteriori (map) dans les champs aléatoires de Markov discrets. Nous étudions ici les avantages offerts par les méthodes de Newton pour résoudre efficacement le problème dual (au sens de Lagrange) d’une reformulation lisse du problème. Nous comparons ces dernières aux méthodes de premier ordre, à la fois en terme de vitesse de convergence et de robustesse au mauvais conditionnement du problème. Nous exposons donc un cadre général pour l’apprentissage non-supervisé basé sur le transport optimal et les régularisations parcimonieuses. Nous exhibons notamment une approche prometteuse pour résoudre le problème de la préimage dans l’acp à noyau. Du point de vue de l’optimisation, nous décrivons le calcul du gradient d’une version lisse de la norme p de Schatten et comment cette dernière peut être utilisée dans un schéma de majoration-minimisation
Numerical optimization and machine learning have had a fruitful relationship, from the perspective of both theory and application. In this thesis, we present an application oriented take on some inference and learning problems. Linear programming relaxations are central to maximum a posteriori (MAP) inference in discrete Markov Random Fields (MRFs). Especially, inference in higher-order MRFs presents challenges in terms of efficiency, scalability and solution quality. In this thesis, we study the benefit of using Newton methods to efficiently optimize the Lagrangian dual of a smooth version of the problem. We investigate their ability to achieve superior convergence behavior and to better handle the ill-conditioned nature of the formulation, as compared to first order methods. We show that it is indeed possible to obtain an efficient trust region Newton method, which uses the true Hessian, for a broad range of MAP inference problems. Given the specific opportunities and challenges in the MAP inference formulation, we present details concerning (i) efficient computation of the Hessian and Hessian-vector products, (ii) a strategy to damp the Newton step that aids efficient and correct optimization, (iii) steps to improve the efficiency of the conjugate gradient method through a truncation rule and a pre-conditioner. We also demonstrate through numerical experiments how a quasi-Newton method could be a good choice for MAP inference in large graphs. MAP inference based on a smooth formulation, could greatly benefit from efficient sum-product computation, which is required for computing the gradient and the Hessian. We show a way to perform sum-product computation for trees with sparse clique potentials. This result could be readily used by other algorithms, also. We show results demonstrating the usefulness of our approach using higher-order MRFs. Then, we discuss potential research topics regarding tightening the LP relaxation and parallel algorithms for MAP inference.Unsupervised learning is an important topic in machine learning and it could potentially help high dimensional problems like inference in graphical models. We show a general framework for unsupervised learning based on optimal transport and sparse regularization. Optimal transport presents interesting challenges from an optimization point of view with its simplex constraints on the rows and columns of the transport plan. We show one way to formulate efficient optimization problems inspired by optimal transport. This could be done by imposing only one set of the simplex constraints and by imposing structure on the transport plan through sparse regularization. We show how unsupervised learning algorithms like exemplar clustering, center based clustering and kernel PCA could fit into this framework based on different forms of regularization. We especially demonstrate a promising approach to address the pre-image problem in kernel PCA. Several methods have been proposed over the years, which generally assume certain types of kernels or have too many hyper-parameters or make restrictive approximations of the underlying geometry. We present a more general method, with only one hyper-parameter to tune and with some interesting geometric properties. From an optimization point of view, we show how to compute the gradient of a smooth version of the Schatten p-norm and how it can be used within a majorization-minimization scheme. Finally, we present results from our various experiments
APA, Harvard, Vancouver, ISO, and other styles
15

Nguyen, Bang Giang. "Classification en espaces fonctionnels utilisant la norme BV avec applications aux images ophtalmologiques et à la complexité du trafic aérien." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2473/.

Full text
Abstract:
Dans cette thèse, nous traitons deux problèmes différents, en utilisant le concept de variation totale. Le premier problème est la classification des vascularites dans l'angiographie du fond d'œil, et a pour but de faciliter le travail des ophtalmologistes pour diagnostiquer ce type de maladies auto-immunes. Il vise aussi à identifier sur les angiographies les éléments permettant de diagnostiquer la sclérose en plaques. A partir de certains résultats du premier problème, un second problème a pu être abordé, consistant à développer une nouvelle métrique de congestion d'espace aérien. Cette métrique permet de quantifier la complexité de gestion du trafic aérien dans une zone donnée et s'avère très utile dans les processus d'optimisation du système de gestion du trafic aérien (Air Trafic Management, ATM). Dans la première partie de cette thèse, nous introduisons les notions requises pour résoudre ces deux problèmes. Tout d'abord nous présentons le principe de variation totale, ainsi que la manière dont il est utilisé dans nos méthodes. Ensuite, nous détaillons le fonctionnement des machines à vecteurs supports (Support Vector Machines, SVM), qui sont des algorithmes d'apprentissage automatique utilisés pour la classification et la régression. Dans la deuxième partie de cette thèse, nous présentons d'abord un état de l'art des méthodes de segmentation et de mesure des vaisseaux sanguins dans les images rétiniennes, étape importante de notre méthode. Ensuite, nous décrivons notre méthode de classification des images rétiniennes. Pour commencer, nous détectons les régions pathologiques dans les images des patients malades en nous basant sur la norme BV calculée à chaque point le long de l'axe central des vaisseaux. Ensuite, pour classer les images, nous introduisons une stratégie d'extraction des caractéristiques pathologiques pour générer un ensemble de vecteurs de caractéristiques pathologiques qui représente l'ensemble d'images d'origine pour le SVM. Les images sont alors classées en utilisant des méthodes standard de classification par SVM. Enfin, la troisième partie décrit deux applications de la variation totale dans le domaine de l'ATM. Dans la première application, en partant des idées développées dans la deuxième partie, nous introduisons une méthode d'extraction des flux principaux d'avions de l'espace aérien. En nous basant sur les algorithmes utilisés dans la deuxième partie, nous avons développé un indicateur de complexité de l'espace aérien utilisable au niveau macroscopique. Cet indicateur est ensuite comparé à la métrique de densité habituelle, qui consiste simplement à compter le nombre d'avions dans un secteur de l'espace aérien. La seconde application se base sur un modèle par systèmes dynamiques du trafic aérien. Nous proposons une nouvelle métrique de complexité du trafic basée sur le calcul de la norme locale de variation totale vectorielle de la déviation relative du champ de vecteurs. Le but est de réduire la complexité. Trois scénarios de trafic différents sont étudiés pour évaluer la qualité de la méthode proposée
In this thesis, we deal with two different problems using Total Variation concept. The first problem concerns the classification of vasculitis in multiple sclerosis fundus angiography, aiming to help ophthalmologists to diagnose such autoimmune diseases. It also aims at determining potential angiography details in intermediate uveitis in order to help diagnosing multiple sclerosis. The second problem aims at developing new airspace congestion metric, which is an important index that is used for improving Air Traffic Management (ATM) capacity. In the first part of this thesis, we provide preliminary knowledge required to solve the above-mentioned problems. First, we present an overview of the Total Variation and express how it is used in our methods. Then, we present a tutorial on Support Vector Machines (SVMs) which is a learning algorithm used for classification and regression. In the second part of this thesis, we first provide a review of methods for segmentation and measurement of blood vessel in retinal image that is an important step in our method. Then, we present our proposed method for classification of retinal images. First, we detect the diseased region in the pathological images based on the computation of BV norm at each point along the centerline of the blood vessels. Then, to classify the images, we introduce a feature extraction strategy to generate a set of feature vectors that represents the input image set for the SVMs. After that, a standard SVM classifier is applied in order to classify the images. Finally, in the third part of this thesis, we address two applications of TV in the ATM domain. In the first application, based on the ideas developed in the second part, we introduce a methodology to extract the main air traffic flows in the airspace. Moreover, we develop a new airspace complexity indicator which can be used to organize air traffic at macroscopic level. This indicator is then compared to the regular density metric which is computed just by counting the number of aircraft in the airspace sector. The second application is based on a dynamical system model of air traffic. We propose a method for developing a new traffic complexity metric by computing the local vectorial total variation norm of the relative deviation vector field. Its aim is to reduce complexity. Three different traffic situations are investigated to evaluate the fitness of the proposed method
APA, Harvard, Vancouver, ISO, and other styles
16

Crémilleux, Bruno. "Induction automatique : aspects théoriques, le système ARBRE, applications en médecine." Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339492.

Full text
Abstract:
L'objectif de ce travail est d'étudier l'induction en tant qu'outil exploratoire de bases d'exemples. L'induction automatique fournit une description tenant compte de l'ensemble des individus de la base d'exemples et en extrait la connaissance nécessaire à la résolution d'un problème. Il existe de nombreux algorithmes d'induction employant différents critères pragmatiques pour sélectionner une variable. Une formalisation mathématique du problème de la sélection d'une variable est proposée. Elle permet d'une part de définir une famille de "bons" critères reposant sur le choix d'une fonction strictement concave. D'autre part, les systèmes d'induction incertaine décrits dans la littérature emploient des techniques d'élagage dont le but est la construction d'arbres de classement. Une méthode d'élagage liée à un indice de qualité et adaptée à notre usage de l'induction incertaine est proposée. Elle montre en quoi la construction et l'élagage d'un arbre relèvent des mêmes concepts théoriques (l'indice de qualité fait intervenir les résultats des calculs entrepris lors de la construction de l'arbre). Un système d'induction (ARBRE) mettant enoeuvre ces résultats théoriques a été développé. il met en évidence les spécifications qui, à notre avis, sont indispensables pour un système en domaine incertain. Il permet une exploration immédiate de base d'exemples sans connaissance préalable du domaine, et représente la connaissance acquise sous la forme d'arbres d'induction. Trois problèmes médicaux réels montrent l'intérêt de l'usage d'un tel système, adapté à tout domaine où la connaissance est incertaine.
APA, Harvard, Vancouver, ISO, and other styles
17

Bindel, Sébastien. "Algorithmique et applications pour les flottes hétérogènes multiniveaux de matériels mobiles communicants autonomes." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0172/document.

Full text
Abstract:
Les véhicules autonomes sont des engins mobiles caractérisés par l’absence de pilote à leur bord et font partie d’un système plus global comprenant des éléments tels qu’une station de contrôle. Ils présentent la particularité d’avoir une conception spécifique liée à la mission assignée et peuvent être déployés dans des milieux divers et hétérogènes, incluant le milieu spatial, aérien,terrestre, marin de surface et sous-marin.Certaines missions requièrent la coopération de véhicules hétérogènes, où chaque type de véhicule réalise une mission locale pour permettre la réalisation d’une mission globale. La coopération entre les véhicules nécessite l’interopérabilité des communications. Même si des efforts ont été entrepris dans ce sens en normalisant les couches applicatives, ces travaux restent insuffisants.En effet, il n’existe pas de protocole qui assure l’acheminement des données entre différents types de véhicules qui possèdent une mobilité propre et utilisent parfois des médias de communication différents, comme les engins sous-marins et terrestres. L’objectif principal de cette thèse est de permettre à tous les engins de communiquer entre eux et de rendre cette interconnexion transparente. Pour cela, nous adoptons une approche multicouche qui nous permet de diffuser et d’acheminer des données vers n’importe quel engin. Il devient alors possible pour chaque véhicule de transmettre des données de manière transparente à un autre véhicule de nature différente sans connaître la topologie globale du réseau. Pour cela nous avons conçu un protocole de routage qui adapte sa politique en fonction du contexte et de l’environnement.Nous exploitons également un mode de diffusion qui permet de transmettre des données vers un engin faisant partie d’un groupe cible en nous basant sur leurs caractéristiques afin d’acheminer les données de manière optimale
Unmanned vehicles are defined as autonomous entities with no operator on board. They are a part of a global system called Unmanned System which also includes elements such as a control station. These vehicles are designed to fulfil the requirements of assigned missions and can be deployed in spatial, aerial, terrestrial and maritime environments. Since a mission cannot be accomplished with a single vehicle, vehicles have to cooperate in order to achieve a global mission. However, cooperation requires communication interoperability between all vehicles. Even if previous works have standardized application protocols, it is not sufficient to ensure data delivery between all vehicles, since they have a specific mobility pattern and sometimes different network interfaces. The main goal of this thesis is to offer a seamless network, including all kinds of unmanned systems. We propose a cross layer approach in order to route and deliver data to any vehicle. In this context, each vehicle is able to transmit data to another without information on the global topology. We have developed a routing protocol, which adapts its strategy, according to the contextand to the network environment. In addition, we exploit the any cast diffusion technique based on vehicles features in order to adopt an optimal routing scheme
APA, Harvard, Vancouver, ISO, and other styles
18

Kallas, Maya. "Méthodes à noyaux en reconnaissance de formes, prédiction et classification : applications aux biosignaux." Troyes, 2012. http://www.theses.fr/2012TROY0026.

Full text
Abstract:
Le foisonnement des méthodes à noyaux réside dans l’astuce du noyau, induisant implicitement une transformation non-linéaire à coût calculatoire réduit. Cependant, la transformation inverse est souvent cruciale. La résolution de ce problème, dit de pré-image, permet de nouveaux domaines d’applications de ces méthodes. L’objectif de cette thèse est de montrer que les récentes avancées en théorie de l’apprentissage statistique apportent des solutions pertinentes à plusieurs problèmes soulevés en traitement du signal et des images. La première partie porte sur la résolution du problème de pré-image avec contraintes imposées par la physiologie. En particulier, la nonnégativité est probablement la plus couramment énoncée. Les contraintes de nonnégativité du résultat ainsi que celles de l’additivité des contributions, induisant une certaine parcimonie, sont étudiées. La seconde partie porte sur l’analyse de séries temporelles, selon une approche prédictive. Des modèles autorégressifs sont élaborés dans l’espace transformé, la prédiction nécessitant la résolution du problème de pré-image. Deux modèles à noyaux de prédiction sont considérés : le premier basé sur le problème de moindres carrés, et le second sur les équations de Yule-Walker. La dernière partie traite le problème de classification d’électrocardiogrammes, afin d’y détecter des anomalies. La détection et la classification multi-classes sont examinées au jour des machines à vecteurs supports et des cartes d’auto-organisation
The proliferation of kernel methods lies essentially on the kernel trick, which induces an implicit nonlinear transformation with reduced computational cost. Still, the inverse transformation is often necessary. The resolution of this so-called pre-image problem enables new fields of applications of these methods. The main purpose of this thesis is to show that recent advances in statistical learning theory provide relevant solutions to several issues raised in signal and image processing. The first part focuses on the pre-image problem, and on solutions with constraints imposed by physiology. The non-negativity is probably the most commonly stated constraints when dealing with natural signals and images. Nonnegativity constraints on the result, as well as on the additivity of the contributions, are studied. The second part focuses on time series analysis according to a predictive approach. Autoregressive models are developed in the transformed space, while the prediction requires solving the pre-image problem. Two kernelbased predictive models are considered: the first one is derived by solving a least-squares problem, and the second one by providing the adequate Yule-Walker equations. The last part deals with the classification task for electrocardiograms, in order to detect anomalies. Detection and multi-class classification are explored in the light of support vector machines and self-organizing maps
APA, Harvard, Vancouver, ISO, and other styles
19

Flamary, Rémi. "Apprentissage statistique pour le signal : applications aux interfaces cerveau-machine." Phd thesis, Université de Rouen, 2011. http://tel.archives-ouvertes.fr/tel-00687501.

Full text
Abstract:
Les Interfaces Cerveau-Machine (ICM) nécessitent l'utilisation de méthodes d'apprentissage statistique pour la reconnaissance de signaux. Dans cette thèse, nous proposons une approche générale permettant d'intégrer des connaissances a priori dans le processus d'apprentissage. Cette approche consiste à apprendre de manière jointe le classifieur et la représentation des données lors d'une optimisation unique. Nous nous sommes plus particulièrement intéressés à des problèmes de sélection de capteurs et proposons plusieurs termes de régularisation adaptés pour ces problèmes. Notre première contribution est une méthode d'apprentissage supervisé de filtres: le filtrage vaste marge. Un filtrage maximisant la marge entre les échantillons est appris et permet de s'adapter automatiquement aux caractéristiques des signaux tout en restant interprétable. Une application ICM et une extension 2D du filtrage a été réalisée. La seconde contribution est une méthode d'apprentissage multitâche parcimonieuse. Elle permet de sélectionner de manière jointe un ensemble de noyaux pertinents pour l'ensemble des tâches de classification. Des algorithmes efficaces ont été proposés pour résoudre le problème d'optimisation et des expérimentations numériques ont montré l'intérêt de l'approche. Finalement, la troisième contribution est une application de l'apprentissage multitâche parcimonieux sur un ensemble de jeux de données ICM. Un terme de régularisation plus général permettant de promouvoir une similarité entre classifieurs est également proposé. Les résultats numériques ont montré qu'une réduction importante du temps de calibration peut être obtenue grâce à l'apprentissage multitâche proposé.
APA, Harvard, Vancouver, ISO, and other styles
20

Bréhélin, Laurent. "Modèles de Markov cachés et apprentissage pas fusions d'états : algorithmes, applications, utilisations pour le test de circuits intégrés." Montpellier 2, 2001. http://www.theses.fr/2001MON20051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Fauvel, Kevin. "Enhancing performance and explainability of multivariate time series machine learning methods : applications for social impact in dairy resource monitoring and earthquake early warning." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S043.

Full text
Abstract:
Le déploiement massif de capteurs couplé à leur exploitation dans de nombreux secteurs génère une masse considérable de données multivariées qui se sont révélées clés pour la recherche scientifique, les activités des entreprises et la définition de politiques publiques. Plus spécifiquement, les données multivariées qui intègrent une évolution temporelle, c’est-à-dire des séries temporelles, ont reçu une attention toute particulière ces dernières années, notamment grâce à des applications critiques de monitoring (e.g. mobilité, santé) et l’apprentissage automatique. Cependant, pour de nombreuses applications, l’adoption d’algorithmes d’apprentissage automatique ne peut se reposer uniquement sur la performance. Par exemple, le règlement général sur la protection des données de l’Union européenne, entré en application le 25 Mai 2018, introduit un droit à l’explication pour tous les individus afin qu’ils obtiennent des « meaningful explanations of the logic involved » lorsque la prise de décision automatisée a des « legal effects » sur les individus ou les affecte significativement. Les modèles d’apprentissage automatique de séries temporelles multivariées de l’état de l’art les plus performants sont des modèles difficiles à comprendre (« black-box »), qui se reposent sur des méthodes d’explicabilité applicables à n’importe quel modèle d’apprentissage automatique (post-hoc modèle-agnostique). L’axe de travail principal au sein des méthodes d’explicabilité post-hoc modèle-agnostique consiste à approximer la surface de décision d’un modèle en utilisant un modèle de remplacement explicable. Cependant, les explications du modèle de remplacement ne peuvent pas être parfaitement exactes au regard du modèle original, ce qui constitue un prérequis pour de nombreuses applications. L’exactitude est cruciale car elle correspond au niveau de confiance que l’utilisateur peut porter aux explications relatives aux prédictions du modèle, c’est-à-dire à quel point les explications reflètent ce que le modèle calcule.Cette thèse propose de nouvelles approches pour améliorer la performance et l’explicabilité des méthodes d’apprentissage automatique de séries temporelles multivariées, et établit de nouvelles connaissances concernant deux applications réelles
The prevalent deployment and usage of sensors in a wide range of sectors generate an abundance of multivariate data which has proven to be instrumental for researches, businesses and policies. More specifically, multivariate data which integrates temporal evolution, i.e. Multivariate Time Series (MTS), has received significant interests in recent years, driven by high resolution monitoring applications (e.g. healthcare, mobility) and machine learning. However, for many applications, the adoption of machine learning methods cannot rely solely on their prediction performance. For example, the European Union’s General Data Protection Regulation, which became enforceable on 25 May 2018, introduces a right to explanation for all individuals so that they can obtain “meaningful explanations of the logic involved” when automated decision-making has “legal effects” on individuals or similarly “significantly affecting” them. The current best performing state-of-the-art MTS machine learning methods are “black-box” models, i.e. complicated-to-understand models, which rely on explainability methods providing explanations from any machine learning model to support their predictions (post-hoc model-agnostic). The main line of work in post-hoc model-agnostic explainability methods approximates the decision surface of a model using an explainable surrogate model. However, the explanations from the surrogate models cannot be perfectly faithful with respect to the original model, which is a prerequisite for numerous applications. Faithfulness is critical as it corresponds to the level of trust an end-user can have in the explanations of model predictions, i.e. the level of relatedness of the explanations to what the model actually computes. This thesis introduces new approaches to enhance both performance and explainability of MTS machine learning methods, and derive insights from the new methods about two real-world applications
APA, Harvard, Vancouver, ISO, and other styles
22

Jeong, Seong-Gyun. "Modélisation de structures curvilignes et ses applications en vision par ordinateur." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4086/document.

Full text
Abstract:
Dans cette thèse, nous proposons des modèles de reconstruction de la structure curviligne fondée sur la modélisation stochastique et sur un système d’apprentissage structuré. Nous supposons que le réseau de lignes, dans sa totalité, peut être décomposé en un ensemble de segments de ligne avec des longueurs et orientations variables. Cette hypothèse nous permet de reconstituer des formes arbitraires de la structure curviligne pour différents types de jeux de données. Nous calculons les descripteurs des caractéristiques curvilignes fondés sur les profils des gradients d’image et les profils morphologiques. Pour le modèle stochastique, nous proposons des contraintes préalables qui définissent l'interaction spatiale des segments de ligne. Pour obtenir une configuration optimale correspondant à la structure curviligne latente, nous combinons plusieurs hypothèses de ligne qui sont calculées par échantillonnage MCMC avec différents jeux de paramètres. De plus, nous apprenons une fonction de classement qui prédit la correspondance du segment de ligne donné avec les structures curvilignes latentes. Une nouvelle méthode fondée sur les graphes est proposée afin d’inférer la structure sous-jacente curviligne en utilisant les classements de sortie des segments de ligne. Nous utilisons nos modèles pour analyser la structure curviligne sur des images statiques. Les résultats expérimentaux sur de nombreux types de jeux de données démontrent que les modèles de structure curviligne proposés surpassent les techniques de l'état de l'art
In this dissertation, we propose curvilinear structure reconstruction models based on stochastic modeling and ranking learning system. We assume that the entire line network can be decomposed into a set of line segments with variable lengths and orientations. This assumption enables us to reconstruct arbitrary shapes of curvilinear structure for different types of datasets. We compute curvilinear feature descriptors based on the image gradient profiles and the morphological profiles. For the stochastic model, we propose prior constraints that define the spatial interaction of line segments. To obtain an optimal configuration corresponding to the latent curvilinear structure, we combine multiple line hypotheses which are computed by MCMC sampling with different parameter sets. Moreover, we learn a ranking function which predicts the correspondence of the given line segment and the latent curvilinear structures. A novel graph-based method is proposed to infer the underlying curvilinear structure using the output rankings of the line segments. We apply our models to analyze curvilinear structure on static images. Experimental results on wide types of datasets demonstrate that the proposed curvilinear structure modeling outperforms the state-of-the-art techniques
APA, Harvard, Vancouver, ISO, and other styles
23

García, Durán Alberto. "Learning representations in multi-relational graphs : algorithms and applications." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2271/document.

Full text
Abstract:
Internet offre une énorme quantité d’informations à portée de main et dans une telle variété de sujets, que tout le monde est en mesure d’accéder à une énorme variété de connaissances. Une telle grande quantité d’information pourrait apporter un saut en avant dans de nombreux domaines (moteurs de recherche, réponses aux questions, tâches NLP liées) si elle est bien utilisée. De cette façon, un enjeu crucial de la communauté d’intelligence artificielle a été de recueillir, d’organiser et de faire un usage intelligent de cette quantité croissante de connaissances disponibles. Heureusement, depuis un certain temps déjà des efforts importants ont été faits dans la collecte et l’organisation des connaissances, et beaucoup d’informations structurées peuvent être trouvées dans des dépôts appelés Bases des Connaissances (BCs). Freebase, Entity Graph Facebook ou Knowledge Graph de Google sont de bons exemples de BCs. Un grand problème des BCs c’est qu’ils sont loin d’êtres complets. Par exemple, dans Freebase seulement environ 30% des gens ont des informations sur leur nationalité. Cette thèse présente plusieurs méthodes pour ajouter de nouveaux liens entre les entités existantes de la BC basée sur l’apprentissage des représentations qui optimisent une fonction d’énergie définie. Ces modèles peuvent également être utilisés pour attribuer des probabilités à triples extraites du Web. On propose également une nouvelle application pour faire usage de cette information structurée pour générer des informations non structurées (spécifiquement des questions en langage naturel). On pense par rapport à ce problème comme un modèle de traduction automatique, où on n’a pas de langage correct comme entrée, mais un langage structuré. Nous adaptons le RNN codeur-décodeur à ces paramètres pour rendre possible cette traduction
Internet provides a huge amount of information at hand in such a variety of topics, that now everyone is able to access to any kind of knowledge. Such a big quantity of information could bring a leap forward in many areas if used properly. This way, a crucial challenge of the Artificial Intelligence community has been to gather, organize and make intelligent use of this growing amount of available knowledge. Fortunately, important efforts have been made in gathering and organizing knowledge for some time now, and a lot of structured information can be found in repositories called Knowledge Bases (KBs). A main issue with KBs is that they are far from being complete. This thesis proposes several methods to add new links between the existing entities of the KB based on the learning of representations that optimize some defined energy function. We also propose a novel application to make use of this structured information to generate questions in natural language
APA, Harvard, Vancouver, ISO, and other styles
24

Genest, Diane. "Imaging of the fish embryo model and applications to toxicology." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2008/document.

Full text
Abstract:
De nombreuses substances chimiques sont utilisées par l’industrie cosmétique pour entrer dans la composition de formules. En dehors de la nécessité d’évaluer leur efficacité, l’industrie cosmétique se doit surtout d’évaluer la sécurité de leurs substances pour l’humain. L'évaluation toxicologique des substances chimiques est réalisée dans le but de révéler un effet toxique potentiel de la substance testée. Parmi les effets potentiels que l’on souhaite détecter, la toxicité du développement (tératogénicité), c’est-à-dire la capacité d’une substance à provoquer l’apparition d’anomalies lors du développement embryonnaire, est fondamentale. En accord avec les législations internationales qui interdisent à l’industrie cosmétique d’avoir recours à des tests sur animaux de laboratoire pour l’évaluation de leurs substances, l’évaluation toxicologique de ces substances se base sur les résultats de tests in silico, in vitro et de tests faits sur des modèles alternatifs aux animaux de laboratoire. Pour le moment cependant, peu de méthodes alternatives existent et ont été validées pour la toxicologie du développement. Le développement de nouvelles méthodes alternatives est donc requis. D'autre part, en plus de l’évaluation de la sécurité des substances chez l’humain, l’évaluation de la toxicité pour l’environnement est nécessaire. L’usage de la plupart des produits cosmétiques et d’hygiène corporelle conduit, après lavage et rinçage, à un rejet à l’égout et donc dans les cours d’eau. Il en résulte que les environnements aquatiques (eaux de surface et milieux marins côtiers) sont parfois exposés aux substances chimiques incluses dans les formules cosmétiques. Ainsi, l’évaluation toxicologique environnementale des cosmétiques et de leurs ingrédients nécessite de connaître leur toxicité sur des organismes représentatifs de chaînes alimentaires aquatiques. Dans ce contexte, le modèle embryon de poisson présente un double avantage pour l’industrie cosmétique. Ce modèle, jugé par les législations internationales comme étant éthiquement acceptable pour les évaluations toxicologiques réalisées par l’industrie cosmétique, est représentatif des organismes aquatiques. Il est donc pertinent pour évaluer la toxicité environnementale des substances chimiques. D'autre part, ce modèle apparaît prometteur pour évaluer l’effet tératogène de substances chimiques chez l’humain. Pour ces raisons, un test d’analyse de la tératogénicité des substances chimiques est actuellement développé. Ce test se base sur l’analyse d’embryons de medaka (Oryzias Latipes) à 9 jours post fertilisation, après exposition des embryons par balnéation à des substances à concentrations déterminées. L’analyse de paramètres fonctionnels et morphologiques conduit au calcul d’un indice tératogène, qui permet de tirer une conclusion quant à l’effet tératogène de la substance testée. Cet indice est calculé à partir des mesures du taux de mortalité et du taux de malformations chez les embryons. L’objectif de ce projet est d’automatiser le test d’analyse de la tératogénicité, par classification automatique des embryons faite à partir d’image et de vidéo. La première méthode développée concerne la détection des battements cardiaques à partir de séquences vidéos, dans le but de calculer le taux de mortalité. Nous nous sommes ensuite concentrés sur deux types de malformations courantes qui sont les malformations axiales, et l'absence de vessie natatoire, en utilisant une méthode d'apprentissage automatique. Cette analyse doit être complétée par l'analyse d'autres malformations et conduire à un calcul du taux de malformations et de l’indice tératogène pour la substance testée
Numerous chemicals are used as ingredients by the cosmetics industry and are included in cosmetics formula. Aside from the assessment of their efficacy, the cosmetics industry especially needs to assess the safety of their chemicals for human. Toxicological screening of chemicals is performed with the aim of revealing the potential toxic effect of the tested chemical. Among the potential effects we want to detect, the developmental toxicity of the chemical (teratogenicity), meaning its capability of provoking abnormalities during the embryonic development, is crucial. With respect to the international regulations that forbid the use of animal testing for the safety assessment of cosmetics, the toxicological assessment of chemicals must base on an ensemble of in silico assays, in vitro assays and alternative models based assays. For now, a few alternative methods have been validated in the field of developmental toxicology. The development of new alternative methods is thus required. In addition to the safety assessment, the environmental toxicity assessment is also required. The use of most of cosmetics and personal care products leads to their rejection in waterways after washing and rince. This results in the exposition of some aquatic environments (surface waters and coastal marine environments) to chemicals included in cosmetics and personal care products. Thus, the environmental assessment of cosmetics and of their ingredients requires the knowledge of their toxicity on organisms that are representative of aquatic food chains. In this context, the fish embryo model, which is ethically acceptable according to international regulations, presents a dual advantage for the cosmetics industry. Firstly, as a model representative of aquatic organisms, it is accurate for the environmental assessment of chemicals. Secondly, this model is promising for the assessment of the teratogenic effect of chemicals on human. For this reason, a teratogenicity assessment test is developed. This test is based on the analysis of medaka fish embryos (Oryzias Latipes) at 9 days post fertilization, after balneation in a predetermined concentration of the chemical under study. The analysis of functional and morphological parameters allows to calculate a teratogenicity index, that depends on both rates of dead and malformed embryos. This index allows to to draw a conclusion concerning the teratogenic effect of the chemical.The objective of this project is to automate the teratogenicity test, by automated image and video classification. A first method is developed that aims to automatically detect embryo heart beats from acquired video sequences. This method will allow to calculate the proportion of dead embryos. We then focus on the detection of two common malformations: axial malformations and absence of a swim bladder, based on a machine learning classification. This analysis must be completed by the detection of other malformations so that we can measure the rate of malformed embryos and thus, calculate the teratogenicity index of the tested chemical
APA, Harvard, Vancouver, ISO, and other styles
25

Belilovsky, Eugene. "Apprentissage de graphes structuré et parcimonieux dans des données de haute dimension avec applications à l’imagerie cérébrale." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC027.

Full text
Abstract:
Cette thèse présente de nouvelles méthodes d’apprentissage structuré et parcimonieux sur les graphes, ce qui permet de résoudre une large variété de problèmes d’imagerie cérébrale, ainsi que d’autres problèmes en haute dimension avec peu d’échantillon. La première partie de cette thèse propose des relaxation convexe de pénalité discrète et combinatoriale impliquant de la parcimonie et bounded total variation d’un graphe, ainsi que la bounded `2. Ceux-ci sont dévelopé dansle but d’apprendre un modèle linéaire interprétable et on démontre son efficacacité sur des données d’imageries cérébrales ainsi que sur les problèmes de reconstructions parcimonieux.Les sections successives de cette thèse traite de la découverte de structure sur des modèles graphiques “undirected” construit à partir de peu de données. En particulier, on se concentre sur des hypothèses de parcimonie et autres hypothèses de structures dans les modèles graphiques gaussiens. Deux contributions s’en dégagent. On construit une approche pour identifier les différentes entre des modèles graphiques gaussiens (GGMs) qui partagent la même structure sous-jacente. On dérive la distribution de différences de paramètres sous une pénalité jointe quand la différence des paramètres est parcimonieuse. On montre ensuite comment cette approche peut être utilisée pour obtenir des intervalles de confiances sur les différences prises par le GGM sur les arêtes. De là, on introduit un nouvel algorithme d’apprentissage lié au problème de découverte de structure sur les modèles graphiques non dirigées des échantillons observés. On démontre que les réseaux de neurones peuvent être utilisés pour apprendre des estimateurs efficacaces de ce problèmes. On montre empiriquement que ces méthodes sont une alternatives flexible et performantes par rapport aux techniques existantes
This dissertation presents novel structured sparse learning methods on graphs that address commonly found problems in the analysis of neuroimaging data as well as other high dimensional data with few samples. The first part of the thesis proposes convex relaxations of discrete and combinatorial penalties involving sparsity and bounded total variation on a graph as well as bounded `2 norm. These are developed with the aim of learning an interpretable predictive linear model and we demonstrate their effectiveness on neuroimaging data as well as a sparse image recovery problem.The subsequent parts of the thesis considers structure discovery of undirected graphical models from few observational data. In particular we focus on invoking sparsity and other structured assumptions in Gaussian Graphical Models (GGMs). To this end we make two contributions. We show an approach to identify differences in Gaussian Graphical Models (GGMs) known to have similar structure. We derive the distribution of parameter differences under a joint penalty when parameters are known to be sparse in the difference. We then show how this approach can be used to obtain confidence intervals on edge differences in GGMs. We then introduce a novel learning based approach to the problem structure discovery of undirected graphical models from observational data. We demonstrate how neural networks can be used to learn effective estimators for this problem. This is empirically shown to be flexible and efficient alternatives to existing techniques
APA, Harvard, Vancouver, ISO, and other styles
26

Zaarour, Iyad. "Contributions à la découverte des stratégies d'écriture d'élèves de scolarité primaire." Rouen, 2004. http://www.theses.fr/2004ROUES001.

Full text
Abstract:
L'objet de cet article est celui de présenter une étude longitudinale qui assure une aide au suivi d'élèves typique en scolarité primaire. Nous proposons une méthode pour la découverte de groupes d'élèves partageant les mêmes stratégies1 d'écriture tout au long de leur scolarité primaire. Acquis à partir des tests d'écritures et de dessin, nos données sont représentées par un modèle graphique probabiliste, les "réseaux bayésiens". La structure du réseau étant partiellement déterminée par des connaissances a priori des experts. Une stratégie d'écriture est représentée dans le réseau par une variable cachée. Nous considérons d'abord que chacun des tests d'écritures est représenté par une stratégie locale et qu'il existe une stratégie globale qui agit sur chacune des stratégies locales. Nous construisons ainsi un modèle Globale Hierarchie (GH), ensuite nous utilisons l'inférence bayésien comme un outil de classification automatique pour pouvoir lier les stratégies locales aux stratégies globales et modéliser la causalité (ou la dépendance) entre variables et stratégie donnée. Il ressort (découle) de l'inférence que dans chaque test, deux stratégies locales regroupant 86% de la population, puis nous redécouvrons ces deux stratégies locales dans deux stratégies globales(Glob1 et Glob4), ces derniers correspondent à des élèves normo-scripteurs (NS) et normo-scripteurs plus avancés (NSA). De point de vu longitudinal, la distribution des élèves par niveau scolaire des stratégies d'écriture globales (NS et NSA) est constante pour les trois périodes d'acquisitions, de même la probabilité transition entre NS et NSA est encore constante au cours du temps. Enfin les enfants passent graduellement de G1 a G4 par niveau scolaire
The aim of this study is to bring a contribution to the realization of the evolution follow-up in writing among typical pupils in primary education. For this purpose, we have developed a software for the acquisition of handwritten tracings and the automatic extraction of features from these tracings. Distributed on three periods of about six months each, the acquisitions have therefore been achieved three times for the same pupils in the same experimental conditions, these tracings being acquired online by means of a digitizer. An unsupervised classification is first applied on a set of dynamic features chosen by an expert in the field of child's development psychology; strong forms are thus selected as steady clusters from the obtained partitions. With this unsupervised approach, we have thus discovered three strategies: a first one which is performant in control and global planning, a second one labeled local in control and planning, and a third one which is an unstable intermediary strategy. Next we modeled our problem by means of a probabilistic graphical model (bayesian network) in which the writing strategy is represented by a hidden variable. We build a global hierarchical model in order to link local and global strategies and model the probabilistic dependance between variables and strategies. Our hierarchical model, learnt with real data, enables us to discover two global strategies that correspond to normo-writer pupils and more advanced normo-writers. These two strategies are consistent: the distribution of typical pupils by school level is constant over time, and the probability of transition between (or within) these strategies is also constant over time
APA, Harvard, Vancouver, ISO, and other styles
27

Bilodeau, Anthony. "Apprentissage faiblement supervisé appliqué à la segmentation d'images de protéines neuronales." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/39752.

Full text
Abstract:
Titre de l'écran-titre (visionné le 9 juillet 2020)
Thèse ou mémoire avec insertion d'articles
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2020-2021
En biologie cellulaire, la microscopie optique est couramment utilisée pour visualiser et caractériser la présence et la morphologie des structures biologiques. Suite à l’acquisition, un expert devra effectuer l’annotation des structures pour quantification. Cette tâche est ardue, requiert de nombreuses heures de travail, parfois répétitif, qui peut résulter en erreurs d’annotations causées par la fatigue d’étiquetage. L’apprentissage machine promet l’automatisation de tâches complexes à partir d’un grand lot de données exemples annotés. Mon projet de maîtrise propose d’utiliser des techniques faiblement supervisées, où les annotations requises pour l’entraînement sont réduites et/ou moins précises, pour la segmentation de structures neuronales. J’ai d’abord testé l’utilisation de polygones délimitant la structure d’intérêt pour la tâche complexe de segmentation de la protéine neuronale F-actine dans des images de microscopie à super-résolution. La complexité de la tâche est supportée par la morphologie hétérogène des neurones, le nombre élevé d’instances à segmenter dans une image et la présence de nombreux distracteurs. Malgré ces difficultés, l’utilisation d’annotations faibles a permis de quantifier un changement novateur de la conformation de la protéine F-actine en fonction de l’activité neuronale. J’ai simplifié davantage la tâche d’annotation en requérant seulement des étiquettes binaires renseignant sur la présence des structures dans l’image réduisant d’un facteur 30 le temps d’annotation. De cette façon, l’algorithme est entraîné à prédire le contenu d’une image et extrait ensuite les caractéristiques sémantiques importantes pour la reconnaissance de la structure d’intérêt à l’aide de mécanismes d’attention. La précision de segmentation obtenue sur les images de F-actine est supérieure à celle des annotations polygonales et équivalente à celle des annotations précises d’un expert. Cette nouvelle approche devrait faciliter la quantification des changements dynamiques qui se produisent sous le microscope dans des cellules vivantes et réduire les erreurs causées par l’inattention ou le biais de sélection des régions d’intérêt dans les images de microscopie.
In cell biology, optical microscopy is commonly used to visualize and characterize the presenceand morphology of biological structures. Following the acquisition, an expert will have toannotate the structures for quantification. This is a difficult task, requiring many hours ofwork, sometimes repetitive, which can result in annotation errors caused by labelling fatigue.Machine learning promises to automate complex tasks from a large set of annotated sampledata. My master’s project consists of using weakly supervised techniques, where the anno-tations required for training are reduced and/or less precise, for the segmentation of neuralstructures.I first tested the use of polygons delimiting the structure of interest for the complex taskof segmentation of the neuronal protein F-actin in super-resolution microscopy images. Thecomplexity of the task is supported by the heterogeneous morphology of neurons, the highnumber of instances to segment in an image and the presence of many distractors. Despitethese difficulties, the use of weak annotations has made it possible to quantify an innovativechange in the conformation of the F-actin protein as a function of neuronal activity. I furthersimplified the annotation task by requiring only binary labels that indicate the presence ofstructures in the image, reducing annotation time by a factor of 30. In this way, the algorithmis trained to predict the content of an image and then extract the semantic characteristicsimportant for recognizing the structure of interest using attention mechanisms. The segmen-tation accuracy obtained on F-actin images is higher than that of polygonal annotations andequivalent to that of an expert’s precise annotations. This new approach should facilitate thequantification of dynamic changes that occur under the microscope in living cells and reduceerrors caused by inattention or bias in the selection of regions of interest in microscopy images.
APA, Harvard, Vancouver, ISO, and other styles
28

Bastos, castro Marcio. "Optimisation de la performance des applications de mémoire transactionnelle sur des plates-formes multicoeurs : une approche basée sur l'apprentissage automatique." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00766983.

Full text
Abstract:
Le concept de processeur multicœurs constitue le facteur dominant pour offrir des hautes performances aux applications parallèles. Afin de développer des applications parallèles capable de tirer profit de ces plate-formes, les développeurs doivent prendre en compte plusieurs aspects, allant de l'architecture aux caractéristiques propres à l'application. Dans ce contexte, la Mémoire Transactionnelle (Transactional Memory - TM) apparaît comme une alternative intéressante à la synchronisation basée sur les verrous pour ces plates-formes. Elle permet aux programmeurs d'écrire du code parallèle encapsulé dans des transactions, offrant des garanties comme l'atomicité et l'isolement. Lors de l'exécution, les opérations sont exécutées spéculativement et les conflits sont résolus par ré-exécution des transactions en conflit. Bien que le modèle de TM ait pour but de simplifier la programmation concurrente, les meilleures performances ne pourront être obtenues que si l'exécutif est capable de s'adapter aux caractéristiques des applications et de la plate-forme. Les contributions de cette thèse concernent l'analyse et l'amélioration des performances des applications basées sur la Mémoire Transactionnelle Logicielle (Software Transactional Memory - STM) pour des plates-formes multicœurs. Dans un premier temps, nous montrons que le modèle de TM et ses performances sont difficiles à analyser. Pour s'attaquer à ce problème, nous proposons un mécanisme de traçage générique et portable qui permet de récupérer des événements spécifiques à la TM afin de mieux analyser les performances des applications. Par exemple, les données tracées peuvent être utilisées pour détecter si l'application présente des points de contention ou si cette contention est répartie sur toute l'exécution. Notre approche peut être utilisée sur différentes applications et systèmes STM sans modifier leurs codes sources. Ensuite, nous abordons l'amélioration des performances des applications sur des plate-formes multicœurs. Nous soulignons que le placement des threads (thread mapping) est très important et peut améliorer considérablement les performances globales obtenues. Pour faire face à la grande diversité des applications, des systèmes STM et des plates-formes, nous proposons une approche basée sur l'Apprentissage Automatique (Machine Learning) pour prédire automatiquement les stratégies de placement de threads appropriées pour les applications de TM. Au cours d'une phase d'apprentissage préliminaire, nous construisons les profiles des applications s'exécutant sur différents systèmes STM pour obtenir un prédicteur. Nous utilisons ensuite ce prédicteur pour placer les threads de façon statique ou dynamique dans un système STM récent. Finalement, nous effectuons une évaluation expérimentale et nous montrons que l'approche statique est suffisamment précise et améliore les performances d'un ensemble d'applications d'un maximum de 18%. En ce qui concerne l'approche dynamique, nous montrons que l'on peut détecter des changements de phase d'exécution des applications composées des diverses charges de travail, en prévoyant une stratégie de placement appropriée pour chaque phase. Sur ces applications, nous avons obtenu des améliorations de performances d'un maximum de 31% par rapport à la meilleure stratégie statique.
APA, Harvard, Vancouver, ISO, and other styles
29

Castro, Márcio. "Optimisation de la performance des applications de mémoire transactionnelle sur des plates-formes multicoeurs : une approche basée sur l'apprentissage automatique." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM074/document.

Full text
Abstract:
Le concept de processeur multicœurs constitue le facteur dominant pour offrir des hautes performances aux applications parallèles. Afin de développer des applications parallèles capable de tirer profit de ces plate-formes, les développeurs doivent prendre en compte plusieurs aspects, allant de l'architecture aux caractéristiques propres à l'application. Dans ce contexte, la Mémoire Transactionnelle (Transactional Memory – TM) apparaît comme une alternative intéressante à la synchronisation basée sur les verrous pour ces plates-formes. Elle permet aux programmeurs d'écrire du code parallèle encapsulé dans des transactions, offrant des garanties comme l'atomicité et l'isolement. Lors de l'exécution, les opérations sont exécutées spéculativement et les conflits sont résolus par ré-exécution des transactions en conflit. Bien que le modèle de TM ait pour but de simplifier la programmation concurrente, les meilleures performances ne pourront être obtenues que si l'exécutif est capable de s'adapter aux caractéristiques des applications et de la plate-forme. Les contributions de cette thèse concernent l'analyse et l'amélioration des performances des applications basées sur la Mémoire Transactionnelle Logicielle (Software Transactional Memory – STM) pour des plates-formes multicœurs. Dans un premier temps, nous montrons que le modèle de TM et ses performances sont difficiles à analyser. Pour s'attaquer à ce problème, nous proposons un mécanisme de traçage générique et portable qui permet de récupérer des événements spécifiques à la TM afin de mieux analyser les performances des applications. Par exemple, les données tracées peuvent être utilisées pour détecter si l'application présente des points de contention ou si cette contention est répartie sur toute l'exécution. Notre approche peut être utilisée sur différentes applications et systèmes STM sans modifier leurs codes sources. Ensuite, nous abordons l'amélioration des performances des applications sur des plate-formes multicœurs. Nous soulignons que le placement des threads (thread mapping) est très important et peut améliorer considérablement les performances globales obtenues. Pour faire face à la grande diversité des applications, des systèmes STM et des plates-formes, nous proposons une approche basée sur l'Apprentissage Automatique (Machine Learning) pour prédire automatiquement les stratégies de placement de threads appropriées pour les applications de TM. Au cours d'une phase d'apprentissage préliminaire, nous construisons les profiles des applications s'exécutant sur différents systèmes STM pour obtenir un prédicteur. Nous utilisons ensuite ce prédicteur pour placer les threads de façon statique ou dynamique dans un système STM récent. Finalement, nous effectuons une évaluation expérimentale et nous montrons que l'approche statique est suffisamment précise et améliore les performances d'un ensemble d'applications d'un maximum de 18%. En ce qui concerne l'approche dynamique, nous montrons que l'on peut détecter des changements de phase d'exécution des applications composées des diverses charges de travail, en prévoyant une stratégie de placement appropriée pour chaque phase. Sur ces applications, nous avons obtenu des améliorations de performances d'un maximum de 31% par rapport à la meilleure stratégie statique
Multicore processors are now a mainstream approach to deliver higher performance to parallel applications. In order to develop efficient parallel applications for those platforms, developers must take care of several aspects, ranging from the architectural to the application level. In this context, Transactional Memory (TM) appears as a programmer friendly alternative to traditional lock-based concurrency for those platforms. It allows programmers to write parallel code as transactions, which are guaranteed to execute atomically and in isolation regardless of eventual data races. At runtime, transactions are executed speculatively and conflicts are solved by re-executing conflicting transactions. Although TM intends to simplify concurrent programming, the best performance can only be obtained if the underlying runtime system matches the application and platform characteristics. The contributions of this thesis concern the analysis and improvement of the performance of TM applications based on Software Transactional Memory (STM) on multicore platforms. Firstly, we show that the TM model makes the performance analysis of TM applications a daunting task. To tackle this problem, we propose a generic and portable tracing mechanism that gathers specific TM events, allowing us to better understand the performances obtained. The traced data can be used, for instance, to discover if the TM application presents points of contention or if the contention is spread out over the whole execution. Our tracing mechanism can be used with different TM applications and STM systems without any changes in their original source codes. Secondly, we address the performance improvement of TM applications on multicores. We point out that thread mapping is very important for TM applications and it can considerably improve the global performances achieved. To deal with the large diversity of TM applications, STM systems and multicore platforms, we propose an approach based on Machine Learning to automatically predict suitable thread mapping strategies for TM applications. During a prior learning phase, we profile several TM applications running on different STM systems to construct a predictor. We then use the predictor to perform static or dynamic thread mapping in a state-of-the-art STM system, making it transparent to the users. Finally, we perform an experimental evaluation and we show that the static approach is fairly accurate and can improve the performance of a set of TM applications by up to 18%. Concerning the dynamic approach, we show that it can detect different phase changes during the execution of TM applications composed of diverse workloads, predicting thread mappings adapted for each phase. On those applications, we achieve performance improvements of up to 31% in comparison to the best static strategy
APA, Harvard, Vancouver, ISO, and other styles
30

Jiao, Yang. "Applications of artificial intelligence in e-commerce and finance." Thesis, Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0002/document.

Full text
Abstract:
L'Intelligence Artificielle est présente dans tous les aspects de notre vie à l'ère du Big Data. Elle a entraîné des changements révolutionnaires dans divers secteurs, dont le commerce électronique et la finance. Dans cette thèse, nous présentons quatre applications de l'IA qui améliorent les biens et services existants, permettent l'automatisation et augmentent considérablement l'efficacité de nombreuses tâches dans les deux domaines. Tout d'abord, nous améliorons le service de recherche de produits offert par la plupart des sites de commerce électronique en utilisant un nouveau système de pondération des termes pour mieux évaluer l'importance des termes dans une requête de recherche. Ensuite, nous construisons un modèle prédictif sur les ventes quotidiennes en utilisant une approche de prévision des séries temporelles et tirons parti des résultats prévus pour classer les résultats de recherche de produits afin de maximiser les revenus d'une entreprise. Ensuite, nous proposons la difficulté de la classification des produits en ligne et analysons les solutions gagnantes, consistant en des algorithmes de classification à la pointe de la technologie, sur notre ensemble de données réelles. Enfin, nous combinons les compétences acquises précédemment à partir de la prédiction et de la classification des ventes basées sur les séries temporelles pour prédire l'une des séries temporelles les plus difficiles mais aussi les plus attrayantes : le stock. Nous effectuons une étude approfondie sur chaque titre de l'indice S&P 500 en utilisant quatre algorithmes de classification à la pointe de la technologie et nous publions des résultats très prometteurs
Artificial Intelligence has penetrated into every aspect of our lives in this era of Big Data. It has brought revolutionary changes upon various sectors including e-commerce and finance. In this thesis, we present four applications of AI which improve existing goods and services, enables automation and greatly increase the efficiency of many tasks in both domains. Firstly, we improve the product search service offered by most e-commerce sites by using a novel term weighting scheme to better assess term importance within a search query. Then we build a predictive model on daily sales using a time series forecasting approach and leverage the predicted results to rank product search results in order to maximize the revenue of a company. Next, we present the product categorization challenge we hold online and analyze the winning solutions, consisting of the state-of-the-art classification algorithms, on our real dataset. Finally, we combine skills acquired previously from time series based sales prediction and classification to predict one of the most difficult but also the most attractive time series: stock. We perform an extensive study on every single stocks of S&P 500 index using four state-of-the-art classification algorithms and report very promising results
APA, Harvard, Vancouver, ISO, and other styles
31

Usunier, Nicolas. "Apprentissage de fonctions d'ordonnancement : une étude théorique de la réduction à la classification et deux applications à la recherche d'information." Paris 6, 2006. http://www.theses.fr/2006PA066425.

Full text
Abstract:
La communauté d'apprentissage s'est récemment intéressée aux fonctions d'ordonnancement. Ces fonctions prennent en entrée un ensemble, et renvoient une liste ordonnée de ses éléments. La première partie de cette thèse présente une étude théorique sur l’apprentissage des fonctions d'ordonnancement. Nous définissons un nouveau cadre de classification binaire, dans lequel les exemples sont des variables aléatoires interdépendantes, dont la structure de dépendance est connue, alors que le cadre habituel suppose que les exemples sont indépendants. Dans ce cadre, nous établissons de nouvelles bornes sur l’erreur de généralisation pour l'ordonnancement, et retrouvons des résultats connus en classification binaire. Dans une seconde partie, nous présentons de nouveaux algorithmes d’apprentissage des fonctions d’ordonnancement, et montrons la validité de notre approche sur des données réelles issues des applications de Question/Réponse et de Résumé Automatique de Texte.
APA, Harvard, Vancouver, ISO, and other styles
32

Rukubayihunga, Koumba Alia. "Vers un système interactif de réalité augmentée mobile pour la supervision de scénarios de maintenance industrielle." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLE051/document.

Full text
Abstract:
En fournissant à l'utilisateur des informations pertinentes au bon moment au bon endroit, la réalité augmentée pourrait améliorer la productivité et l'efficacité des agents de maintenance industrielle. Cependant, les systèmes de suivi des scénarios implémentés nécessitent souvent leur intervention manuelle induisant ainsi insidieusement un manque de concentration, une fatigue visuelle, psychologique et physique et laissant également l'utilisateur seul juge de la bonne exécution des tâches de maintenance.C'est dans ce contexte que la société Wassa, spécialisée dans le web et les solutions mobiles et l'équipe IRA2 du laboratoire IBISC, spécialisée dans la réalité augmentée, la réalité virtuelle et la robotique, ont initié ce sujet de thèse. Il s'agit de concevoir un système de réalité augmentée permettant :- de fournir à l'utilisateur les instructions de maintenance de manière automatique et en temps réel.- de contrôler la bonne réalisation de la tâche et d'identifier les erreurs commises par l'opérateur à travers des dispositifs mobiles. Une notification doit être affichée afin de signaler à l'utilisateur qu'une tâche a été mal exécutée ou qu'une pièce mécanique n'a pas été correctement placée. Le système doit pouvoir enregistré chacune de ces erreurs.- de fonctionner sur n'importe quel appareil mobile en tenant compte des limitations liées à l'utilisation ces appareils, notamment concernant leur capacité de calcul et de stockage
By providing to the user relevant data at the right time in the right place, augmented reality might increase productivity and performance of industrial maintenance workers.However, implemented scenario tracking systems often need manual intervention. This may induce insidiously less of concentration, eyestrain, psychological and physical fatigue. Moreover, the operators are the sole judge of the maintenance task execution.It is in this context that Wassa company, specialized in web and mobile solutions, and IRA2 team of IBISC Laboratory, specialized in augmented reality, virtual reality and robotics, have initiated this PhD thesis. The goal is to design an augmented reality system which will :- provide automatically and in real time maintenance instructions to the user .- control, through the mobile devices, the maintenance task achievement and identifythe mistakes done by the operator. A notification will be displayed to report to the userthat the task is incorrectly performed or that a mechanical piece is inaccurately placed.The system should store these errors.- run on any mobile devices by taking into account their computation and storage limitations
APA, Harvard, Vancouver, ISO, and other styles
33

Brouard, Thierry. "Algorithmes hybrides d'apprentissage de chaines de Markov cachées : conception et applications à la reconnaissance des formes." Tours, 1999. http://www.theses.fr/1999TOUR4002.

Full text
Abstract:
La problématique de ce travail repose sur la qualité de modélisation de données (appelées observations) faite par des chaines de Markov cachées (CMC). Notre objectif est alors de proposer des algorithmes permettant d'améliorer cette qualité. Le critère retenu pour quantifier la qualité de la modélisation est la probabilité que la CMC génère des observations données. La résolution de ce problème fait appel à des techniques d'hybridation. Les outils employés conjointement aux CMC dans ce travail sont les algorithmes génétiques. Nous les utilisons ici pour répondre à une double attente. Premièrement, ils vont nous permettre d'explorer l'espace de recherche des CMC en évitant les optima locaux. Deuxièmement, l'algorithme génétique gère une caractéristique importante des CMC : leur nombre d'états. Au final, l'algorithme hybride le plus évolué détermine seul la meilleure CMC par rapport à un problème donné. C'est à dire qu'il conçoit une architecture (nombre d'états) et détermine les transitions nécessaires entre ces états. Différentes applications ont été réalisées dans le cadre de ce travail dans le domaine de la reconnaissance d'images, de la prévision de séries temporelles, de la ségmentation d'images et du suivi d'objets dans une séquence d'images. Les nouveaux algorithmes proposés par ce travail sont applicables à n'importe quel domaine, sous les hypothèses nécessaires aux CMC. Ils permettent un apprentissage rapide des modèles, et une détermination entièrement automatique de l'architecture (nombre d'états et transitions autorisées) des CMC
The main point of this work is based on the quality of modelization of data (called observations) made by hidden Markov models (HMMs). Our goal is to propose algorithms that improve this quality. The criterion used to quantify the quality of HMM is the probability that a given model generates a given observation. To solve this problem, we use a genetic hybridization of HMM. Using genetic algorithms (GAs) jointly to HMM permits two things. First, GAs let us to explore more efficiently the set of models, avoiding local optima. Second, GAs optimize an important characteristic of HMM : its number of hidden states. The most efficient hybrid algorithm finds the best HMM for a given problem, by itself. This means that the GA designs a set of states and the associated transition probabilities. Many explications have been done in the framework of this thesis, in many domains like image recognition, time series prediction, unsupervised image segmentation and object tracking in sequences of images. The new algorithms proposed here are appliable to all domains (peovided that hypothesis related to HMM are satisfied). They allow a fast and efficient training of HMM, and an entirely automatic determination of the architecture (number of states, transition probabilities) of the HMM
APA, Harvard, Vancouver, ISO, and other styles
34

Martinelli, Julien. "On learning mechanistic models from time series data with applications to personalised chronotherapies." Thesis, Institut polytechnique de Paris, 2022. https://tel.archives-ouvertes.fr/tel-03686289.

Full text
Abstract:
La modélisation mathématique des processus biologiques vise à fournir desreprésentations formelles de systèmes complexes afin d’en permettre des étudesqualitative et quantitative. Le besoin d’explicabilité suggère le recours à des mod-èles mécanistes qui décrivent explicitement les interactions moléculaires. Cepen-dant, l’utilisation de ces derniers est conditionnée à l’existence de connaissances apriori sur la structure du réseau de réactions sous-jacent. En outre, leur conceptiondemeure un art qui nécessite créativité et de multiples interactions avec les outilsd’analyse et de calibration aux données expérimentales. Cela écarte de nombreusesapplications imaginables en médecine de précision personnalisée, et appelle àdes développements méthodologiques pour l’automatisation de l’apprentissagede modèles adaptés aux données du patient. Cette thèse participe d’un effort deconception d’algorithmes d’apprentissage de modèles d’interactions dynamiquesà partir de données temporelles, avec le souci de l’explicabilité à un modélisateurhumain. Elle a pour champ d’application la chronothérapie personnalisée qui viseà administrer les médicaments aux horaires optimaux en fonction des rythmesbiologiques du patient sur 24h. Ainsi, trois grands thèmes sont abordés : modélisa-tion mécaniste, inférence de réseaux et personnalisation des traitements. Le premierchapitre décrit le développement du premier modèle mécaniste de l’horloge circadi-enne cellulaire complètement quantitatif, intégrant des données de transcriptome,proteome et localisation sub-cellulaire. Ce modèle a été connecté avec succès à unmodèle de la pharmacologie cellulaire d’un anticancéreux, l’irinotecan, afin d’enpersonnaliser l’horaire optimal d’administration. Le deuxième chapitre présenteun protocole original d’inférence des contrôles systémiques qu’exerce le corps en-tier sur les horloges des tissus périphériques. Cette approche permettra, à terme,d’intégrer des données individuelles issues d’objets connectés pour la personnali-sation des chronothérapies. Le troisième chapitre présente un algorithme générald’inférence de réactions avec cinétiques chimiques à partir de séries temporelles
Mathematical modeling of biological processes aims at providing formal repre-sentations of complex systems to enable their study, both in a qualitative and quan-titative fashion. The need for explainability suggests the recourse to mechanisticmodels, which explicitly describe molecular interactions. Nevertheless, such mod-els currently rely on the existence of prior knowledge on the underlying reactionnetwork structure. Moreover, their conception remains an art which necessitatescreativity combined to multiple interactions with analysis and data fitting tools.This rules out numerous applications conceivable in personalized medicine, andcalls for methodological advances towards machine learning of patient-tailoredmodels. This thesis intends to devise algorithms to learn models of dynamicalinteractions from temporal data, with an emphasis on explainability for the humanmodeler. Its applications are in the context of personalized chronotherapies, thatconsist in optimizing drug administration with respect to the patient’s biologicalrhythms over the 24-hour span. Three main themes are explored: mechanisticmodeling, network inference and treatment personalization. The first chapter de-scribes the development of the first quantitative mechanistic model of the cellularcircadian clock integrating transcriptomic, proteomic and sub-cellular localizationdata. This model has been successfully connected to a model of cellular pharmacol-ogy of an anticancerous drug, irinotecan, achieving personalization of its optimaladministration timing. The second chapter introduces a novel protocol for inferringwhole-body systemic controls enforced on peripheral clocks. On the long run, thisapproach will make it possible to integrate individual data collected from wearablesfor personalized chronotherapies. The third chapter presents a general algorithmto infer reactions with chemical kinetics from time series data
APA, Harvard, Vancouver, ISO, and other styles
35

Martinez, Cristian. "Grammaires locales étendues : principes, mise en œuvre et applications pour l’extraction de l’information." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1075/document.

Full text
Abstract:
Les grammaires locales constituent un formalisme de description de constructions linguistiques et sont communément représentées sous la forme de graphes orientés. Utilisées pour la recherche et l'extraction de motifs dans un texte, elles trouvent leurs limites dans le traitement de variations non décrites ou fautives ainsi que dans la capacité à accéder à des connaissances exogènes, c'est-à-dire des informations à extraire, au cours de l'analyse, de ressources externes à la grammaire et qui peuvent s'avérer utiles pour normaliser, enrichir, valider ou mettre en relation les motifs reconnus. Dans cette thèse nous introduisons la notion de grammaire locale étendue. Il s'agit d'un formalisme capable d'étendre le modèle classique des grammaires locales. Premièrement, en ajoutant des fonctions arbitraires à satisfaire, appelées fonctions étendues, qui ne sont pas prédéfinies à l'avance et qui sont évaluées en dehors de la grammaire. De surcroît, ce formalisme fournit à l'analyseur syntaxique la possibilité de déclencher des événements qui peuvent également être traités sous la forme de fonctions étendues. Le travail présenté se divise en trois parties: dans un premier temps, nous étudions les principes concernant la construction des grammaires locales étendues. Nous présentons ensuite la mise en œuvre d'un moteur d'analyse textuelle implémentant le formalisme proposé. Enfin, nous étudions quelques applications pour l'extraction de l'information dans des textes bien formés et des textes bruités. Nous nous focalisons sur le couplage des ressources externes et des méthodes non-symboliques dans la construction de nos grammaires en montrant la pertinence de cette approche pour dépasser les limites des grammaires locales classiques
Local grammars constitute a descriptive formalism of linguistic phenomena and are commonly represented using directed graphs. Local grammars are used to recognize and extract patterns in a text, but they had some inherent limits in dealing with unexpected variations as well as in their capacity to access exogenous knowledge, in other words information to extract, during the analysis, from external resources and which may be useful to normalize, enhance validate or link the recognized patterns. In this thesis, we introduce the notion of extended local grammar, a formalism capable to extend the classic model of local grammars. The means are twofold: on the one hand, it is achieved by adding arbitrary conditional-functions, called extended functions, which are not predefined in advance and are evaluated from outside of the grammar. On the other hand, it is achieved by allowing the parsing engine to trigger events that can also be processed as extended functions. The work presented herewith is divided into three parts: In the first part, we study the principles regarding the construction of the extended local grammars. Then, we present a proof-of-concept of a corpus-processing tool which implements the proposed formalism. Finally, we study some techniques to extract information from both well-formed and noisy texts. We focus on the coupling of external resources and non-symbolic methods in the construction of our grammars and we highlight the suitability of this approach in order to overcome the inherent limitations of classical local grammars
APA, Harvard, Vancouver, ISO, and other styles
36

Zaslavskiy, Mikhail. "L'alignement de graphes : applications en bioinformatique et vision par ordinateur." Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00006121.

Full text
Abstract:
Le problème d'alignement de graphes, qui joue un rôle central dans différents domaines de la reconnaissance de formes, est l'un des plus grands défis dans le traitement de graphes. Nous proposons une méthode approximative pour l'alignement de graphes étiquetés et pondérés, basée sur la programmation convexe concave. Une application importante du problème d'alignement de graphes est l'alignement de réseaux d'interactions de protéines, qui joue un rôle central pour la recherche de voies de signalisation conservées dans l'évolution, de complexes protéiques conservés entre les espèces, et pour l'identification d'orthologues fonctionnels. Nous reformulons le problème d'alignement de réseaux d'interactions comme un problème d'alignement de graphes, et étudions comment les algorithmes existants d'alignement de graphes peuvent être utilisés pour le résoudre. Dans la formulation classique de problème d'alignement de graphes, seules les correspondances bijectives entre les noeuds de deux graphes sont considérées. Dans beaucoup d'applications, cependant, il est plus intéressant de considérer les correspondances entre des ensembles de nœuds. Nous proposons une nouvelle formulation de ce problème comme un problème d'optimisation discret, ainsi qu'un algorithme approximatif basé sur une relaxation continue. Nous présentons également deux résultats indépendants dans les domaines de la traduction automatique statistique et de la bio-informatique. Nous montrons d'une part comment le problème de la traduction statistique basé sur les phrases peut être reformulé comme un problème du voyageur de commerce. Nous proposons d'autre part une nouvelle mesure de similarité entre les sites de fixation de protéines, basée sur la comparaison 3D de nuages atomiques.
APA, Harvard, Vancouver, ISO, and other styles
37

Kalainathan, Diviyan. "Generative Neural Networks to infer Causal Mechanisms : algorithms and applications." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS516.

Full text
Abstract:
La découverte de relations causales est primordiale pour la planification, le raisonnement et la décision basée sur des données d'observations ; confondre corrélation et causalité ici peut mener à des conséquences indésirables. La référence pour la découverte de relations causales est d'effectuer des expériences contrôlées. Mais dans la majorité des cas, ces expériences sont coûteuses, immorales ou même impossible à réaliser. Dans ces cas, il est nécessaire d'effectuer la découverte causale seulement sur des données d'observations. Dans ce contexte de causalité observationnelle, retrouver des relations causales introduit traditionellement des hypothèses considérables sur les données et sur le modèle causal sous-jacent. Cette thèse vise à relaxer certaines de ces hypothèses en exploitant à la fois la modularité et l'expressivité des réseaux de neurones pour la causalité, en exploitant à la fois et indépendences conditionnelles et la simplicité des méchanismes causaux, à travers deux algorithmes. Des expériences extensives sur des données simulées et sur des données réelles ainsi qu'une analyse théorique approfondie prouvent la cohérence et bonne performance des approches proposées
Causal discovery is of utmost importance for agents who must plan, reason and decide based on observations; where mistaking correlation with causation might lead to unwanted consequences. The gold standard to discover causal relations is to perform experiments.However, experiments are in many cases expensive, unethical, or impossible to realize. In these situations, there is a need for observational causal discovery, that is, the estimation of causal relations from observations alone.Causal discovery in the observational data setting traditionally involves making significant assumptions on the data and on the underlying causal model.This thesis aims to alleviate some of the assumptions made on the causal models by exploiting the modularity and expressiveness of neural networks for causal discovery, leveraging both conditional independences and simplicity of the causal mechanisms through two algorithms.Extensive experiments on both simulated and real-world data and a throughout theoretical anaylsis prove the good performance and the soundness of the proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
38

Allart, Thibault. "Apprentissage statistique sur données longitudinales de grande taille et applications au design des jeux vidéo." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1136/document.

Full text
Abstract:
Cette thèse s'intéresse à l'analyse des données longitudinales, potentiellement grandes selon les trois axes suivants : nombre d'individus, fréquence d'observation et nombre de covariables. A partir de ces données, éventuellement censurées, nous considérons comme facteur d'étude le temps d'apparition d'un ou plusieurs évènements. Nous cherchons dans des classes de modèles à coefficients dépendant du temps à estimer l’intensité d’apparition des événements. Or les estimateurs actuels, ne permettent pas de traiter efficacement un grand nombre d’observations et/ou un grand nombre de covariables. Nous proposons un nouvel estimateur défini via la vraisemblance complète de Cox et une pénalisation permettant à la fois la sélection de variables et de forcer, quand c’est possible, les coefficients à être constants. Nous introduisons des algorithmes d'optimisation proximaux, permettant d'estimer les coefficients du modèle de manière efficace. L'implémentation de ces méthodes en C++ et dans le package R coxtv permet d'analyser des jeux de données de taille supérieure à la mémoire vive; via un streaming du flux de données et des méthodes d'apprentissage en ligne, telles que la descente de gradient stochastique proximale aux pas adaptatifs. Nous illustrons les performances du modèle sur des simulations en nous comparant aux méthodes existantes. Enfin, nous nous intéressons à la problématique du design des jeux vidéo. Nous montrons que l'application directe de ce modèle, sur les grands jeux de données dont dispose l'industrie du jeu vidéo, permet de mettre en évidence des leviers d'amélioration du design des jeux étudiés. Nous nous intéressons d'abord à l'analyse des composantes bas niveau, telles que les choix d'équipement fait par les joueurs au fils du temps et montrons que le modèle permet de quantifier l'effet de chacun de ces éléments de jeu, offrant ainsi aux designers des leviers d'amélioration direct du design. Enfin, nous montrons que le modèle permet de dégager des enseignements plus généraux sur le design tels que l'influence de la difficulté sur la motivation des joueurs
This thesis focuses on longitudinal time to event data possibly large along the following tree axes : number of individuals, observation frequency and number of covariates. We introduce a penalised estimator based on Cox complete likelihood with data driven weights. We introduce proximal optimization algorithms to efficiently fit models coefficients. We have implemented thoses methods in C++ and in the R package coxtv to allow everyone to analyse data sets bigger than RAM; using data streaming and online learning algorithms such that proximal stochastic gradient descent with adaptive learning rates. We illustrate performances on simulations and benchmark with existing models. Finally, we investigate the issue of video game design. We show that using our model on large datasets available in video game industry allows us to bring to light ways of improving the design of studied games. First we have a look at low level covariates, such as equipment choices through time and show that this model allows us to quantify the effect of each game elements, giving to designers ways to improve the game design. Finally, we show that the model can be used to extract more general design recommendations such as dificulty influence on player motivations
APA, Harvard, Vancouver, ISO, and other styles
39

Jabiri, Fouad. "Applications de méthodes de classification non supervisées à la détection d'anomalies." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/67914.

Full text
Abstract:
Dans ce présent mémoire, nous présenterons dans un premier temps l’algorithme d’arbres binaires de partitionnement et la forêt d’isolation. Les arbres binaires sont des classificateurs très populaires dans le domaine de l’apprentissage automatique supervisé. La forêt d’isolation appartient à la famille des méthodes non supervisées. Il s’agit d’un ensemble d’arbres binaires employés en commun pour isoler les instances qui semblent aberrantes ou anormales. Par la suite, nous présenterons l’approche que nous avons nommée "Exponential smoothig" (ou "pooling"). Cette technique consiste à encoder des séquences de variables de longueurs différentes en un seul vecteur de taille fixe. En effet, l’objectif de ce mémoire est d’appliquer l’algorithme des forêts d’isolation pour identifier les anomalies dans les réclamations et les formulaires d’assurances disponibles dans la base de données d’une grande compagnie d’assurances canadienne. Cependant, un formulaire est une séquence de réclamations. Chaque réclamation est caractérisée par un ensemble de variables. Ainsi, il serait impossible d’appliquer l’algorithme des forêts d’isolation directement sur ce genre de données. Pour cette raison, nous allons appliquer le pooling. Notre application parvient effectivement à isoler des réclamations et des formulaires anormaux. Nous constatons que ces derniers ont plus tendances à être audités parla compagnie que les formulaires normaux.
In this thesis, we will first present the binary tree partitioning algorithm and isolation forests. Binary trees are very popular classifiers in supervised machine learning. The isolation forest belongs to the family of unsupervised methods. It is an ensemble of binary trees used in common to isolate outlying instances. Subsequently, we will present the approach that we have named "Exponential smoothig" (or "pooling"). This technique consists in encoding sequences of variables of different lengths into a single vector of fixed size. Indeed, the objective of this thesis is to apply the algorithm of isolation forests to identify anomalies in insurance claim forms available in the database of a large Canadian insurance company in order to detect cases of fraud. However, a form is a sequence of claims. Each claim is characterized by a set of variables and thus it will be impossible to apply the isolation forest algorithm directly to this kind of data. It is for this reason that we are going to apply Exponential smoothing. Our application effectively isolates claims and abnormal forms, and we find that the latter tend to be audited by the company more often than regular forms.
APA, Harvard, Vancouver, ISO, and other styles
40

El, Hatib Souad. "Une approche sémantique de détection de maliciel Android basée sur la vérification de modèles et l'apprentissage automatique." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66322.

Full text
Abstract:
Le nombre croissant de logiciels malveillants Android s’accompagne d’une préoccupation profonde liée aux problèmes de la sécurité des terminaux mobiles. Les enjeux deviennent sans conteste de plus en plus importants, suscitant ainsi beaucoup d’attention de la part de la communauté des chercheurs. En outre, la prolifération des logiciels malveillants va de pair avec la sophistication et la complexité de ces derniers. En effet, les logiciels malveillants plus élaborés, tels que les maliciels polymorphes et métamorphiques, utilisent des techniques d’obscurcissement du code pour créer de nouvelles variantes qui préservent la sémantique du code original tout en modifiant sa syntaxe, échappant ainsi aux méthodes de détection usuelles. L’ambition de notre recherche est la proposition d’une approche utilisant les méthodes formelles et l’apprentissage automatique pour la détection des maliciels sur la plateforme Android. L’approche adoptée combine l’analyse statique et l’apprentissage automatique. En effet, à partir des applications Android en format APK, nous visons l’extraction d’un modèle décrivant de manière non ambiguë le comportement de ces dernières. Le langage de spécification formelle choisi est LNT. En se basant sur le modèle généré, les comportements malicieux exprimés en logique temporelle sont vérifiés à l’aide d’un vérificateur de modèle. Ces propriétés temporelles sont utilisées comme caractéristiques par un algorithme d’apprentissage automatique pour classifier les applications Android.
The ever-increasing number of Android malware is accompanied by a deep concern about security issues in the mobile ecosystem. Unquestionably, Android malware detection has received much attention in the research community and therefore it becomes a crucial aspect of software security. Actually, malware proliferation goes hand in hand with the sophistication and complexity of malware. To illustrate, more elaborated malware like polymorphic and metamorphic malware, make use of code obfuscation techniques to build new variants that preserve the semantics of the original code but modify it’s syntax and thus escape the usual detection methods. In the present work, we propose a model-checking based approach that combines static analysis and machine learning. Mainly, from a given Android application we extract an abstract model expressed in terms of LNT, a process algebra language. Afterwards, security related Android behaviours specified by temporal logic formulas are checked against this model, the satisfaction of a specific formula is considered as a feature, finally machine learning algorithms are used to classify the application as malicious or not.
APA, Harvard, Vancouver, ISO, and other styles
41

Varelas, Konstantinos. "Randomized Derivative Free Optimization via CMA-ES and Sparse Techniques : Applications to Radars." Thesis, Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAX012.

Full text
Abstract:
Dans cette thèse, nous étudions des aspects des méthodes aléatoires adaptatives pour l’optimisation continue sans gradients. Les algorithmes que nous étudions sont basés sur l’algorithme Covariance Matrix Adaptation Evolution Strategy (CMA-ES) et se concentrent sur des problèmes d’optimisation en grande dimension.Nous commençons par une description de CMA-ES et sa relation avec le cadre de Information Geometric Optimization (IGO), suivie d’une étude comparative de variantes de CMA-ES à grande échelle. Nous proposons en outre de nouvelles méthodes qui intègrent des outils d’estimation en grande dimension au sein de CMA-ES, afin d’obtenir des algorithmes plus efficaces pour des problèmes partiellement séparables.De plus, nous décrivons la méthodologie pour l’évaluation de la performance des algorithmes adopté par la plateforme Comparing Continuous Optimizers (COCO), et finalisons la suite de tests bbob-largescale, une nouvelle suite d’analyse comparative avec des problèmes de grandes dimensions et avec un faible coût de calcul.Enfin, nous présentons la formulation, la méthodologie et les résultats obtenus pour deux applications liées aux problèmes de Radar, le problème d’optimisation du code de phase et le problème de synthèse des faisceaux
In this thesis, we investigate aspects of adaptive randomized methods for black-box continuous optimization. The algorithms that we study are based on the Covariance Matrix Adaptation Evolution Strategy (CMA-ES) algorithm and focus on large scale optimization problems.We start with a description of CMA-ES and its relation to the Information Geometric Optimization (IGO) framework, succeeded by a comparative study of large scale variants of CMA-ES. We furthermore propose novel methods which integrate tools of high dimensional analysis within CMA-ES, to obtain more efficient algorithms for large scale partially separable problems.Additionally, we describe the methodology for algorithm performance evaluation adopted by the Comparing Continuous Optimizers (COCO) platform, and finalize the bbob-largescale test suite, a novel benchmarking suite with problems of increased dimensions and with a low computational cost.Finally, we present the formulation, methodology and obtained results for two applications related to Radar problems, the Phase Code optimization problem and the Phased-Array Pattern design problem
APA, Harvard, Vancouver, ISO, and other styles
42

Grumbach, Alain. "Contribution à l'étude de modèles d'apprentissage en interaction avec un environnement inspirés du comportement humain." Paris 11, 1987. http://www.theses.fr/1987PA112244.

Full text
Abstract:
L'objectif est de concevoir et réaliser des programmes permettant de doter la machine de capacités d'apprentissage, de connaissances, par l'expérience, en situation de résolution de problèmes. L'approche consiste à s'inspirer du comportement humain : observation de sujets ; réalisation de modèles ; extraction des notions fondamentales ; conception de logiciels correspondants (langage, programmes). Les notions fondamentales explicitées dans ce travail sont : forme des connaissances, relations entre elles, qui ont donné lieu au "Treillis de la connaissance", structure qui permet de mettre en relation connaissances générales et spécifiques ; déclenchement du comportement : sur événement. . . Le langage élaboré à partir de ces notions se décompose en : Multilog : implantation du "Treillis de la connaissance" en programmation logique sous forme de "mondes" de clauses ; Evenlog : implantation de la notion d'événement. Différents programmes d'apprentissage ont été réalisés, depuis un modèle spécifique jusqu'à un modèle très général dont l'objectif, non atteint, était de pouvoir apprendre des connaissances non spécifiques. Par ailleurs, ce travail qui participe de la recherche cognitive, propose aussi une courte réflexion sur la connaissance : "Treillis de la connaissance" évoqué ci-dessus ; différents plans d'observation : behavioriste, cognitif,. . . , les relations entre-eux ; (phylo)génèse
The aim of this research is to design and write programs which provide machines with learning by doing capabilities, in a problem solving situation. The approach is inspired by human behavior study : subject observations, model building, drawing out of fundamental notions, design of corresponding software (language programs). The fundamental notions set out in this work concern : knowledge types and relationship, which gave rise to the knowledge Lattice structure that relates general and specific knowledge fields to one another ; learning behavior trigerring : on event ; acquired informations : links between them,. . . The language built up from these notions is twofold : Multilog, implementation of the Knowledge Lattice within Logic Programing through clause "worlds" ; Evenlog, implementation of the event notion. Different human learning simulation programs have been developed, ranging from a specific model to a very general one whose unreached objective was to be able to learn non specific knowledge fields. Lastly, this work, as part of Cognitive Science Research, proposes a short Cogitation on Knowledge : the above mentionned Knowledge Lattice ; different points of view : behaviorist, cognitive,. . . , links between them ; (phylo) genesis
APA, Harvard, Vancouver, ISO, and other styles
43

Dupuy, Christophe. "Inference and applications for topic models." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE055/document.

Full text
Abstract:
La plupart des systèmes de recommandation actuels se base sur des évaluations sous forme de notes (i.e., chiffre entre 0 et 5) pour conseiller un contenu (film, restaurant...) à un utilisateur. Ce dernier a souvent la possibilité de commenter ce contenu sous forme de texte en plus de l'évaluer. Il est difficile d'extraire de l'information d'un texte brut tandis qu'une simple note contient peu d'information sur le contenu et l'utilisateur. Dans cette thèse, nous tentons de suggérer à l'utilisateur un texte lisible personnalisé pour l'aider à se faire rapidement une opinion à propos d'un contenu. Plus spécifiquement, nous construisons d'abord un modèle thématique prédisant une description de film personnalisée à partir de commentaires textuels. Notre modèle sépare les thèmes qualitatifs (i.e., véhiculant une opinion) des thèmes descriptifs en combinant des commentaires textuels et des notes sous forme de nombres dans un modèle probabiliste joint. Nous évaluons notre modèle sur une base de données IMDB et illustrons ses performances à travers la comparaison de thèmes. Nous étudions ensuite l'inférence de paramètres dans des modèles à variables latentes à grande échelle, incluant la plupart des modèles thématiques. Nous proposons un traitement unifié de l'inférence en ligne pour les modèles à variables latentes à partir de familles exponentielles non-canoniques et faisons explicitement apparaître les liens existants entre plusieurs méthodes fréquentistes et Bayesiennes proposées auparavant. Nous proposons aussi une nouvelle méthode d'inférence pour l'estimation fréquentiste des paramètres qui adapte les méthodes MCMC à l'inférence en ligne des modèles à variables latentes en utilisant proprement un échantillonnage de Gibbs local. Pour le modèle thématique d'allocation de Dirichlet latente, nous fournissons une vaste série d'expériences et de comparaisons avec des travaux existants dans laquelle notre nouvelle approche est plus performante que les méthodes proposées auparavant. Enfin, nous proposons une nouvelle classe de processus ponctuels déterminantaux (PPD) qui peut être manipulée pour l'inférence et l'apprentissage de paramètres en un temps potentiellement sous-linéaire en le nombre d'objets. Cette classe, basée sur une factorisation spécifique de faible rang du noyau marginal, est particulièrement adaptée à une sous-classe de PPD continus et de PPD définis sur un nombre exponentiel d'objets. Nous appliquons cette classe à la modélisation de documents textuels comme échantillons d'un PPD sur les phrases et proposons une formulation du maximum de vraisemblance conditionnel pour modéliser les proportions de thèmes, ce qui est rendu possible sans aucune approximation avec notre classe de PPD. Nous présentons une application à la synthèse de documents avec un PPD sur 2 à la puissance 500 objets, où les résumés sont composés de phrases lisibles
Most of current recommendation systems are based on ratings (i.e. numbers between 0 and 5) and try to suggest a content (movie, restaurant...) to a user. These systems usually allow users to provide a text review for this content in addition to ratings. It is hard to extract useful information from raw text while a rating does not contain much information on the content and the user. In this thesis, we tackle the problem of suggesting personalized readable text to users to help them make a quick decision about a content. More specifically, we first build a topic model that predicts personalized movie description from text reviews. Our model extracts distinct qualitative (i.e., which convey opinion) and descriptive topics by combining text reviews and movie ratings in a joint probabilistic model. We evaluate our model on an IMDB dataset and illustrate its performance through comparison of topics. We then study parameter inference in large-scale latent variable models, that include most topic models. We propose a unified treatment of online inference for latent variable models from a non-canonical exponential family, and draw explicit links between several previously proposed frequentist or Bayesian methods. We also propose a novel inference method for the frequentist estimation of parameters, that adapts MCMC methods to online inference of latent variable models with the proper use of local Gibbs sampling.~For the specific latent Dirichlet allocation topic model, we provide an extensive set of experiments and comparisons with existing work, where our new approach outperforms all previously proposed methods. Finally, we propose a new class of determinantal point processes (DPPs) which can be manipulated for inference and parameter learning in potentially sublinear time in the number of items. This class, based on a specific low-rank factorization of the marginal kernel, is particularly suited to a subclass of continuous DPPs and DPPs defined on exponentially many items. We apply this new class to modelling text documents as sampling a DPP of sentences, and propose a conditional maximum likelihood formulation to model topic proportions, which is made possible with no approximation for our class of DPPs. We present an application to document summarization with a DPP on 2 to the power 500 items, where the summaries are composed of readable sentences
APA, Harvard, Vancouver, ISO, and other styles
44

Bussy, Simon. "Introduction of high-dimensional interpretable machine learning models and their applications." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS488.

Full text
Abstract:
Dans ce manuscrit sont introduites de nouvelles méthodes interprétables de machine learning dans un contexte de grande dimension. Différentes procédures sont alors proposées : d'abord le C-mix, un modèle de mélange de durées qui détecte automatiquement des sous-groupes suivant le risque d'apparition rapide de l'événement temporel étudié; puis la pénalité binarsity, une combinaison entre variation totale pondérée et contrainte linéaire par bloc qui s'applique sur l'encodage "one-hot'' de covariables continues ; et enfin la méthode binacox qui applique la pénalité précédente dans un modèle de Cox en tirant notamment parti de sa propriété de détection automatique de seuils dans les covariables continues. Pour chacune d'entre elles, les propriétés théoriques sont étudiées comme la convergence algorithmique ou l'établissement d'inégalités oracles non-asymptotiques, et une étude comparative avec l'état de l'art est menée sur des données simulées et réelles. Toutes les méthodes obtiennent de bons résultats prédictifs ainsi qu'en terme de complexité algorithmique, et chacune dispose d'atouts intéressants sur le plan de l'interprétabilité
This dissertation focuses on the introduction of new interpretable machine learning methods in a high-dimensional setting. We developped first the C-mix, a mixture model of censored durations that automatically detects subgroups based on the risk that the event under study occurs early; then the binarsity penalty combining a weighted total variation penalty with a linear constraint per block, that applies on one-hot encoding of continuous features; and finally the binacox model that uses the binarsity penalty within a Cox model to automatically detect cut-points in the continuous features. For each method, theoretical properties are established: algorithm convergence, non-asymptotic oracle inequalities, and comparison studies with state-of-the-art methods are carried out on both simulated and real data. All proposed methods give good results in terms of prediction performances, computing time, as well as interpretability abilities
APA, Harvard, Vancouver, ISO, and other styles
45

Mourad, Raphaël. "Modélisation pangénomique du déséquilibre de liaison à l'aide de réseaux bayésiens hiérarchiques latents et applications." Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00628759.

Full text
Abstract:
Les récentes technologies génomiques à haut-débit ont ouvert la voie aux études d'association visant la caractérisation systématique à l'échelle du génome des facteurs génétiques impliqués dans l'apparition des maladies génétiques complexes, telles que l'asthme et le diabète. Dans ces études, le déséquilibre de liaison (linkage disequilibrium, LD) reflète l'existence de dépendances complexes au sein des données génétiques et joue un rôle central, puisqu'il permet une localisation précise des facteurs génétiques. Néanmoins, la haute complexité du LD, ainsi que la dimension élevée des données génétiques, constituent autant de difficultés à prendre en compte. Les travaux de recherche réalisés au cours de cette thèse se sont placés dans cette perspective. La contribution des travaux de recherche présentés est double, puisqu'elle est à la fois théorique et appliquée. Sur le plan théorique, nous avons proposé une nouvelle approche de modélisation du LD. Elle est basée sur le développement d'un modèle issu du domaine de l'intelligence artificielle et de l'apprentissage automatique, la forêt de modèles hiérarchiques à classes latentes (FMHCL). Les nouveautés les plus significatives introduites sont la possibilité de prendre en compte la nature floue du LD et de hiérarchiser les différents degrés de LD. Un nouvel algorithme d'apprentissage supportant le passage à l'échelle, nommé CFHLC, a été développé et décliné en deux versions: la première nécessitant le découpage du génome en fenêtres contiguës pour résoudre le problème de passage à l'échelle, et la seconde (CFHLC+), plus récente et évoluée, résolvant le problème au moyen d'une fenêtre glissante sur le chromosome. A l'aide d'un jeu de données réelles, la comparaison de la méthode CFHLC avec des méthodes concurrentes a montré qu'elle offre une modélisation plus fine du LD. En outre, l'apprentissage sur des données présentant des patrons de LD variés a démontré la capacité de la FMHCL a reproduire fidèlement la structure du LD. Enfin, l'analyse empirique de la complexité de l'apprentissage a montré la linéarité en temps lorsque le nombre de variables à traiter augmente. Sur le plan appliqué, nous avons exploré deux pistes de recherche: la recherche de causalités et la visualisation synthétique et intuitive du LD. D'une part, une étude systématique de la capacité des FMHCL à la recherche de causalités est illustrée dans le contexte de la génétique d'association. Ce travail a établi les bases du développement de nouvelles méthodes de recherche dédiées à la découverte de facteurs génétiques causaux pour les études d'association à l'échelle du génome. D'autre part, une méthode a été développée pour la visualisation synthétique et intuitive du LD adaptée aux trois principales situations que peut rencontrer le généticien: la visualisation du LD de courte distance, de longue distance et dans un contexte pangénomique. Cette nouvelle méthode apporte des atouts majeurs qui sont les suivants: (i) le LD par paires (deux variables) et le LD multilocus (deux variables ou plus) sont simultanément visualisés, (ii) le LD de courte distance et le LD de longue distance sont facilement distingués, et (iii) l'information est synthétisée de manière hiérarchique.
APA, Harvard, Vancouver, ISO, and other styles
46

Schutz, Georges. "Adaptations et applications de modèles mixtes de réseaux de neurones à un processus industriel." Phd thesis, Université Henri Poincaré - Nancy I, 2006. http://tel.archives-ouvertes.fr/tel-00115770.

Full text
Abstract:
Cette étude consiste à étudier l'apport de réseaux de neurones
artificiels pour améliorer le contrôle de processus industriels
complexes, caractérisés en particulier par leur aspect temporel.
Les motivations principales pour traiter des séries temporelles
sont la réduction du volume de données, l'indexation pour la
recherche de similarités, la localisation de séquences,
l'extraction de connaissances (data mining) ou encore la
prédiction.

Le processus industriel choisi est un four à arc
électrique pour la production d'acier liquide au Luxembourg. Notre
approche est un concept de contrôle prédictif et se base sur des
méthodes d'apprentissage non-supervisé dans le but d'une
extraction de connaissances.

Notre méthode de codage se base sur
des formes primitives qui composent les signaux. Ces formes,
composant un alphabet de codage, sont extraites par une méthode
non-supervisée, les cartes auto-organisatrices de Kohonen (SOM).
Une méthode de validation des alphabets de codage accompagne
l'approche.

Un sujet important abordé durant ces recherches est
la similarité de séries temporelles. La méthode proposée est
non-supervisée et intègre la capacité de traiter des séquences de
tailles variées.
APA, Harvard, Vancouver, ISO, and other styles
47

Mederreg, Lotfi. "Etude cinématique et reproduction robotique de la marche chez l'oiseau." Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0043.

Full text
Abstract:
La présente thèse concerne l’étude cinématique des capacités locomotrices d’un robot de type oiseau. En collaboration avec les chercheurs du Muséum d’Histoire Naturelle de Paris, un protocole expérimental complet a été développé permettant d’enregistrer des mesures sur des cailles spécialement entraînées à cet effet. L’objectif de ces expériences est de faire marcher ces oiseaux sur un tapis roulant et les filmer sous rayon X à l’aide d’un dispositif de ciné-radio. Des outils informatique pour le traitement et l’exploitation des ces données ont été mis au point. L’analyse des résultats permet d’identifier plusieurs configurations caractéristiques du mouvement, d’avancer des hypothèses au sujet de la cinématique du mouvement et de proposer un modèle géométrique d’une jambe assez proche de la structure étudiée. Dans la perspective d’élaborer des lois de commandes, des critères d’optimisation sont proposés afin de résoudre la redondance du système pour l’inversion du modèle géométrique. Enfin, des stratégies de commandes sont développées afin de reproduire les allures de marche enregistrées sur les oiseaux
This work deals with the kinematics study of bird-like robot locomotion capabilities. An experimental protocol has been developed in collaboration with the researchers of the Natural History Museum of Paris. The experiments consist of filming trained quails walking on a specific walk-way trough an X-ray camera. Kinematics data are recorded and processed with special mathematical tools developed for this purpose. The analysis of the results allow to identify several characteristic leg configurations of the walking cycle, make some assumptions concerning the kinematics of the movement and propose a geometrical model for the bird-like structure. In order to develop control laws, and because of the redundancy of the structure, some optimization criteria are defined to help solve the inverse geometrical model. Finally, some control strategies are developed to reproduce the walking pattern for robotics applications
APA, Harvard, Vancouver, ISO, and other styles
48

Sevi, Harry. "Analyse harmonique sur graphes dirigés et applications : de l'analyse de Fourier aux ondelettes." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEN068/document.

Full text
Abstract:
La recherche menée dans cette thèse a pour but de développer une analyse harmonique pour des fonctions définies sur les sommets d'un graphe orienté. À l'ère du déluge de données, de nombreuses données sont sous forme de graphes et données sur ce graphe. Afin d'analyser d'exploiter ces données de graphes, nous avons besoin de développer des méthodes mathématiques et numériquement efficientes. Ce développement a conduit à l'émergence d'un nouveau cadre théorique appelé le traitement de signal sur graphe dont le but est d'étendre les concepts fondamentaux du traitement de signal classique aux graphes. Inspirées par l'aspect multi échelle des graphes et données sur graphes, de nombreux constructions multi-échelles ont été proposé. Néanmoins, elles s'appliquent uniquement dans le cadre non orienté. L'extension d'une analyse harmonique sur graphe orienté bien que naturelle, s'avère complexe. Nous proposons donc une analyse harmonique en utilisant l'opérateur de marche aléatoire comme point de départ de notre cadre. Premièrement, nous proposons des bases de type Fourier formées des vecteurs propres de l'opérateur de marche aléatoire. De ces bases de Fourier, nous en déterminons une notion fréquentielle en analysant la variation de ses vecteurs propres. La détermination d'une analyse fréquentielle à partir de la base des vecteurs de l'opérateur de marche aléatoire nous amène aux constructions multi-échelles sur graphes orientés. Plus particulièrement, nous proposons une construction en trames d'ondelettes ainsi qu'une construction d'ondelettes décimées sur graphes orientés. Nous illustrons notre analyse harmonique par divers exemples afin d'en montrer l'efficience et la pertinence
The research conducted in this thesis aims to develop a harmonic analysis for functions defined on the vertices of an oriented graph. In the era of data deluge, much data is in the form of graphs and data on this graph. In order to analyze and exploit this graph data, we need to develop mathematical and numerically efficient methods. This development has led to the emergence of a new theoretical framework called signal processing on graphs, which aims to extend the fundamental concepts of conventional signal processing to graphs. Inspired by the multi-scale aspect of graphs and graph data, many multi-scale constructions have been proposed. However, they apply only to the non-directed framework. The extension of a harmonic analysis on an oriented graph, although natural, is complex. We, therefore, propose a harmonic analysis using the random walk operator as the starting point for our framework. First, we propose Fourier-type bases formed by the eigenvectors of the random walk operator. From these Fourier bases, we determine a frequency notion by analyzing the variation of its eigenvectors. The determination of a frequency analysis from the basis of the vectors of the random walk operator leads us to multi-scale constructions on oriented graphs. More specifically, we propose a wavelet frame construction as well as a decimated wavelet construction on directed graphs. We illustrate our harmonic analysis with various examples to show its efficiency and relevance
APA, Harvard, Vancouver, ISO, and other styles
49

Hocking, Toby Dylan. "Learning algorithms and statistical software, with applications to bioinformatics." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00906029.

Full text
Abstract:
Statistical machine learning is a branch of mathematics concerned with developing algorithms for data analysis. This thesis presents new mathematical models and statistical software, and is organized into two parts. In the first part, I present several new algorithms for clustering and segmentation. Clustering and segmentation are a class of techniques that attempt to find structures in data. I discuss the following contributions, with a focus on applications to cancer data from bioinformatics. In the second part, I focus on statistical software contributions which are practical for use in everyday data analysis.
APA, Harvard, Vancouver, ISO, and other styles
50

Jenatton, Rodolphe. "Structured sparsity-inducing norms : statistical and algorithmic properties with applications to neuroimaging." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00668379.

Full text
Abstract:
Numerous fields of applied sciences and industries have been recently witnessing a process of digitisation. This trend has come with an increase in the amount digital data whose processing becomes a challenging task. In this context, parsimony, also known as sparsity, has emerged as a key concept in machine learning and signal processing. It is indeed appealing to exploit data only via a reduced number of parameters. This thesis focuses on a particular and more recent form of sparsity, referred to as structured sparsity. As its name indicates, we shall consider situations where we are not only interested in sparsity, but where some structural prior knowledge is also available. The goal of this thesis is to analyze the concept of structured sparsity, based on statistical, algorithmic and applied considerations. To begin with, we introduce a family of structured sparsity-inducing norms whose statistical aspects are closely studied. In particular, we show what type of prior knowledge they correspond to. We then turn to sparse structured dictionary learning, where we use the previous norms within the framework of matrix factorization. From an optimization viewpoint, we derive several efficient and scalable algorithmic tools, such as working-set strategies and proximal-gradient techniques. With these methods in place, we illustrate on numerous real-world applications from various fields, when and why structured sparsity is useful. This includes, for instance, restoration tasks in image processing, the modelling of text documents as hierarchy of topics, the inter-subject prediction of sizes of objects from fMRI signals, and background-subtraction problems in computer vision.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography