Dissertations / Theses on the topic 'Systèmes embarqués (informatique) – Apprentissage automatique'

To see the other types of publications on this topic, follow the link: Systèmes embarqués (informatique) – Apprentissage automatique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Systèmes embarqués (informatique) – Apprentissage automatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ouairy, Léopold. "Analyse des vulnérabilités dans des systèmes embarqués face à des attaques par fuzzing." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S020.

Full text
Abstract:
De nos jours, les cartes à puces sont utilisées quotidiennement. Elles nous permettent par exemple d'effectuer des paiements ou encore de signer des documents numériques. Parce que les cartes à puces contiennent des informations personnelles et sensibles relatives à leur propriétaire légitime, elles sont convoitées par les attaquants. En particulier, ces attaquants peuvent utiliser le fuzzing. Cette attaque consiste à tester le plus de messages de communication possible avec un programme afin de pouvoir détecter des vulnérabilités. Cette thèse vise à protéger les cartes à puces face aux attaques par fuzzing. Deux approches de détection automatique d'erreurs d'implémentation sont proposées. La première, est l'adaptation pour Java et son amélioration d'un outil issu de l'état de l'art. Il repose sur une technique de fouille de code sources automatique. La seconde approche est également basée sur la fouille de code sources, en prenant en compte les limites de la première. En particulier, la précision et la réduction des dimensions est améliorée par l'utilisation de techniques issues du Traitement Automatique du Langage Naturel. De plus, une étude des techniques de plagiat augmente la robustesse de l'analyse face aux différences d'implémentation des applets. Cette même approche effectue une analyse inter-procédurale du graphe de flot de contrôle des applets, lui permettant de réduire le nombre de faux positifs lors de la détection d'anomalies. Les deux approches sont évaluées sur deux points: leur capacité à retrouver des méthodes de sémantique similaire, ainsi que sur leur capacité à détecter des anomalies. Cette évaluation repose sur trois oracles construits manuellement à partir de programmes AES et d'applets OpenPGP. Les résultats montrent que la seconde approche permet de détecter des vulnérabilités avec plus de précision, de rappel, et en moins de temps que la première approche. Aussi, son implémentation nommée Confiance pourrait être utilisé en entreprise pour sécuriser des applets
Nowadays, smart cards are used daily. They enable users to pay or sign numeric documents for example. Because they contain sensible information about their user and secrets, attackers are interested in them. In particular, these attackers can use fuzzing. This attack consists in sending the most possible communication messages to a program in order to detect its vulnerabilities. This thesis aims at protecting smart cards against fuzzing. Two approaches for detecting implementation errors are proposed. The first one is from the state of the art, and it is adapted and improved for Java. It is based on an automated source code analysis. The second approach analyses source codes too, but it takes into account limitations of the first one. In particular, the precision and the dimension reduction is improved by using Natural Language Processing techniques. In addition, it studies plagiarsm techniques in order to reinforce its analysis against different implementations choices. An inter-procedural of the control flow graph is achieved for reducing the false positives. Both approaches are evaluated against three manually created oracles from OpenPGP and AES implementations for the neighborhood discovery and the anomaly detection. Results show that the second approach is improved in precision, recall and with less execution time than the first one. Its implementation, Confiance can be used in companies to secure source codes
APA, Harvard, Vancouver, ISO, and other styles
2

Godin, Christelle. "Contributions à l'embarquabilité et à la robustesse des réseaux de neurones en environnement radiatif : apprentissage constructif : neurones à impulsions." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2000. http://www.theses.fr/2000ESAE0013.

Full text
Abstract:
Les réseaux de neurones et plus particulièrement les perceptrons multi-couches sont aujourd'hui largement utilisés pour des tâches de classification. L'environnement radiatif, hostile pour les équipements électroniques, provoque des modifications de leur fonctionnement. Cette thèse explore deux voies dans le but d'obtenir des réseaux de neurones robustes destinés à être embarqués dans des systèmes fonctionnant en environnement radiatif. La première approche est basée sur un nouvel algorithme d'apprentissage constructif, appelé NetLS, qui est une généralisation des algorithmes NetLines et Net Spheres. Nous montrons sur des problèmes étalons qu'il permet d'aboutir à des réseaux de neurones binaires de très petite taille alors que d'autres algorithmes conduisent à des classifieurs bien plus complexes pour des performances équivalentes. La seconde approche consiste à utiliser un nouveau modèle de neurone à impulsions pour l'implantation de neurones à fonction de réponse continue. Ainsi, n'importe quel algorithme d'apprentissage classique (rétropropagation et ses variantes) peut être utilisé et le réseau de neurones obtenu peut fonctionner avec ces neurones à impulsions. Dans ces conditions, nous montrons que lors de la relaxation du réseau les performances augmentent au cours du temps jusqu'à atteindre celles du réseau de neurones continus. Ainsi, si une erreur se produit au cours du calcul, l'information disponible peut représenter une partie du résultat. Une architecture numérique pour ce neurone est proposée et évaluée. La surface occupée sur le silicium est 10 fois inférieure à celle nécessaire pour implanter une neurone continu. Ces deux approches conduisent à des réseaux de neurones de faible surface : la probabilité d'une erreur due aux radiations est minimisée. Ils ont été confrontés à des problèmes de détection de signaux radar de deux types, les premiers étant générés par un modèle, et les seconds des échos ionosphériques mesurés par le radar du projet EISCAT (European Incoherent SCATter).
APA, Harvard, Vancouver, ISO, and other styles
3

Allenet, Thibault. "Quantization and adversarial robustness of embedded deep neural networks." Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. https://ged.univ-rennes1.fr/nuxeo/site/esupversions/5f524c49-7a4a-4724-ae77-9afe383b7c3c.

Full text
Abstract:
Les réseaux de neurones convolutifs et les réseaux neurones récurrents (RNN) ont été largement utilisés dans de nombreux domaines tels que la vision par ordinateur, le traitement naturel du langage et le traitement du signal. Néanmoins, la charge de calcul et le besoin en bande passante mémoire impliqués dans l'inférence des réseaux de neurones profonds empêchent souvent leur déploiement sur des cibles embarquées à faible ressources. De plus, la vulnérabilité des réseaux de neurones profonds à de petites perturbations sur les entrées remet en question leur déploiement pour des applications impliquant des décisions de haute criticité. Pour relever ces défis, cette thèse propose deux principales contributions. D'une part, nous proposons des méthodes de compression pour rendre les réseaux de neurones profonds plus adaptés aux systèmes embarqués ayant de faibles ressources. D'autre part, nous proposons une nouvelle stratégie pour rendre les réseaux de neurones profonds plus robustes aux attaques adverses en tenant compte des ressources limitées des systèmes embarqués. Dans un premier temps, nous présentons une revue de la littérature sur des principes et des outils de bases de l'apprentissage profond, des types de réseaux de neurones reconnus et un état de l'art sur des méthodes de compression de réseaux de neurones. Ensuite, nous présentons deux contributions autour de la compression des réseaux de neurones profonds : une étude de transférabilité du Lottery Ticket sur les RNN et une méthode de quantification à l’apprentissage. L’étude de transférabilité du Lottery Ticket sur les RNN analyse la convergence des RNN et étudie son impact sur l'élagage des paramètres pour des taches de classification d'images et de modélisation du langage. Nous proposons aussi une méthode de prétraitement basée sur le sous-échantillonnage des données qui permet une convergence plus rapide des LSTM tout en préservant les performances applicatives. Avec la méthode Disentangled Loss Quantization Aware Training (DL-QAT), nous proposons d'améliorer une méthode de quantification avancée avec des fonctions de coût favorables à la quantification afin d'atteindre des paramètres binaires. Les expériences sur ImageNet-1k avec DL-QAT montrent une amélioration de près de 1 % sur la précision du score de ResNet-18 avec des poids binaires et des activations de 2 bits. Il apparaît clairement que DL-QAT fournit le meilleur profil du compromis entre l'empreinte mémoire et la performance applicative. Ce travail étudie ensuite la robustesse des réseaux de neurones face aux attaques adverses. Après avoir présenté l'état de l'art sur les attaques adverses et les mécanismes de défense, nous proposons le mécanisme de défense Ensemble Hash Defense (EHD). EHD permet une meilleure résistance aux attaques adverses basées sur l'approximation du gradient tout en préservant les performances de l'application et en ne nécessitant qu'une surcharge de mémoire au moment de l'inférence. Dans la meilleure configuration, notre système réalise des gains de robustesse significatifs par rapport aux modèles de base et à une approche de robustesse basée sur la fonction de coût. De plus, le principe de l'EHD la rend complémentaire à d'autres méthodes d'optimisation robuste qui permettraient d'améliorer encore la robustesse du système final. Dans la perspective de l'inférence sur cible embarquée, la surcharge mémoire introduite par l'EHD peut être réduite par la quantification ou le partage de poids. En conclusion, les travaux de cette thèse ont proposé des méthodes de compression de réseaux de neurones et un système de défense pour résoudre des défis importants, à savoir comment rendre les réseaux de neurones profonds plus robustes face aux attaques adverses et plus faciles à déployer sur les plateformes à ressources limitées. Ces travaux réduisent davantage l'écart entre l'état de l'art des réseaux neurones profonds et leur exécution sur des cibles embarquées à faible ressources
Convolutional Neural Networks (CNNs) and Recurrent Neural Networks (RNNs) have been broadly used in many fields such as computer vision, natural language processing and signal processing. Nevertheless, the computational workload and the heavy memory bandwidth involved in deep neural networks inference often prevents their deployment on low-power embedded devices. Moreover, deep neural networks vulnerability towards small input perturbations questions their deployment for applications involving high criticality decisions. This PhD research project objective is twofold. On the one hand, it proposes compression methods to make deep neural networks more suitable for embedded systems with low computing resources and memory requirements. On the other hand, it proposes a new strategy to make deep neural networks more robust towards attacks based on crafted inputs with the perspective to infer on edge. We begin by introducing common concepts for training neural networks, convolutional neural networks, recurrent neural networks and review the state of the art neural on deep neural networks compression methods. After this literature review we present two main contributions on compressing deep neural networks: an investigation of lottery tickets on RNNs and Disentangled Loss Quantization Aware Training (DL-QAT) on CNNs. The investigation of lottery tickets on RNNs analyze the convergence of RNNs and study its impact when subject to pruning on image classification and language modelling. Then we present a pre-processing method based on data sub-sampling that enables faster convergence of LSTM while preserving application performance. With the Disentangled Loss Quantization Aware Training (DL-QAT) method, we propose to further improve an advanced quantization method with quantization friendly loss functions to reach low bit settings like binary parameters where the application performance is the most impacted. Experiments on ImageNet-1k with DL-QAT show improvements by nearly 1\% on the top-1 accuracy of ResNet-18 with binary weights and 2-bit activations, and also show the best profile of memory footprint over accuracy when compared with other state-of-the art methods. This work then studies neural networks robustness toward adversarial attacks. After introducing the state of the art on adversarial attacks and defense mechanisms, we propose the Ensemble Hash Defense (EHD) defense mechanism. EHD enables better resilience to adversarial attacks based on gradient approximation while preserving application performance and only requiring a memory overhead at inference time. In the best configuration, our system achieves significant robustness gains compared to baseline models and a loss function-driven approach. Moreover, the principle of EHD makes it complementary to other robust optimization methods that would further enhance the robustness of the final system and compression methods. With the perspective of edge inference, the memory overhead introduced by EHD can be reduced with quantization or weight sharing. The contributions in this thesis have concerned optimization methods and a defense system to solve an important challenge, that is, how to make deep neural networks more robust towards adversarial attacks and easier to deployed on the resource limited platforms. This work further reduces the gap between state of the art deep neural networks and their execution on edge devices
APA, Harvard, Vancouver, ISO, and other styles
4

Ramu, Jean-Philippe. "Efficience d'une documentation opérationnelle contextuelle sur la performance des pilotes de transport aérien." Toulouse, ISAE, 2008. http://www.theses.fr/2008ESAE0020.

Full text
Abstract:
La documentation a rencontré des changements radicaux au cours de cette dernière décennie. Un pas important a été franchi avec l'avènement de la documentation en format électronique. La documentation opérationnelle aéronautique est elle aussi de plus en plus disponible en format électronique, et offre de nouvelles opportunités d'utilité et des défis d'utilisabilité. Nous nous attachons à étudier comment cette documentation peut être développée pour répondre à cette évolution. Grâce à une modélisation cognitive de la tâche de recherche d'information, nous catégorisons puis discutons les activités documentaires des pilotes telles que : support de performance, aide à la préparation ou entraînement. Dans ces différentes activités, l’interactivité entre le pilote et la documentation présuppose une notion de pertinence de l'information choisie. Nous utilisons la notion de contexte comme référentiel de pertinence. Notre modélisation du contexte est composée de trois catégories de descripteurs sémantiques, qui sont : les tâches, les conditions et les ressources. L'articulation de ces trois catégories de contexte définit l'ensemble des situations décrites dans la documentation aéronautique. La thèse met en application les propositions de notre modélisation en utilisant une approche centrée utilisateur. D'abord, un questionnaire sur l'utilisation de la documentation illustre les besoins des pilotes. Ensuite, deux cycles de conceptions/évaluations d'un prototype de documentation contextuelle permettent de spécifier une méthode de contextualisation de la documentation, ainsi que de proposer des interactions susceptibles de supporter les catégories d'activités documentaires des pilotes.
APA, Harvard, Vancouver, ISO, and other styles
5

Emteu, Tchagou Serge Vladimir. "Réduction à la volée du volume des traces d'exécution pour l'analyse d'applications multimédia de systèmes embarqués." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM051/document.

Full text
Abstract:
Le marché de l'électronique grand public est dominé par les systèmes embarqués du fait de leur puissance de calcul toujours croissante et des nombreuses fonctionnalités qu'ils proposent.Pour procurer de telles caractéristiques, les architectures des systèmes embarqués sont devenues de plus en plus complexes (pluralité et hétérogénéité des unités de traitements, exécution concurrente des tâches, ...).Cette complexité a fortement influencé leur programmabilité au point où rendre difficile la compréhension de l'exécution d'une application sur ces architectures.L'approche la plus utilisée actuellement pour l'analyse de l'exécution des applications sur les systèmes embarqués est la capture des traces d'exécution (séquences d'événements, tels que les appels systèmes ou les changements de contexte, générés pendant l'exécution des applications).Cette approche est utilisée lors des activités de test, débogage ou de profilage des applications.Toutefois, suivant certains cas d'utilisation, les traces d'exécution générées peuvent devenir très volumineuses, de l'ordre de plusieurs centaines de gigaoctets.C'est le cas des tests d'endurance ou encore des tests de validation, qui consistent à tracer l'exécution d'une application sur un système embarqué pendant de longues périodes, allant de plusieurs heures à plusieurs jours.Les outils et méthodes d'analyse de traces d'exécution actuels ne sont pas conçus pour traiter de telles quantités de données.Nous proposons une approche de réduction du volume de trace enregistrée à travers une analyse à la volée de la trace durant sa capture.Notre approche repose sur les spécificités des applications multimédia, qui sont parmi les plus importantes pour le succès des dispositifs populaires comme les Set-top boxes ou les smartphones.Notre approche a pour but de détecter automatiquement les fragments (périodes) suspectes de l'exécution d'une application afin de n'enregistrer que les parties de la trace correspondant à ces périodes d'activités.L'approche que nous proposons comporte deux étapes : une étape d'apprentissage qui consiste à découvrir les comportements réguliers de l'application à partir de la trace d'exécution, et une étape de détection d'anomalies qui consiste à identifier les comportements déviant des comportements réguliers.Les nombreuses expériences, réalisées sur des données synthétiques et des données réelles, montrent que notre approche permet d'obtenir une réduction du volume de trace enregistrée d'un ordre de grandeur avec d'excellentes performances de détection des comportements suspects
The consumer electronics market is dominated by embedded systems due to their ever-increasing processing power and the large number of functionnalities they offer.To provide such features, architectures of embedded systems have increased in complexity: they rely on several heterogeneous processing units, and allow concurrent tasks execution.This complexity degrades the programmability of embedded system architectures and makes application execution difficult to understand on such systems.The most used approach for analyzing application execution on embedded systems consists in capturing execution traces (event sequences, such as system call invocations or context switch, generated during application execution).This approach is used in application testing, debugging or profiling.However in some use cases, execution traces generated can be very large, up to several hundreds of gigabytes.For example endurance tests, which are tests consisting in tracing execution of an application on an embedded system during long periods, from several hours to several days.Current tools and methods for analyzing execution traces are not designed to handle such amounts of data.We propose an approach for monitoring an application execution by analyzing traces on the fly in order to reduce the volume of recorded trace.Our approach is based on features of multimedia applications which contribute the most to the success of popular devices such as set-top boxes or smartphones.This approach consists in identifying automatically the suspicious periods of an application execution in order to record only the parts of traces which correspond to these periods.The proposed approach consists of two steps: a learning step which discovers regular behaviors of an application from its execution trace, and an anomaly detection step which identifies behaviors deviating from the regular ones.The many experiments, performed on synthetic and real-life datasets, show that our approach reduces the trace size by an order of magnitude while maintaining a good performance in detecting suspicious behaviors
APA, Harvard, Vancouver, ISO, and other styles
6

Bahl, Gaétan. "Architectures deep learning pour l'analyse d'images satellite embarquée." Thesis, Université Côte d'Azur, 2022. https://tel.archives-ouvertes.fr/tel-03789667.

Full text
Abstract:
Les progrès des satellites d'observation de la Terre à haute résolution et la réduction des temps de revisite introduite par la création de constellations de satellites ont conduit à la création quotidienne de grandes quantités d'images (des centaines de Teraoctets par jour). Simultanément, la popularisation des techniques de Deep Learning a permis le développement d'architectures capables d'extraire le contenu sémantique des images. Bien que ces algorithmes nécessitent généralement l'utilisation de matériel puissant, des accélérateurs d'inférence IA de faible puissance ont récemment été développés et ont le potentiel d'être utilisés dans les prochaines générations de satellites, ouvrant ainsi la possibilité d'une analyse embarquée des images satellite. En extrayant les informations intéressantes des images satellite directement à bord, il est possible de réduire considérablement l'utilisation de la bande passante, du stockage et de la mémoire. Les applications actuelles et futures, telles que la réponse aux catastrophes, l'agriculture de précision et la surveillance du climat, bénéficieraient d'une latence de traitement plus faible, voire d'alertes en temps réel.Dans cette thèse, notre objectif est double : D'une part, nous concevons des architectures de Deep Learning efficaces, capables de fonctionner sur des périphériques de faible puissance, tels que des satellites ou des drones, tout en conservant une précision suffisante. D'autre part, nous concevons nos algorithmes en gardant à l'esprit l'importance d'avoir une sortie compacte qui peut être efficacement calculée, stockée, transmise au sol ou à d'autres satellites dans une constellation.Tout d'abord, en utilisant des convolutions séparables en profondeur et des réseaux neuronaux récurrents convolutionnels, nous concevons des réseaux neuronaux de segmentation sémantique efficaces avec un faible nombre de paramètres et une faible utilisation de la mémoire. Nous appliquons ces architectures à la segmentation des nuages et des forêts dans les images satellites. Nous concevons également une architecture spécifique pour la segmentation des nuages sur le FPGA d'OPS-SAT, un satellite lancé par l'ESA en 2019, et réalisons des expériences à bord à distance. Deuxièmement, nous développons une architecture de segmentation d'instance pour la régression de contours lisses basée sur une représentation à coefficients de Fourier, qui permet de stocker et de transmettre efficacement les formes des objets détectés. Nous évaluons la performance de notre méthode sur une variété de dispositifs informatiques à faible puissance. Enfin, nous proposons une architecture d'extraction de graphes routiers basée sur une combinaison de Fully Convolutional Networks et de Graph Neural Networks. Nous montrons que notre méthode est nettement plus rapide que les méthodes concurrentes, tout en conservant une bonne précision
The recent advances in high-resolution Earth observation satellites and the reduction in revisit times introduced by the creation of constellations of satellites has led to the daily creation of large amounts of image data hundreds of TeraBytes per day). Simultaneously, the popularization of Deep Learning techniques allowed the development of architectures capable of extracting semantic content from images. While these algorithms usually require the use of powerful hardware, low-power AI inference accelerators have recently been developed and have the potential to be used in the next generations of satellites, thus opening the possibility of onboard analysis of satellite imagery. By extracting the information of interest from satellite images directly onboard, a substantial reduction in bandwidth, storage and memory usage can be achieved. Current and future applications, such as disaster response, precision agriculture and climate monitoring, would benefit from a lower processing latency and even real-time alerts.In this thesis, our goal is two-fold: On the one hand, we design efficient Deep Learning architectures that are able to run on low-power edge devices, such as satellites or drones, while retaining a sufficient accuracy. On the other hand, we design our algorithms while keeping in mind the importance of having a compact output that can be efficiently computed, stored, transmitted to the ground or other satellites within a constellation.First, by using depth-wise separable convolutions and convolutional recurrent neural networks, we design efficient semantic segmentation neural networks with a low number of parameters and a low memory usage. We apply these architectures to cloud and forest segmentation in satellite images. We also specifically design an architecture for cloud segmentation on the FPGA of OPS-SAT, a satellite launched by ESA in 2019, and perform onboard experiments remotely. Second, we develop an instance segmentation architecture for the regression of smooth contours based on the Fourier coefficient representation, which allows detected object shapes to be stored and transmitted efficiently. We evaluate the performance of our method on a variety of low-power computing devices. Finally, we propose a road graph extraction architecture based on a combination of fully convolutional and graph neural networks. We show that our method is significantly faster than competing methods, while retaining a good accuracy
APA, Harvard, Vancouver, ISO, and other styles
7

Morozkin, Pavel. "Design and implementation of image processing and compression algorithms for a miniature embedded eye tracking system." Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS435.pdf.

Full text
Abstract:
Les interactions Homme-machines (IHM) deviennent progressivement une partie intégrante de notre futur. Parmi eux, les systèmes embarqués d’oculométrie permettent à l'utilisateur d’interagir avec les objets placés dans un environnement connu, par l'utilisation les mouvements naturels des yeux. La solution mobile d’oculométrie EyeDee™ (développée par SuriCog) est un exemple précis de produit basé sur l’IHM. Elle inclut un système portable filaire ou sans fil Weetsy™ composé d’une monture Weetsy™ et d’une carte électronique Weetsy™, d’un capteur intelligent à distance π-Box™ et d’une unité de traitement basé sur un PC exécutant le logiciel SuriDev (analyse des mouvements des yeux, détection de la position de la tête et estimation du regard) qui délivre les résultats en temps réel à une application du client via SuriSDK™ (Software Development Kit, Kit de Développement Logiciel). En raison du caractère portable du système d’oculométrie développé il faut se conformer à certaines contraintes. Les plus importantes sont : une faible consommation d'énergie, un faible dégagement de chaleur, un faible rayonnement électromagnétique, un nombre limité d’instructions par seconde (MIPS – Million Instructions Per Second), ainsi qu’un support de transmission sans fil de données de l’œil. Par rapport à l'état-de-l'art des systèmes de compression d'images employés généralement, il est possible de construire de toutes nouvelles méthodes, approches et algorithmes de traitement d’images et de compression spécialisées à l’application de l’analyse des mouvements des yeux. Développement et implémentation de ces méthodes, approches et algorithmes sont les objectifs de la thèse
Human-Machine Interaction (HMI) progressively becomes a part of coming future. Being an example of HMI, embedded eye tracking systems allow user to interact with objects placed in a known environment by using natural eye movements. The EyeDee™ portable eye tracking solution (developed by SuriCog) is an example of an HMI-based product, which includes Weetsy™ portable wire/wireless system (including Weetsy™ frame and Weetsy™ board), π-Box™ remote smart sensor and PC-based processing unit running SuriDev eye/head tracking and gaze estimation software, delivering its result in real time to a client’s application through SuriSDK (Software Development Kit). Due to wearable form factor developed eye-tracking system must conform to certain constraints, where the most important are low power consumption, low heat generation low electromagnetic radiation, low MIPS (Million Instructions per Second), as well as support wireless eye data transmission and be space efficient in general. Eye image acquisition, finding of the eye pupil ROI (Region Of Interest), compression of ROI and its wireless transmission in compressed form over a medium are very beginning steps of the entire eye tracking algorithm targeted on finding coordinates of human eye pupil. Therefore, it is necessary to reach the highest performance possible at each step in the entire chain. In contrast with state-of-the-art general-purpose image compression systems, it is possible to construct an entire new eye tracking application-specific image processing and compression methods, approaches and algorithms, design and implementation of which are the goal of this thesis
APA, Harvard, Vancouver, ISO, and other styles
8

Yang, Wenlu. "Personalized physiological-based emotion recognition and implementation on hardware." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS064.

Full text
Abstract:
Cette thèse étudie la reconnaissance des émotions à partir de signaux physiologiques dans le contexte des jeux vidéo et la faisabilité de sa mise en œuvre sur un système embarqué. Les défis suivants sont abordés : la relation entre les états émotionnels et les réponses physiologiques dans le contexte du jeu, les variabilités individuelles des réponses psycho-physiologiques et les problèmes de mise en œuvre sur un système embarqué. Les contributions majeures de cette thèse sont les suivantes. Premièrement, nous construisons une base de données multimodale dans le cadre de l'Affective Gaming (DAG). Cette base de données contient plusieurs mesures concernant les modalités objectives telles que les signaux physiologiques de joueurs et des évaluations subjectives sur des phases de jeu. A l'aide de cette base, nous présentons une série d'analyses effectuées pour la détection des moments marquant émotionnellement et la classification des émotions à l'aide de diverses méthodes d'apprentissage automatique. Deuxièmement, nous étudions la variabilité individuelle de la réponse émotionnelle et proposons un modèle basé sur un groupe de joueurs déterminé par un clustering selon un ensemble de traits physiologiques pertinents. Nos travaux mettent en avant le fait que le modèle proposé, basé sur un tel groupe personnalisé, est plus performant qu'un modèle général ou qu'un modèle spécifique à un utilisateur. Troisièmement, nous appliquons la méthode proposée sur un système ARM A9 et montrons que la méthode proposée peut répondre à l'exigence de temps de calcul
This thesis investigates physiological-based emotion recognition in a digital game context and the feasibility of implementing the model on an embedded system. The following chanllenges are addressed: the relationship between emotional states and physiological responses in the game context, individual variabilities of the pschophysiological responses and issues of implementation on an embedded system. The major contributions of this thesis are : Firstly, we construct a multi-modal Database for Affective Gaming (DAG). This database contains multiple measurements concerning objective modalities: physiological signals (ECG, EDA, EMG, Respiration), screen recording, and player's face recording, as well as subjective assessments on both game event and match level. We presented statistics of the database and run a series of analysis on issues such as emotional moment detection and emotion classification, influencing factors of the overall game experience using various machine learning methods. Secondly, we investigate the individual variability in the collected data by creating an user-specific model and analyzing the optimal feature set for each individual. We proposed a personalized group-based model created the similar user groups by using the clustering techniques based on physiological traits deduced from optimal feature set. We showed that the proposed personalized group-based model performs better than the general model and user-specific model. Thirdly, we implemente the proposed method on an ARM A9 system and showed that the proposed method can meet the requirement of computation time
APA, Harvard, Vancouver, ISO, and other styles
9

Caron, François. "Conception automatique de systèmes embarqués pour la téléphonie mobile 3G." Nice, 2006. http://www.theses.fr/2006NICE4091.

Full text
Abstract:
Apparues pour répondre à de nouveaux besoin du marché de la téléphonie mobile, les normes de télécommunication mobile de troisième génération posent de nouveaux défis aux industriels. En effet, ces normes proposent aux utilisateurs finals une multitude de services présentant des débits de données différents. Cette caractéristique implique une complexité très importante de certains éléments composant le réseau, notamment au niveau des stations de base. Les stations de base des réseaux de troisième génération doivent être capables de traiter en parallèle l’ensemble des données émises et reçues d’une multitude d’utilisateurs communiquant en simultanés. Les travaux de thèse présentés dans ce mémoire portent sur la définition d’un nouvel outil de co-conception logicielle-matérielle. Cet outil, nommé BERLIOZ, « emBedded systEM exploRation for pipeLIned executiOn optimiZation » propose au concepteur de systèmes embarqués un ensemble de solutions architecturales aux problèmes posés par les normes de télécommunication de troisième génération comme l’UMTS par exemple. Cet outil est donc capable d’analyser des applications de type traitements du signal ayant une périodicité potentiellement inférieure à son échéance. L’exploration de l’espace de solutions est réalisée à l’aide d’une heuristique basée sur deux algorithmes génétiques. L’utilisation de ces algorithmes permet d’atteindre des solutions architecturales respectant un ensemble de contraintes comme la surface de silicium nécessaire à la réalisation d’un système sur puce. Après avoir étudié profondément une norme de troisième génération, appelée UTMS, nous avons validé notre approche sur une application représentative des problèmes industriels : la réalisation de la partie « Symbol Rate » d’une station de base UTMS
Due to new request from the market of the mobile phone, the new third generation of standards challenges designers. Actually, these standards define a multitude of services using different bitrates that the final customer can use. This capability implies a very high complexity at some points of the network, in particular for base-stations. Base stations of the third generation mobile networks should be able to process a lot of data received from and sending to a multitude of users, communicating at the same time. PhD work presented in this document is about the definition of a new software/hardware co-design tool. This tool called BERLIOZ, « emBedded systEM exploRation for pipeLIned executiOn optimiZation », offers to embedded systems designers a set of architectural solutions to the problems posed by third mobile generations standards like the UMTS. So, this tool can analyse applications of signal processing which periodicity can be shorter than their deadlines. The computation of solutions is done with the help of a heuristic composed of two genetic algorithms. The use of these algorithms allows to achieve solutions matching a set of constraints like the silicium area of a system. After the deep study of third generation standard called UMTS, we have validated our approach on a real industrial application : the design of the “Symbol rate” part of a UMTS base-station
APA, Harvard, Vancouver, ISO, and other styles
10

Lévy, Christophe. "Modèles acoustiques compacts pour les systèmes embarqués." Avignon, 2006. http://www.theses.fr/2006AVIG0143.

Full text
Abstract:
Depuis le lancement des téléphones portables au milieu des années 90,leurs ventes n'ont cessé de progresser. Leur taille, comme celle de l'ensemble des systèmes embarqués (téléphone, GPS, PDA. . . ), a constamment été réduite, quand, dans le même temps, le nombre de services offerts n'a fait qu'augmenter. D'une manière générale, la plupart des systèmes embarqués offre aujourd'hui une interface homme-machine complexe et peu conviviale. L'intégration d'un moteur de reconnaissance de la parole dans ces systèmes offre une voie intéressante pour améliorer leurergonomie. Cette thèse s'inscrit dans le cadre de la Reconnaissance Automatique de la Parole (RAP) intégrée dans les systèmes embarqués. Les ressources disponibles dans ces systèmes sont nettement inférieures à celles des ordinateurs généralement utilisés pour la RAP, tant du point de vue de la puissance de calcul que de la quantité de mémoire. Les travaux que nous présentons s'inscrivent dans cette problématique de la RAP en situation de ressources réduites et plus particulièrement ans le cadre de la réduction de la taille des modèles acoustiques
The amount of services offered by the last generation mobile phones has significantly increased compared to previous generations. Nowadays, phones offer new kinds of facilitiessuch as organizers, phone books, e-mail/fax, and games. At the same time, the size of mobile phones has steadily reduced. Both these observations raise an important question: ?How can we use the full facilities of a mobile phone without a large keyboard??. Voice based human-to-computer interfaces supply a friendly solution to this problem but require an embedded speech recognizer. Over the last decade, the performance of Automatic Speech Recognition (ASR) systems has improved and nowadays facilites the implementation of vocal human-to-computer interfaces. Moreover, even if scientific progress could be noticed, the potential gain (in performance) remains limited by computing resources: a relatively modern computer with a lot of memory is generally required. The main problem to embed ASR in a mobile phone is the low level of resources available in this context which classically consists of a 50/100 MHz processor, a 50/100 MHz DSP, and less than 100KB of memory. This thesis focuses on embedded speech recognition in the context of limited resources
APA, Harvard, Vancouver, ISO, and other styles
11

Almousa, Almaksour Abdullah. "Apprentissage incrémental de systèmes d'inférence floue : Application à la reconnaissance de gestes manuscrits." Rennes, INSA, 2011. http://www.theses.fr/2011ISAR0015.

Full text
Abstract:
Nous présentons une nouvelle méthode pour la conception de moteurs de reconnaissance personnalisables et auto-évolutifs. Nous proposons une approche incrémental pour l’apprentissage des systèmes d’inférence floue de type Takagi-Sugeno. Cette approche comprend d’une part, une adaptation des paramètres linéaires associés aux conclusions des règles par méthode des moindres carrés récursive, et d’autre part, un apprentissage incrémental des prémisses de ces règles afin de modifier les fonctions d’appartenance suivant l’évolution de la densité des données dans l’espace de classification. La méthode proposée résout les problèmes d’instabilité d’apprentissage incrémental de ce type de systèmes grâce à un paradigme global d’apprentissage où les prémisses et les conclusions sont apprises en synergie et non de façon indépendante. La performance de ce système a été démontrée sur des benchmarks connus, en mettant en évidence sa capacité d’apprentissage à la volée de nouvelles classes
We present in a new method for the conception of evolving and customizable classification systems. We propose an incremental approach for the learning of classification models based on first-order Takagi-Sugeno (TS) fuzzy inference systems. This approach includes, on the one hand, the adaptation of linear consequences of the fuzzy rules using the recursive least-squares method, and, on the other hand, an incremental learning of the antecedent of these rules in order to modify the membership functions according to the evolution of data density in the input space. The proposed method resolves the instability problems in the incremental learning of TS models thanks to a global learning paradigm in which antecedent and consequents are learned in synergy, contrary to the existing approaches where they are learned separately. The performance of our system had been demonstrated on different well-known benchmarks, with a special focus on its capacity of learning new classes
APA, Harvard, Vancouver, ISO, and other styles
12

Pradel, Bruno. "Evaluation des systèmes de recommandation à partir d'historiques de données." Paris 6, 2013. http://www.theses.fr/2013PA066263.

Full text
Abstract:
Cette thèse présente différents protocoles d'évaluations permettantune meilleure estimation des erreurs de systèmes de recommandationsconstruits à partir d'historiques de données d'utilisateurs (ie sansinteractions directes avec les utilisateurs du système). Dans un premier chapitre de contribution, nous présentons lesrésultats d'une étude de cas d'un système de recommandation uniquementbasé sur les données d'achats d'un magasin de bricolage. Larecommandation est une tâche complexe qui à été souvent assimiléeuniquement à tache de prédiction de notes. Dans cette étude, nouscherchons à prédire les achats qu'un client va effectuer et non lanote qu'il attribuerait à un produit. Les données de notes étantindisponibles pour bon nombre d'industriels, cela correspond à uneapplication fréquemment rencontrée en pratique mais pourtant rarementtraitée dans la littérature. Dans ce cadre, nous évaluons lesperformances de plusieurs algorithmes de filtrage collaboratif del'état de l'art. Nous montrons comment certaines modifications desprotocoles d'apprentissages et de tests, ainsi que l'apportd'information de contexte, aboutit à de fortes variations desperformances entre algorithmes et à une sélection de modèle différente. Dans les chapitres suivants, nous abordons la problématique del'évaluation d'algorithmes de filtrage collaboratif à partir denotes. Dans un deuxième chapitre, nous détaillons notre participationau challenge de recommandation contextuelle de films CAMRa. Cechallenge propose deux modifications du protocole classique deprédiction de notes: les algorithmes sont évalués en considérant desmesures d'ordonnancement et les notes sont échantillonnées en test demanière temporelle sur deux périodes spécifiques de l'année: lasemaine de Noël et de la cérémonie des Oscars. Nous proposons unalgorithme de recommandations personnalisées qui prend en compte lesvariations temporelles de la popularité des items. La dernière contribution de cette thèse étudie l'influence duprocessus d'observations des notes sur les mesures de performancesTopK (rappel/ précision). Les utilisateurs choisissent les itemsqu'ils veulent noter, ainsi les notes sont obtenues par un processusd'observations non aléatoires. D'une part, certains items reçoiventbeaucoup plus de notes que les autres, et d'autre part, les notes"positives" sont sur-observés car les utilisateurs notent plusfréquemment les items qu'ils aiment. Nous proposons une analysethéorique de ces phénomènes et présentons également des résultatsd'expériences effectuées à l'aide de données Yahoo! réunissant desnotes collectées à la fois de manière classique et de manièrealéatoire. Nous montrons notamment qu'une prise en compte des notesmanquantes comme négatives en apprentissage aboutit à de bonnesperformances sur les mesures TopK, mais que ces performances peuventêtre trompeuses en favorisant des algorithmes modélisant la popularitédes items plus que les réelles préférences des utilisateurs
This thesis presents various experimental protocols leading to abetter offline estimation of errors in recommender systems. As a first contribution, results form a case study of a recommendersystem based on purchased data will be presented. Recommending itemsis a complex task that has been mainly studied considering solelyratings data. In this study, we put the stress on predicting thepurchase a customer will make rather than the rating he will assign toan item. While ratings data are not available for many industries andpurchases data widely used, very few studies considered purchasesdata. In that setting, we compare the performances of variouscollaborative filtering models from the litterature. We notably showthat some changes the training and testing phases, and theintroduction of contextual information lead to major changes of therelative perfomances of algorithms. The following contributions will focus on the study of ratings data. Asecond contribution will present our participation to the Challenge onContext-Aware Movie Recommendation. This challenge provides two majorchanges in the standard ratings prediction protocol: models areevaluated conisdering ratings metrics and tested on two specificsperiod of the year: Christmas and Oscars. We provides personnalizedrecommendation modeling the short-term evolution of the popularitiesof movies. Finally, we study the impact of the observation process of ratings onranking evaluation metrics. Users choose the items they want to rateand, as a result, ratings on items are not observed at random. First,some items receive a lot more ratings than others and secondly, highratings are more likely to be oberved than poor ones because usersmainly rate the items they likes. We propose a formal analysis ofthese effects on evaluation metrics and experiments on the Yahoo!Musicdataset, gathering standard and randomly collected ratings. We showthat considering missing ratings as negative during training phaseleads to good performances on the TopK task, but these performancescan be misleading favoring methods modeling the popularities of itemsmore than the real tastes of users
APA, Harvard, Vancouver, ISO, and other styles
13

Chkouri, Mohamed Yassin. "Modélisation des systèmes temps-réel embarqués en utilisant AADL pour la génération automatique d'applications formellement vérifiées." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00516152.

Full text
Abstract:
Le langage d'analyse et de description d'architectures (AADL) fait l'objet d'un intérêt croissant dans l'industrie des systèmes embarqués tempsréel. Il définit plusieurs catégories de composants, réparties en trois grandes familles (logiciel, matériel, système). Le travail réalisé durant cette thèse exploite les fonctionnalités offertes par AADL pour spécifier les besoins exacts d'une application et exprimer toutes les caractéristiques tant fonctionnelles que non fonctionnelles dimensions temporelle et spatiale), afin de la produire automatiquement. La méthodologie de production que nous proposons génère automatiquement, à partir d'une application décrite en AADL, une application décrite en BIP. BIP permet de mettre en place des systèmes robustes et sûrs en produisant un contrôleur d'exécution correct par construction et en fournissant un modèle formel. Les objectifs de ce processus de production sont : (1) fournir à AADL une sémantique formelle définie en termes de systèmes de transitions étiquetés ; (2) permettre l'analyse et la validation, c'est à dire, l'exploration exhaustive de l'espace des états du système, la détection des blocages potentiels et la vérification de certaines propriétés ; (3) permettre la génération d'une application exécutable pour simuler et déboguer les modèles AADL. Ces trois derniers points jouent en faveur de l'utilisation de méthodes formelles dans le cycle de développement.
APA, Harvard, Vancouver, ISO, and other styles
14

Vergnaud, Thomas. "Modélisation des systèmes temps-réel répartis embarqués pour la génération automatique d'applications formellement vérifiées." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002122.

Full text
Abstract:
La construction d'une application répartie fait en général intervenir une couche logicielle particulière, appelée intergiciel, qui prend en charge la transmission des données entre les différents noeuds de l'application. La conception d'applications pour les systèmes embarqués temps-réel implique la prise en compte de certaines contraintes spécifiques à ce domaine, que ce soit en terme fiabilité ou de dimensions à la fois temporelles et spatiales. Ces contraintes doivent notamment être respectées par l'intergiciel. L'objet de ces travaux est la description des applications temps-réel réparties embarquées en vue de configurer automatiquement l'intergiciel adéquat. L'étude se focalise sur la définition d'un processus de conception permettant d'intégrer les phases de description, de vérification et de génération de l'application complète. Pour cela, nous nous reposons sur le langage de description d'architecture AADL. Nous l'exploitons comme passerelle entre la phase de description de l'architecture applicative, les formalismes de vérification, la génération du code exécutable et la configuration de l'exécutif réparti. Nous montrons comment spécifier un exécutif pour AADL afin de produire automatiquement le code applicatif et l'intergiciel pour une application répartie. Nous montrons également comment exploiter ces spécifications pour produire un réseau de Petri afin d'étudier l'intégrité des flux d'exécution dans l'architecture. Afin de valider notre processus de conception, nous avons conçu et développé Ocarina, un compilateur pour AADL qui utilise l'intergiciel schizophrène PolyORB comme exécutif.
APA, Harvard, Vancouver, ISO, and other styles
15

Domingues, Antonio. "Système embarqué multi-capteurs pour la détection d'obstacles routiers : développement du prototype et réglage automatique de la chaîne de traitements d'images." Orléans, 2004. http://www.theses.fr/2004ORLE2026.

Full text
Abstract:
Ces travaux ont été effectués en collaboration avec la société MBDA et l'équipementier FAURECIA pour l'étude de nouvelles générations d'airbags. Positionné à l'avant d'un véhicule porteur, ce système permet d'évaluer la sévérité et les conditions cinématiques d'une collision inévitable. Le mémoire débute par un état de l'art sur les applications routières des systèmes de vision embarqués et le choix d'une solution multicapteurs. La deuxième et la troisième partie sont consacrées aux traitements des données images et télémétriques, et à la reconnaissance des obstacles les plus courants. La chaîne complète de traitement a été développée et intégrée dans une carte électronique. Les essais du véhicule test ont validé la solution proposée mais ont aussi établi ses limites lors de conditions de trafic et d'éclairage dégradées. Il convient donc d'adapter les paramètres de traitement en permanence pour garantir la robustesse de la détection des obstacles. Jusqu'à présent, la qualité des traitements était évaluée séparément pour chaque opérateur et le réglage proposé restait très empirique. Un réglage global de la chaîne de traitement est proposé dans la dernière partie. Il s'appuie sur une approche expérimentale, peu connue en vision, pour déduire un réglage initial après une évaluation de la qualité des traitements. Pour chaque image testée, un réglage itératif par la méthode du simplexe maximise le taux de recouvrement des contours pertinents dans un rectangle englobant. Ces résultats constituent une base d'apprentissage pour un perceptron multicouches dont la couche d'entrée est basée sur l'histogramme d'homogénéité de l'image des gradients. Ce réseau calcule ensuite de nouveaux paramètres proches des valeurs optimales du simplexe, rendant possible un réglage temps réel de la chaîne de traitement sur des circuits électroniques spécialisés.
APA, Harvard, Vancouver, ISO, and other styles
16

Boucheron, Stéphane. "Apprentissage et calculs." Montpellier 2, 1988. http://www.theses.fr/1988MON20251.

Full text
Abstract:
Dans une premiere partie, l'apprentissage automatique a partir d'exemples est analyse a la maniere de valiant dans le cadre de la theorie de la complexite. Des definitions de l'apprentissage a partir d'exemples positifs et de l'apprentissage a partir des donnees corrompues sont proposees et caracterisees tant du point de vue combinatoire que du point de cue algorithmique. Enfin la complexite spatiale de l'apprentissage est analysee a l'aide de concepts issus de la theorie de la complexite de communication. Dans une seconde partie, les rapports des theories formelles de l'apprentissage aux sciences cognitives sont envisages comme ceux de deux niveaux d'explication des phenomenes mentaux, compatibles entre eux, meme s'ils n'utilisent pas de la meme maniere leurs postulats de base. Dans ce contexte l'apport des theories formelles de l'apprentissage aux sciences cognitives est illustre par l'analyse de la controverse inne/acquis. Enfin des differences fondamentales entre les deux niveaux d'explication mentionnes plus haut sont soulignees au travers de l'analyse de la critique de l'usage de la notion de regle par wittgenstein et ses commentateurs
APA, Harvard, Vancouver, ISO, and other styles
17

Roynard, Xavier. "Sémantisation à la volée de nuages de points 3D acquis par systèmes embarqués." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM078.

Full text
Abstract:
Cette thèse se trouve à la confluence de deux mondes en pleine explosion : la voiture autonome et l’intelligence artificielle (particulièrement l’apprentissage profond). Le premier tirant profit du deuxième, les véhicules autonomes utilisent de plus en plus de méthodes d’apprentissage profond pour analyser les données produites par ses différents capteurs (dont les LiDARs) et pour prendre des décisions. Alors que les méthodes d’apprentissage profond ont révolutionné l’analyse des images (en classification et segmentation par exemple), elles ne produisent pas des résultats aussi spectaculaires sur les nuages de points 3D, en particulier parce que les jeux de scènes données de nuages de points 3D annotés sont rares et de qualité moyenne. On présente donc dans cette thèse un nouveau jeu de données réalisé par acquisition mobile pour produire suffisamment de données et annoté à la main pour assurer une bonne qualité de segmentation. De plus ces jeux de données sont par nature déséquilibrés en nombre d’échantillon par classe et contiennent beaucoup d’échantillons redondants, on propose donc une méthode d’échantillonnage adaptée à ces jeux de données. Un autre problème rencontré quand on essaye de classifier un point à partir de son voisinage sous forme de grille voxelique est le compromis entre un pas de discrétisation fin (pour décrire précisément la surface voisine du point) et une grille de taille élevée (pour aller chercher du contexte un peu plus loin). On propose donc également des méthodes de réseaux tirant profit de voisinages multi-échelles. Ces méthodes atteignent l’état de l’art des méthodes de classification par point sur des benchmarks publics. Enfin pour respecter les contraintes imposées par les systèmes embarqués (traitement en temps réel et peu de puissance de calcul), on présente une méthode qui permet de n’appliquer les couches convolutionnelles que là où il y a de l’information à traiter
This thesis is at the confluence of two worlds in rapid growth: autonomous cars and artificial intelligence (especially deep learning). As the first takes advantage of the second, autonomous vehicles are increasingly using deep learning methods to analyze the data produced by its various sensors (including LiDARs) and to make decisions. While deep learning methods have revolutionized image analysis (in classification and segmentation for example), they do not produce such spectacular results on 3D point clouds. This is particularly true because the datasets of annotated 3D point clouds are rare and of moderate quality. This thesis therefore presents a new dataset developed by mobile acquisition to produce enough data and annotated by hand to ensure a good quality of segmentation. In addition, these datasets are inherently unbalanced in number of samples per class and contain many redundant samples, so a sampling method adapted to these datasets is proposed. Another problem encountered when trying to classify a point from its neighbourhood as a voxel grid is the compromise between a fine discretization step (for accurately describing the surface adjacent to the point) and a large grid (to look for context a little further away). We therefore also propose network methods that take advantage of multi-scale neighbourhoods. These methods achieve the state of the art of point classification methods on public benchmarks. Finally, to respect the constraints imposed by embedded systems (real-time processing and low computing power), we present a method that allows convolutional layers to be applied only where there is information to be processed
APA, Harvard, Vancouver, ISO, and other styles
18

Hajjar, Salam. "Conception sûre de systèmes embarqués à base de COTS." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00952827.

Full text
Abstract:
Le travail présenté dans ce mémoire concerne une méthode de conception sûre de systèmes(COTS). Un COTS est un composant matériel ou logiciel générique qui est naturellement conçu pour être réutilisable et cela se traduit par une forme de flexibilité dans la mise en oeuvre de sa fonctionnalité : en clair, une même fonction peut être réalisée par un ensemble (potentiellement infini) de scénarios différents, tous réalisables par le COTS. La complexité grandissante des fonctions implémentées fait que ces situations sont très difficiles à anticiper d'une part, et encore plus difficiles à éviter par un codage correct. Réaliser manuellement une fonction composite correcte sur un système de taille industrielle, s'avère être très coûteuse. Elle nécessite une connaissance approfondie du comportement des COTS assemblés. Or cette connaissance est souvent manquante, vu qu'il s'agit de composants acquis, ou développés par un tiers, et dont la documentation porte sur la description de leur fonction et non sur sa mise en IJuvre. Par ailleurs, il arrive souvent que la correction manuelle d'une faute engendre une ou plusieurs autres fautes, provoquant un cercle vicieux difficile à maîtriser. En plus, le fait de modifier le code d'un composant diminue l'avantage lié à sa réutilisation. C'est dans ce contexte que nous proposons l'utilisation de la technique de synthèse du contrôleur discret (SCD) pour générer automatiquement du code de contrôle commande correct par construction. Cette technique produit des composants, nommés contrôleurs, qui agissent en contraignant le comportement d'un (ou d'un assemblage de) COTS afin de garantir si possible la satisfaction d'une exigence fonctionnelle. La méthode que nous proposons possède plusieurs étapes de conception. La première étape concerne la formalisation des COTS et des propriété de sûreté et de vivacité (P) en modèles automate à états et/ou en logique temporelle. L'étape suivante concerne la vérification formelle du modèle d'un(des) COTS pour l'ensemble des propriétés (P). Cette étape découvrir les états de violation des propriétés (P) appelés états d'erreur. La troisième étape concerne la correction automatique des erreurs détectées en utilisant la technique SCD. Dans cette étape génère on génère un composant correcteur qui sera assemblé au(x) COTS original(aux) pour que leur comportement général respecte les propriétés souhaitées. L'étape suivante concerne la vérification du système contrôlé pour un ensemble de propriétés de vivacité pour assurer la passivité du contrôleur et la vivacité du système. En fin, une étape de simulation est proposée pour observer le comportement du système pour quelque scénarios intéressent par rapport à son implémentation finale.
APA, Harvard, Vancouver, ISO, and other styles
19

Abdelmoula, Mariem. "Génération automatique de jeux de tests avec analyse symbolique des données pour les systèmes embarqués." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4149/document.

Full text
Abstract:
Un des plus grands défis dans la conception matérielle et logicielle est de s’assurer que le système soit exempt d’erreurs. La moindre erreur dans les systèmes embarqués réactifs peut avoir des conséquences désastreuses et coûteuses pour certains projets critiques, nécessitant parfois de gros investissements pour les corriger, ou même conduire à un échec spectaculaire et inattendu du système. Prévenir de tels phénomènes en identifiant tous les comportements critiques du système est une tâche assez délicate. Les tests en industrie sont globalement non exhaustifs, tandis que la vérification formelle souffre souvent du problème d’explosion combinatoire. Nous présentons dans ce contexte une nouvelle approche de génération exhaustive de jeux de test qui combine les principes du test industriel et de la vérification formelle académique. Notre approche construit un modèle générique du système étudié à partir de l’approche synchrone. Le principe est de se limiter à l’analyse locale des sous-espaces significatifs du modèle. L’objectif de notre approche est d’identifier et extraire les conditions préalables à l’exécution de chaque chemin du sous-espace étudie. Il s’agit ensuite de générer tout les cas de tests possibles à partir de ces pré-conditions. Notre approche présente un algorithme de quasi-aplatissement plus simple et efficace que les techniques existantes ainsi qu’une compilation avantageuse favorisant une réduction considérable du problème de l’explosion de l’espace d’états. Elle présente également une manipulation symbolique des données numériques permettant un test plus expressif et concret du système étudié
One of the biggest challenges in hardware and software design is to ensure that a system is error-free. Small errors in reactive embedded systems can have disastrous and costly consequences for a project. Preventing such errors by identifying the most probable cases of erratic system behavior is quite challenging. Indeed, tests in industry are overall non-exhaustive, while formal verification in scientific research often suffers from combinatorial explosion problem. We present in this context a new approach for generating exhaustive test sets that combines the underlying principles of the industrial test technique and the academic-based formal verification approach. Our approach builds a generic model of the system under test according to the synchronous approach. The goal is to identify the optimal preconditions for restricting the state space of the model such that test generation can take place on significant subspaces only. So, all the possible test sets are generated from the extracted subspace preconditions. Our approach exhibits a simpler and efficient quasi-flattening algorithm compared with existing techniques and a useful compiled internal description to check security properties and reduce the state space combinatorial explosion problem. It also provides a symbolic processing technique of numeric data that provides a more expressive and concrete test of the system. We have implemented our approach on a tool called GAJE. To illustrate our work, this tool was applied to verify an industrial project on contactless smart cards security
APA, Harvard, Vancouver, ISO, and other styles
20

Nagoudi-Layerle, Khaoula. "Application de la commande prédictive reconfigurable sur le circuit d'air du moteur Diesel." Rouen, 2011. http://www.theses.fr/2011ROUES049.

Full text
Abstract:
Ce travail concerne l'étude d'une stratégie de commande prédictive dédiée au pilotage des actionneurs (VGT et EGR) de la boucle d'air du moteur Diesel dans le but d'améliorer la consommation et diminuer la pollution. Plusieurs travaux ont déjà été menés sur la régulation des grandeurs physiques de la boucle d'air en utilisant diverses stratégies aussi bien basées sur le modèle du système que sur des règles d'apprentissage. Chaque méthode présente des avantages et des inconvénients qui sont plus ou moins acceptables en fonction des besoins exprimés. Cependant, les travaux appliqués à ce jour en grande série sur véhicule se basent essentiellement sur des commandes utilisant des données mémorisées dans des cartographies. Cette méthode reste limitée si des éléments extérieurs agissent sur la boucle d'air, changeant ainsi les paramètres du système. C'est ainsi que, dans ce travail, un intérêt particulier est porté sur une commande reconfigurable à base de modèle. Nous nous intéressons dans un premier temps aux modèles à valeurs moyennes issus de l'analyse thermodynamique du système pour faire la synthèse de la loi de commande. Nous avons ensuite décliné notre choix de loi de commande prédictive, tout en mettant en avant son caractère adaptatif aux éventuels changements du modèle. Les propriétés du modèle du moteur observées autour d'un point de fonctionnement donné présentent les caractéristiques d'un système à non-minimum de phase. Notre contribution consiste à proposer une méthodologie de découplage qui permet de contourner cette problématique. Nous mettons principalement l'accent sur l'approche matricielle utilisée pour sa résolution. Nous analyserons ensuite l'impact des éventuels changements de modèle sur la commande choisie. Ce qui nous oriente vers une commande prédictive reconfigurable. Cependant, cette loi de commande nécessite une reconstruction d'état. Ce besoin nous a donc amené à élaborer un observateur à correction floue robuste aux bruits de faible amplitude.
APA, Harvard, Vancouver, ISO, and other styles
21

Le, Roux Bernard. "Eléments d'une approche constructive de la modélisation et de la réutilisation en acquisition des connaissances." Paris 6, 1994. http://www.theses.fr/1994PA066628.

Full text
Abstract:
L'acquisition des connaissances est confrontée d'une part aux difficultés de l'interprétation d'une expertise, compte tenu du caractère le plus souvent idiosyncrasique de celle-ci, d'autre part à la nécessité de construire un système informatique, qui soit à la fois intelligible, évolutif, et maintenable. Elle a ainsi des liens tant avec les sciences cognitives qu'avec le génie logiciel. La caractérisation du raisonnement expert et des connaissances qu'il met en oeuvre fait de cette discipline un travail de reconstruction rationnelle d'un savoir, sous la forme d'une méthode de résolution de problèmes, une modélisation qualitative des connaissances et du raisonnement. Les approches purement descendantes de la modélisation, basées sur la réutilisation de modèles tout faits de méthodes de résolution de problèmes, ne fournissent pas une réponse satisfaisante aux problèmes de la modélisation d'une expertise de la définition des éléments réutilisables en acquisition des connaissances. Toute expertise, tout raisonnement, et toute méthode de résolution de problèmes, sont porteurs de forts engagements ontologiques sur le mode d'organisation et la nature des connaissances mises en oeuvre. Il convient donc de mettre en oeuvre une approche constructive qui prenne en considération la forte interdépendance et interaction entre connaissance et raisonnement. Un processus en spirale de construction progressive d'un modèle de méthode de résolution de problèmes et d'explicitation des connaissances du domaine permet de gérer cette interaction. Un outil informatique de modélisation et d'explicitation des connaissances est construit sur cette base. Il découle de cette approche constructive une définition des catégories de la modélisation d'un raisonnement et des connaissances qu'il met en oeuvre, ainsi que la détermination de la nature des éléments réutilisables en acquisition des connaissances
APA, Harvard, Vancouver, ISO, and other styles
22

Martinez, Dominique. ""Offset", une méthode de construction incrémentale de réseaux de neurones multicouches et son application à la conception d'un copilote automobile." Toulouse 3, 1992. http://www.theses.fr/1992TOU30033.

Full text
Abstract:
Ce travail s'inscrit dans le cadre des programmes de recherche europeens drive et prometheus dont le but principal est la conception d'un copilote automobile. Le probleme d'une securite automobile active peut, en principe, etre resolu par un systeme a base de regles avec cependant des limites liees a la variabilite des caracteristiques de conduite d'un conducteur a l'autre et de l'etat de vigilance d'un meme conducteur. Aussi, dans l'optique d'une approche plus globale, nous avons explore l'utilisation de reseaux neuronaux pour reconnaitre des situations de conduite dangereuse. Malheureusement, une limitation pratique importante vient de la difficulte de choisir une structure de reseau (nombre de couches, nombre de neurones/couche) adequate pour realiser la fonction desiree. Aussi, nous proposons une methode pour construire, de facon incrementale, un reseau neuronal multicouche fonctionnant comme une machine parite. Un apprentissage de type perceptron est effectue unite par unite afin de minimiser une erreur de classification. Basee sur une correction d'erreur successive dans la couche cachee, la procedure de croissance converge en un nombre fini de neurones. Le calcul de la sortie du reseau se ramene ensuite a la mise en uvre d'une fonction parite. La simplicite de cette strategie, appelee offset, rend possible une realisation materielle, essentielle dans l'application traitee. Pour reconnaitre en temps reel des situations de danger en conduite automobile, l'algorithme offset s'integre dans une architecture modulaire. Nous montrons, dans le cadre de cette application, que la cooperation de plusieurs reseaux de neurones non seulement ameliore les performances en generalisation mais aussi permet de reduire le temps d'apprentissage. De facon plus generale et dans une certaine mesure, une telle approche favorise l'interpretation des resultats et ameliore ainsi les possibilites de mise au point des reseaux de grande complexite
APA, Harvard, Vancouver, ISO, and other styles
23

Lurette, Christophe. "Développement d'une technique neuronale auto-adaptative pour la classification dynamique de données évolutives : application à la supervision d'une presse hydraulique." Lille 1, 2003. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/aed48e38-323f-425b-b6ff-c8e75ff5d4b6.

Full text
Abstract:
Le caractère évolutif des procédés industriels rend leur supervision délicate puisque les modes de fonctionnement existants évoluent et que d'autres peuvent apparaitre. L'étude présentée porte sur la conception d'une structure adaptative de supervision permettant la surveillance, la détection et le diagnostic de systèmes évolutifs. La structure proposée est constituée de trois modules: modélisation, surveillance et diagnostic. En raison de l'aspect évolutif de la connaissance sur les modes de fonctionnement, l'accent a été porté sur la définition d'une technique de modélisation dynamique basée sur une approche par reconnaissance de formes. L'architecture neuronale développée, le réseau AUDyC, autorise la classification dynamique de données évolutives via un ensemble de règles d'apprentissage non supervisées permettant son autoadaptation. La première partie introduit les enjeux industriels. La deuxième partie expose des approches d'élaboration d'un système de diagnostic industriel avec en particulier celle par reconnaissance de formes. La troisième partie présente des techniques de classification à apprentissage hors ligne, puis deux techniques neuronales autorisant la prise en compte de données évolutives. La quatrième partie décrit l'architecture évolutive du réseau AUDyC construite selon une approche multiprototype. Les règles d'apprentissage autorisent l'adaptation, la création, la fusion et la suppression de prototypes ou de classes, et sont structurées en trois phases: classification, fusion et évaluation. La cinquième partie expose la structure adaptative de supervision élaborée à partir du réseau AUDyC, puis décrit les performances de celle-ci pour la supervision d'une presse hydraulique.
APA, Harvard, Vancouver, ISO, and other styles
24

Damas, Luc. "Étude théorique et pratique de la production d'effets d'amorçage de la mémoire : application à l'assistance à la remémoration chez l'utilisateur d'un système informatique pour une tâche d'apprentissage." Lyon 1, 2003. http://www.theses.fr/2003LYO10226.

Full text
Abstract:
Les utilisateurs semblent utiliser l'outil informatique comme un prolongement de leur propre mémoire. Nous voulons vérifier s'il est possible de capter ce status d'extension dans un but d'assistance. Une pluridisciplinarité s'impose alors par l'introduction de la modélisation du fonctionnement cognitif des utilisateurs : nous avons modélisé l'utilisateur sous la forme d'un alter-ego ayant un comportement mnésique similaire à celui de l'utilisateur. Un souci majeur a été de valider le principe de base de l'alter-ego. Nous obtenons en simulation des comportements similaires aux comportements humains. Nous avons conçu une expérimentation mettant en oeuvre un assistant à la remémoration basé sur l'utilisation d'un alter-ego mnésique de l'apprenant. Nous avons mis en évidence que le comportement du simulateur de mémoire est corrélé au comportement du sujet et que l'assistance à la remémoration basée sur ce type d'assistance est efficace
APA, Harvard, Vancouver, ISO, and other styles
25

Sarzeaud, Olivier. "Contribution à l'étude et au développement de systèmes connexionnistes modulaires." Montpellier 2, 1993. http://www.theses.fr/1993MON20137.

Full text
Abstract:
Le theme de la these est l'etude de la construction de modeles structurels de type reseaux de neurones pour la resolution de problemes, a l'aide de methodes automatiques heuristiques appelees regles d'apprentissage. Trois approches sont presentees. Lorsque le probleme a resoudre est simple, l'approche usuelle de construction de reseaux de neurones a temps implicite est valide. Lorsque le probleme comporte une dimension temporelle, une seconde approche s'avere necessaire. Celle-ci revele des proprietes nouvelles tres interessantes. En particulier, nous montrons que l'introduction de retards dans un reseau combinatoire permet d'effectuer un partage de ressources neuronales entre plusieurs reseaux au sein d'une meme structure. Enfin, lorsque le probleme est trop complexe pour etre resolu par un unique reseau, une approche hierarchisee doit etre envisagee. Nous montrons qu'un apprentissage par descentes de gradient locales se revele alors souvent plus avantageux qu'un apprentissage par descente de gradient globale
APA, Harvard, Vancouver, ISO, and other styles
26

Ben, Abdelali Abdessalem. "Etude de la conception d’architectures matérielles dédiées pour les traitements multimédia : indexation de la vidéo par le contenu." Dijon, 2007. http://www.theses.fr/2007DIJOS075.

Full text
Abstract:
Cette thèse constitue une contribution à l’étude de l’indexation automatique de la vidéo par le contenu en vue de la conception d’architectures matérielles dédiées à ce type d’application multimédia. L’indexation de la vidéo par le contenu présente un domaine de grande importance et qui est sans cesse en développement pour différents types d’applications telles que l’Internet, la TV interactive, les supports vidéo portables (PVR) et les applications de sécurité. L’étude proposée est effectuée à travers des exemples concrets de techniques d’analyse du contenu AV pour l’indexation de la vidéo et selon différents aspects applicatifs, technologiques et méthodologiques. Elle s’inscrit dans le cadre de la conception d’architectures matérielles dédiées et de l’exploitation des nouvelles technologies de systèmes embarqués pour les applications multimédia récentes. Un intérêt particulier est consacré à la technologie reconfigurable et aux nouvelles possibilités et moyens d’utilisation des circuits FPGA. La première phase de cette thèse a été consacrée à l’étude du domaine de l’indexation automatique de la vidéo par le contenu. Il s’agit de l’étude des caractéristiques et des nouveaux besoins des systèmes d’indexation au travers des approches et des techniques actuellement utilisées ainsi que les champs d’application des nouvelles générations de ces systèmes. Ceci afin de montrer l’intérêt d’avoir recours à de nouvelles architectures et à de nouvelles solutions technologiques permettant de supporter les exigences de ce domaine. La deuxième phase de ce travail a été réservée à la validation et à l’optimisation d’un ensemble de descripteurs visuels de la norme MPEG-7 pour la segmentation temporelle de la vidéo. Ceci constitue une étude de cas par l’étude d’un exemple important de techniques d’analyse du contenu AV utilisées dans une grande diversité d’applications. L’étude proposée constitue également une étape de préparation à l’implémentation matérielle de ces techniques dans le contexte de conception d’accélérateurs matériels pour l’indexation automatique de la vidéo par le contenu en temps réel. Dans ce cadre différentes transformations algorithmiques ont été proposées dans le but d’assurer une meilleure Adéquation Algorithme Architecture (AAA) et d’améliorer les performances des algorithmes étudiés. La troisième phase de ce travail a été consacrée à l’étude de la conception d’opérateurs matériels dédiés pour les techniques d’analyse du contenu AV ainsi qu’à l’étude de l’exploitation des nouvelles technologies des systèmes reconfigurables pour la mise en œuvre de SORC pour l’indexation automatique de la vidéo. Plusieurs architectures matérielles ont été proposées pour les descripteurs étudiés et différents concepts liés à l’exploitation de la technologie reconfigurable et les SORC ont été explorés (méthodologies et outils associés pour la conception de tels systèmes sur puce, technologie et méthodes pour la reconfiguration dynamique et partielle, plateformes matérielles à base d’FPGA, structure d’un SORC pour l’indexation de la vidéo par le contenu, etc. )
This thesis constitutes a contribution to the study of content based automatic video indexing aiming at designing hardware architectures dedicated to this type of multimedia application. The content based video indexing represents an important domain that is in constant development for different types of applications such as the Internet, the interactive TV, the personal video recorders (PVR) and the security applications. The proposed study is done through concrete AV analysis techniques for video indexing and it is carried out according to different aspects related to application, technology and methodology. It is included in the context of dedicated hardware architectures design and exploitation of the new embedded systems technologies for the recent multimedia applications. Much more interest is given to the reconfigurable technology and to the new possibilities and means of the FPGA devices utilization. The first stage of this thesis is devoted to the study of the automatic content based video indexing domain. It is about the study of features and the new needs of indexing systems through the approaches and techniques currently used as well as the application fields of the new generations of these systems. This is in order to show the interest of using new architectures and technological solutions permitting to support the new requirements of this domain. The second stage is dedicated to the validation and the optimization of some visual descriptors of the MPEG-7 standard for the video temporal segmentation. This constitutes a case study through an important example of AV content analysis techniques. The proposed study constitutes also a stage of preparation for the hardware implementation of these techniques in the context of hardware accelerators design for real time automatic video indexing. Different Algorithm Architecture Adequacy aspects have been studied through the proposition of various algorithmic transformations that can be applied for the considered algorithms. The third stage of this thesis is devoted to study the design of dedicated hardware operators for video content analysis techniques as well as the exploitation of the new reconfigurable systems technologies for designing SORC dedicated to the automatic video indexing. Several hardware architectures have been proposed for the MPEG-7 descriptors and different concepts related to the exploitation of reconfigurable technology and SORC have been studied as well (methodologies and tools for designing such systems on chip, technology and methods for the dynamic and partial reconfiguration, FPGA based hardware platforms, SORC structure for video indexing, etc. )
APA, Harvard, Vancouver, ISO, and other styles
27

Monsifrot, Antoine. "Utilisation du raisonnement à partir de cas et de l'apprentissage pour l'optimisation de code." Rennes 1, 2002. http://www.theses.fr/2002REN10107.

Full text
Abstract:
Des transformations de code permettent de réduire le temps d'exécution des programmes en améliorant l'exploitation des processeurs. Pour déterminer les transformations à appliquer, les outils automatiques reposent sur des heuristisques complexes à produire car les transformations peuvent avoir des effets de bord et interagissent entre elles. D'autre part, toutes les optimisations ne sont pas à la portée de ces outils. Ainsi, la production de code efficace se termine encore aujourd'hui par une phase de "tuning". Nous proposons, au travers de cette thèse l'utilisation de techniques provenant de l'intelligence artificielle : le raisonnement à partir de cas pour détecter les opportunités de transformations et les techniques d'apprentissage pour produire les heuristiques de compilateur. La mise en oeuvre du prototype CAHT (Computer Aided Hand Tuning) nous a permi de valider notre approche dans les domaines des applications numériques et des applications enfouies.
APA, Harvard, Vancouver, ISO, and other styles
28

Dzogang, Fabon. "Représentation et apprentissage à partir de textes pour des informations émotionnelles et pour des informations dynamiques." Paris 6, 2013. http://www.theses.fr/2013PA066253.

Full text
Abstract:
L'extraction de connaissances automatique à partir de textes consiste àmettre en correspondance une information bas niveau, extraite desdocuments au travers des mots et des groupes de mots, avec uneinformation de plus haut niveau. Les choix de représentation pourdécrire les documents sont alors essentiels et leurs particularitéscontraignent la définition de l'algorithme d'apprentissage mis enoeuvre. Les travaux de cette thèse considèrent ces deux problématiquesd'une part pour des informations émotionnelles, d'autre part pour desinformations dynamiques. Dans une première partie, nous considérons une tâche d'extraction desémotions pour laquelle le fossé sémantique est plus important que pourdes informations traditionnellement thématiques. Aussi, nous étudionsdes représentations destinées à capturer les nuances du langage pourdécrire une information subjective puisque émotionnelle. Nous étudionsde plus l'intégration de connaissances sémantiques qui permettent, dans unetâche de caractérisation, d'extraire la charge émotionnelle desdocuments, dans une tâche de prédiction de guider l'apprentissageréalisé. Dans une seconde partie, nous étudions la dynamique de l'information :à tout corpus de documents publié sur Internet peut être associé dessources en perpétuelle activité qui échangent des informations dansun mouvement continu. Nous explorons trois axes d'étude : les sourcesidentifiées, les communautés qu'elles forment dans un espace dynamiquetrès parcimonieux, et les thématiques remarquables qu'ellesdéveloppent. Pour chacun nous proposons des méthodes d'extractionoriginales que nous mettons en oeuvre sur un corpus réel collecté encontinu sur Internet
Automatic knowledge extraction from texts consists in mapping lowlevel information, as carried by the words and phrases extracted fromdocuments, to higher level information. The choice of datarepresentation for describing documents is, thus, essential and thedefinition of a learning algorithm is subject to theirspecifics. This thesis addresses these two issues in the context ofemotional information on the one hand and dynamic information on theother. In the first part, we consider the task of emotion extraction forwhich the semantic gap is wider than it is with more traditionalthematic information. Therefore, we propose to study representationsaimed at modeling the many nuances of natural language used fordescribing emotional, hence subjective, information. Furthermore, wepropose to study the integration of semantic knowledge which provides,from a characterization perspective, support for extracting theemotional content of documents and, from a prediction perspective,assistance to the learning algorithm. In the second part, we study information dynamics: any corpus ofdocuments published over the Internet can be associated to sources inperpetual activity which exchange information in a continuousmovement. We explore three main lines of work: automaticallyidentified sources; the communities they form in a dynamic and verysparse description space; and the noteworthy themes they develop. Foreach we propose original extraction methods which we apply to a corpusof real data we have collected from information streams over the Internet
APA, Harvard, Vancouver, ISO, and other styles
29

Beaugé, Lionel. "Définition de mécanismes de mémorisation pour les systèmes neuromimétiques (inspirations pluridisciplinaires)." Nancy 1, 1995. http://www.theses.fr/1995NAN10407.

Full text
Abstract:
Les modèles neuromimétiques, compares aux caractéristiques adaptatives humaines, se révèlent trop monolithiques et trop statiques sur le plan de l'apprentissage et de la mémoire. Nous nous sommes plongés dans la neurobiologie, la pharmacologie, la psychologie, la physiologie du comportement, les mathématiques et l'informatique, afin d'étudier les mécanismes de mémorisation. Le travail présente différents niveaux d'étude et de modélisation. À l'échelle microscopique, nous avons réalisé des unités cellulaires complexes, munies de délai, de rémanence et de mémoire interne. Ces cellules sont dotées de plusieurs types de connexion, notamment de connexions modulatrices qui développent des effets de sensibilisation ou de déclenchement. Des plates-formes nous permettent de tester des règles de plasticité synaptique. Ces unités sont intégrées dans des populations telles que les assemblées neuronales, les colonnes corticales et d'autres structures organisées. Elles développent alors des principes de mémoire immédiate, de mémoire à court terme et à long terme. À l'échelle macroscopique, nous nous sommes intéressés à la coopération entre des structures extrinsèque/intrinsèque et entre des sous-structures corticales intrinsèques. Nous avons étudié un système neuronal plonge dans un environnement, sur lequel nous opérons des protocoles d'apprentissage qui se rapprochent des conditionnements opérants, fondés sur des mécanismes de renforcement (punition, récompense). Nous avons également mis en œuvre une modélisation d'interactions pariéto-temporales appliquées à la reconnaissance visuelle. Une synthèse de ces différentes échelles indique que d'une part les règles de Hebb employées jusqu'alors ne suffisent plus pour des apprentissages tels que le conditionnement opérant. D’autre part, les mécanismes de modulation deviennent un point fondamental dans la mise en œuvre de meilleurs systèmes dynamiques d'apprentissage et de mémoire dans les réseaux neuronaux. Indiquons enfin, que nos modèles reposent sur une base neuronale orientée objet, NeuroBase, qui définit en C++, un ensemble de classes et de méthodes pour la création de réseaux neuromimétiques. Elle offre plusieurs points d'entrée de conception
APA, Harvard, Vancouver, ISO, and other styles
30

Al, Hajj Mohamad Rami. "Reconnaissance hors ligne de mots manuscrits cursifs par l'utilisation de systèmes hybrides et de techniques d'apprentissage automatique." Paris, ENST, 2007. http://www.theses.fr/2007ENST0020.

Full text
Abstract:
La reconnaissance automatique hors ligne des mots écrits permet d'améliorer l'interaction entre l'homme et la machine dans beaucoup d'applications notamment la bureautique et les tâches de traitement automatique de documents telles que le tri automatique du courrier, l'enregistrement et la vérification des chèques bancaires. La reconnaissance hors ligne des mots manuscrits cursifs, tels que ceux écrits en arabe, reste toujours un problème ouvert. Les difficultés inhérentes à la reconnaissance sont la normalisation de l'écriture, la segmentation des mots en éléments de base ainsi que la modélisation de ces éléments. Concevoir un système pour la reconnaissance automatique hors ligne des mots manuscrits est l'objectif des travaux de recherche de cette thèse. L'approche proposée est de type analytique, sans segmentation explicite des mots en ses caractères constituants, et est basée sur une modélisation stochastique de type MMC (Modèles de Markov Cachés). La méthode adoptée est à deux étapes : une étape de reconnaissance dans laquelle différents types de caractéristiques sont examinés, et une étape pour la combinaison des classifieurs en post-traitement dans laquelle différentes stratégies de combinaison sont appliquées. Les classifieurs combinés en post-traitement prennent en considération les inclinaisons, les positions erronées des marques diacritiques et les chevauchements pouvant exister dans l'écriture manuscrite. Le système de référence basé sur la méthode proposée a montré de trés bonnes performances à la compétition organisée à ICDAR 05, où des systèmes à l'état de l'art ont été comparés et examinés sur la base de référence IFN/ENIT
The automatic offline recognition of handwritten words improves human-machine interaction. It is already used in many business office applications dealing with the automatic processing of documents such as automatic post sorting, and the verification and recognition of bank check amounts. The off line recognition of cursive handwritten words remains an open problem due to difficulties such as :handwriting normalization, word segmentation into compound components and the modeling of these components. The main objective of this thesis, is to propose, design, and implement a system for the automatic offline recognition of Arabic handwritten words. The proposed approach is analytical without explicit segmentation of words into compound characters, and it is based on the stochastic HMM approach (Hidden Markov models). The method is composed of two stages : a recognition stage based on different features, and a combination stage of three HMM-based classifiers. Each individual HMM classifier uses a sliding window with a specific inclination. Different combining strategies are tested, among them the Sum rule, the Majority Vote rule and the Borda Count rule. The best combination strategy consists of using a neural network-based combining classifier. The combination of these classifiers can better cope with the writing inclination, the erroneous positions of diacritical marks and points, and the overlapping of consecutive characters in handwritten words. The reference system based on the proposed method has shown best performance at the competition organized at ICDAR 2005, where a set of state-of art systems were compared and tested on the IFN/ENIT benchmark database
APA, Harvard, Vancouver, ISO, and other styles
31

Li, Huihua. "Généralisation de l'ordre et des paramètres de macro-actions par apprentissage basé sur l'explication. Extension de l'apprentissage par explications sur l'ordre partiel." Paris 6, 1992. http://www.theses.fr/1992PA066233.

Full text
Abstract:
Les methodes traditionnelles d'apprentissage comme l'apprentissage par macro-actions de fikes et l'apprentissage par explications (ebl) traitent les plans totalement ordonnes. Elles generalisent seulement les actions et les conditions sous lesquelles le plan peut etre applique, mais jamais elles ne transforment l'ordre des actions en un ordre partiel moins strict dans lequel le plan peut aussi etre correctement execute. Une methode est proposee pour construire, a partir d'une sequence d'actions du type strips realisant une conjonction de buts, des macro-actions partiellement ordonnees dont chacune exige l'ensemble des conditions les plus faibles pour sa reutilisation. Elle est aussi valable pour generaliser les plans partiellement ordonnes. Les actions sont generalisees dans la table triangulaire de fikes. On introduit des axiomes du domaine pour generer les contraintes sur les parametres des actions. Ces contraintes, avec celles issues des destructions des actions, assurent la consistance des etats generalises. L'ensemble de contraintes est transforme en une disjonction ou chaque element definit un ensemble de substitutions admissibles d'une particularisation de la macro-action. En completant la table par des informations sur les destructions, on obtient l'explication globale sur l'ordre partiel des actions. Puis, on represente toutes les relations d'ordre necessaires par un (multi)graphe. L'exploitation de ce graphe permet d'expliciter la dependance entre les ordres partiels generalises et les contraintes sur les parametres et d'obtenir l'ensemble des solutions
APA, Harvard, Vancouver, ISO, and other styles
32

Lasalle, Jonathan. "Génération automatique de tests à partir de modèles SysML pour la validation fonctionnelle de systèmes embarqués." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00762053.

Full text
Abstract:
Les travaux présentés dans ce mémoire proposent une méthode originale de génération automatique de tests à partir de modèles SysML pour la validation de systèmes embarqués. Un sous-ensemble du langage SysML (appelé SysML4MBT) regroupant les éléments de modélisation pris en compte dans notre approche a été défini et une stratégie de génération de tests dédiée (intitulée ComCover) a été créée. Cette stratégie, basée sur les principes du critère de couverture de modèles bien connu Def-Use, s'intéresse à la couverture des communications (envois / réceptions) au sein du système et entre le système et son environnement.La mise en œuvre opérationnelle d'un prototype, basé sur un générateur de tests à partir de modèle UML, a nécessité la définition de règles de réécriture permettant la transformation du modèle SysML4MBT vers le format d'entrée natif du générateur de tests tout en conservant l'expressivité de SysML4MBT. Finalement, les étapes de concrétisation des tests en scripts exécutables et l'établissement automatique du verdict lors de l'exécution sur banc de test définis durant le projet VETESS permettent l'établissement d'une chaîne outillée opérationnelle de génération et d'exécution automatique de tests à partir de spécifications SysML. Cette chaîne outillée a été étrennée sur plusieurs cas d'étude automobile tels que l'éclairage avant, les essuie-glaces ou la colonne de direction de véhicule. Sur ce dernier exemple, nous avons eu l'opportunité d'exécuter les tests sur un banc de test physique. Ces cas d'étude ont permis de valider chacune des étapes de l'approche proposée.
APA, Harvard, Vancouver, ISO, and other styles
33

Steux, Bruno. "RT Maps, un environnement logiciel dédié à la conception d'applications embarquées temps-réel : utilisation pour la détection automatique de véhicules par fusion radar / vision." Paris, ENMP, 2001. http://www.theses.fr/2001ENMP1013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Benouhiba, Toufik. "Approche génétique et floue pour les systèmes d'agents adaptatifs : application à la reconnaissance des scenarii." Troyes, 2005. http://www.theses.fr/2005TROY0014.

Full text
Abstract:
L’objectif de la thèse est l’utilisation minimale de connaissances a priori pour engendrer des règles incertaines manipulant des données imprécises. Cet objectif a été testé via une structure multi-agents et appliqué à la reconnaissance de scénarii. Les travaux réalisés sont répartis sur trois axes : - Le premier concerne le raisonnement incertain en utilisant des données imprécises. La théorie de l’évidence et la logique bi-floue ont été utilisées pour modéliser ce raisonnement. – Le deuxième axe correspond aux systèmes classifieurs et à la programmation génétique utilisés dans le but d’engendrer les règles de reconnaissance. L’approche développée utilise la puissance offerte par la programmation génétique et la combine aux systèmes classifieurs. Un nouveau mécanisme d’apprentissage par renforcement a été proposé assurant l’utilisation de la théorie de l’évidence comme outil de raisonnement. – Le troisième axe concerne la coopération dans les systèmes multi-agents adaptatifs. Le rendement des systèmes classifieurs a été amélioré en introduisant une coopération explicite entre des agents classifieurs. Nous proposons également un nouvel opérateur de fusion de données basé sur la théorie de l’évidence et adapté aux types de données manipulées. L’approche développée a été appliquée à la reconnaissance des manœuvres automobiles. Dans ce sens, nous proposons une architecture multi-agents pour la reconnaissance et un découpage des manœuvres en plusieurs couches assurant leur reconnaissance avec un certain niveau de granularité
The objective of this thesis is to use minimal a priori knowledge in order to generate uncertain rules which manipulate imprecise data. The proposed architecture has been tested on a multi-agent system to recognize scenarios. The realized works are distributed into three axis: - The first one concerns uncertain reasoning with imprecise data. The evidence theory and intuitionistic fuzzy logic have been used to model such reasoning. – The second axis corresponds to classifier systems and genetic programming. The proposed approach use the power of genetic programming and combine it to classifier systems. A new learning mechanism based on evidence theory is introduced in order to use this theory as a support of reasoning. – The third axis concerns cooperation in adaptive multi-agents systems. Classifier systems have been improved by using an explicit cooperation between a number of classifier agents. We also propose a new data fusion operator based on evidence theory and adapted to the manipulated data. The developed system has been used to recognize car’s maneuvers. In fact, we have proposed a multi-agent architecture to make recognition. Maneuvers are decomposed into several layers in order to recognize them with a given granularity level
APA, Harvard, Vancouver, ISO, and other styles
35

Olaru, Andrei. "Un système multi-agents sensible au contexte pour les environnements d'intelligence ambiante." Paris 6, 2011. http://www.theses.fr/2011PA066639.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Mengelle, Thierry. "Etude d'une architecture d'environnements d'apprentissage basés sur le concept de préceptorat avisé." Toulouse 3, 1995. http://www.theses.fr/1995TOU30099.

Full text
Abstract:
Ces travaux s'inscrivent dans le domaine de l'enseignement intelligemment assiste par ordinateur (eiao) et concernent l'elaboration d'une structure d'accueil permettant a des pedagogues de produire des environnements d'apprentissage evolues. Ces environnements reposent sur une forme particuliere de resolution de problemes ou l'apprenant met en uvre des competences elementaires en utilisant un ensemble d'outils. Le systeme joue le role d'un assistant dont les principes sont issus de differents travaux relatifs a l'assistance (ateliers de genie logiciel conduits par des modeles, hypertextes, systemes conseillers intelligents). Ce service d'assistance, appele preceptorat avise, apporte une aide sur deux niveaux: l'un concerne la realisation des differentes operations elementaires, l'autre est relatif a l'elaboration d'un plan de resolution efficace. Il dispose d'une large gamme d'interventions plus ou moins directives (suggestions, conseils, guidage,). Le choix d'une reaction d'assistance doit respecter un principe majeur d'adaptabilite: adaptation au comportement de l'apprenant, adaptation aux styles pedagogiques de l'auteur. En consequence, le point central de cette etude concerne la structuration des connaissances du preceptorat avise. L'evolution de la structure d'accueil, qui permet l'adaptation aux besoins du pedagogue, est prise en compte des sa modelisation. Les principaux concepts sont modelises dans une approche orientee objet, et une decomposition fonctionnelle formalise l'activite du preceptorat avise. L'implementation repose sur l'utilisation d'une plate-forme multi-agent originale. Elle supporte les notions de taches et d'agents, et est implementee dans un environnement de programmation orientee objet. L'auteur propose egalement une methodologie de production reposant sur la simulation, et confronte celle-ci au developpement d'un environnement d'apprentissage des fonctions numeriques. Ce prototype a ete entierement implemente a l'aide de la structure d'accueil definie. Enfin, certains aspects du preceptorat avise sont reutilisables au sein d'autres logiciels (reutilisation de la representation du modele d'assistance, creation d'agents cognitifs specialises dans l'assistance), ou encore pour assurer l'assistance aux developpeurs
APA, Harvard, Vancouver, ISO, and other styles
37

Senoune, Redouane. "Acquisition de connaissances et apprentissage automatique : contribution pour le développement incrémental d'un système à base de connaissances pour les situations de crise : application au domaine de l'eau." Lyon, INSA, 1995. http://tel.archives-ouvertes.fr/docs/00/82/23/35/PDF/1995_Senoune_Redouane.pdf.

Full text
Abstract:
Cette thèse a pour objectif la réalisation d'un système à base de connaissances pour les situations de crise. A travers le développement de ce système deux principaux axes de recherche ont été entrepris: l'acquisition et la validation de connaissances. Pour l'étape d'acquisition de connaissances, nous avons intégré une méthodologie d'acquisition de connaissances et une technique d'apprentissage automatique. Dans un premier temps, la méthodologie d'acquisition de connaissances nous a permis de recueillir l'ensemble des connaissances descriptives et stratégiques du domaine, et de construire un langage de description des exemples d'apprentissage. Une technique d'apprentissage est ensuite utilisée pour construire incrémentalement un graphe de connaissances en utilisant des cas d'interventions sur des situations de crise fournis par les experts du domaine. Pour la phase d'exploitation du système, nous avons proposé deux procédures différentes. La première procédure consiste en l'utilisation interactive du graphe de connaissances construit et la deuxième procédure consiste en l'utilisation en déduction des connaissances contenues dans ce graphe. L'approche proposée pour la validation des connaissances s'appuie sur l'utilisation interactive du graphe de connaissances construit et sur un suivi des interventions des experts sur des cas de crise
[The subject of this thesis is the development of a Knowledge-Based System for situations of crisis. Two main research issues have been studied during the of the system : knowledge acquisition and knowledge validation. The knowledge acquisition part integrates both knowledge acquisition and machine learning techniques. As a first step, the knowledge acquisition methods have been used to identify the descriptive and strategic domain knowledge and to construct the description language to use for defining the examples needed for the machine learning. The second step is to use a machine learning technique to incrementally construct a knowledge graph using cases on interventions in situations of crisis obtained from the domain experts. Two different procedures are proposed for the exploitation phase of the system. The first procedure is the interactive use of the knowledge graph, while the second is the deductive use of the knowledge graph. The knowledge validation approach proposed is based on the interactive use of the knowledge graph and on a follow-up on expert interventions in situations of crisis. ]
APA, Harvard, Vancouver, ISO, and other styles
38

Maslekar, Nitin. "Adaptive Traffic Signal Control System Based on Inter-Vehicular Communication." Rouen, 2011. http://www.theses.fr/2011ROUES046.

Full text
Abstract:
Traffic signal control, which is an integral part of Intelligent Transportation System (ITS), plays an important role in regulating vehicular flow at road intersections. With the increase of vehicular traffic, there has been a significant degradation in the functional efficiency of signal systems. Traditional systems are not capable of adjusting the timing pattern in accordance with vehicular demand. This results in excessive delays for road users. Hence it is necessary to develop dynamic systems that can adjust the timing patterns according to traffic demand. Of the various available techniques, Vehicular Adhoc Networks (VANETs) are attracting considerable attention from the research community and the automotive industry to implement dynamic systems. In this context, exchanging data among vehicles is one of the key technological enablers through which the density of vehicles approaching the intersection can be predicted. This requires extensive collaboration between vehicles. Inherent properties and limitations of VANETs, distributing information among the vehicles is a very challenging task. In this thesis, an adaptive traffic signal control system based on car-to-car communication (VANETs) is proposed. To achieve this, a data dissemination technique titled, Clustering in DiRectIon in Vehicular Environment (C-DRIVE) is implemented. In C-DRIVE, the formation of clusters is based on the direction metric. Precisely this metric defines the direction a vehicle will travel after crossing the intersection. To attain stability within the clusters and to have accurate estimation of the density of vehicles, two policies are adapted. In the first policy, a clusterhead switching mechanism is defined. In the second method, termed as Modified C-DRIVE (MC-DRIVE), the clusterhead election policy is modified. In this modification the election policy is based on the stable cluster length. Once the clusters are formed, the elected cluster head will compute the density in its clusters and transmits the information to the traffic signal controller (TSC). With the density information of different lanes approaching the intersection, at the TSC an optimal cycle length is computed using the modified Webster’s model and based on the demand, required green splits are allotted to the various phase. The efficiency of this method is advocated through simulation results which show that the waiting time for vehicles and queue length at intersections are considerably reduced. It is also shown that the proposed solution is collision free at intersections. The proposed system is compared with a classic pre-timed system and an adaptive fuzzy logic system. The simulations also show that the data convergence time and the communication delay between vehicles and traffic signals do not compromise the efficiency of the system.
APA, Harvard, Vancouver, ISO, and other styles
39

Roques, Martine. "Apprentissage et reconnaissance de structures syntaxiques par une approche connexionniste." Paris 11, 1993. http://www.theses.fr/1993PA112433.

Full text
Abstract:
L'objet de cette these est l'etude de l'apprentissage automatique de structures syntaxiques dans un systeme connexionniste a propagation guidee, et l'exploitation de ces structures dans le cadre d'un systeme homogene de communication homme-machine. Cette homogeneite s'exprime par l'utilisation des memes mecanismes de traitement pour differents niveaux d'abstraction et pour differentes modalites de communication. De plus, les phases d'apprentissage et de reconnaissance ne sont pas dissociees. Le comportement du reseau varie en fonction des valeurs des parametres de propagation. L'apprentissage dans ce modele est a priori non supervise. Les structures syntaxiques sont construites a partir de corpus d'enonces en langage naturel. Trois strategies d'apprentissage par hierarchisation des reseaux sont etudiees afin d'ameliorer la qualite et la concision des representations. Le traitement de formes inattendues est realise par la creation de nouvelles structures ou par l'adaptation des structures existantes, suivant la valeur des parametres de propagation. Les representations obtenues sont exploitables de differentes facons: pour l'analyse des phrases, sous la forme de sequences de classes lexicales; pour la reconnaissance de structures inconnues ou deformees; pour la segmentation de la parole continue, par prediction de classes. Le systeme obtenu participera a l'analyse structurelle des enonces en langage naturel traites dans le systeme de communication homme-machine a propagation guidee
APA, Harvard, Vancouver, ISO, and other styles
40

Bouhamed, Heni. "L'Apprentissage automatique : de la sélection de variables à l'apprentissage de structure d'un classifieur bayésien." Rouen, 2013. http://www.theses.fr/2013ROUES037.

Full text
Abstract:
Les travaux développés dans le cadre de cette thèse portent sur le problème du traitement des grandes masses de données lors de l’apprentissage automatique d’un modèle à partir d’une base d’exemples. Ainsi, le modèle construit servira comme un outil de classification de nouveaux cas. Nous étudions plus particulièrement dans un premier temps, le concept de la sélection de variables en présentant ses principales stratégies et en propulsant leurs insuffisances, en effet, une nouvelle méthode Filtre (Filter) sera développée au cours de ce travail afin de remédier aux insuffisances signalées. Nous étudions dans un deuxième temps, le problème de l’augmentation super-exponentielle de la complexité algorithmique de l’apprentissage de structure d’un classifieur Bayésien dans le cas d’utilisation d’algorithmes généraux et sans restrictions particulières. En effet, en se référant à la formule de Robinson (Robinson, 1977), il est certain que le nombre de graphes acycliques dirigés (DAG) augmente d’une façon super exponentielle selon l’augmentation du nombre de variables. Alors, on se propose lors de cette partie de développer une nouvelle approche permettant de réduire le nombre de DAG possibles lors de l’apprentissage automatique de structure sans pour autant perdre de l’information. Evidemment, la réduction du nombre de DAG possible va permettre de réduire la complexité algorithmique du processus et en conséquence la réduction du temps d’exécution, ce qui va nous permettre de pouvoir modéliser des systèmes d’informations plus grands avec la même qualité d’exploitation
The work developed in the framework of this thesis deals with the problem of processing large amounts of data in machine learning model from an examples’ database. Thus, the model constructed will serve as a tool for classifying new cases. We will particularly focus firstly, to the concept of variable selection by presenting its major strategies and propelling their shortcomings, in fact, a new filter method will be developed in this work in the aim to remedy to the identified shortcomings. Secondly, we will study the super exponential increase problem of the computational complexity of learning Bayesian classifier structure in the case of using general algorithms with no special restrictions. Indeed, referring to the formula of Robinson (Robinson, 1977), it is certain that the number of the directed acyclic graph (DAG) increases with a super exponential manner according to the increase of variables numbers. So, it is proposed in this work to develop a new approach in the aim to reduce the number of possible DAG in learning structure, without losing information. Obviously, reducing the number of DAG as possible will reduce the computational complexity of the process and therefore reducing the execution time, which will allow us to model grater information systems with the same quality of exploitation
APA, Harvard, Vancouver, ISO, and other styles
41

Hren, Jean-François. "Planification optimiste pour systèmes déterministes." Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10188/document.

Full text
Abstract:
Dans le domaine de l'apprentissage par renforcement, la planification dans le cas de systèmes déterministes consiste à effectuer une recherche avant grâce à un modèle génératif du système considéré et ce pour trouver l'action à appliquer dans son état courant. Dans notre cas, cette recherche avant conduira à la construction d'un arbre des possibilités, sa racine correspondant à l'état courant du système. Dans le cas où les ressources computationnelles sont limitées et inconnues, il convient d'utiliser un algorithme cherchant à minimiser son regret. Autrement dit, un algorithme retournant une action à effectuer qui soit la plus proche possible de l'optimale en terme de qualité et en fonction des ressources computationnelles. Nous présentons l'algorithme de planification optimiste dans le cas où l'espace d'action est discret. Nous prouvons une borne inférieure et supérieure sur son regret dans le pire des cas ainsi que dans une classe particulière de problèmes. Nous présentons ensuite deux autres algorithmes inspirés de l'approche optimiste dans le cas où l'espace d'action est continu
In the field of reinforcement learning, planning in the case of deterministic systems consists of doing a forward search using a generative model of the system so as to find the action to apply in its current state. In our case, the forward search leads us to build a look-ahead tree, its root being the current state of the system. If the computational resources are limited and unknown, we have to use an algorithm which tries to minimize its regret. In other words, an algorithm returning an action to apply which is as close as possible to the optimal one in term of quality and with respect to the computational resources used. We present the optimistic planing algorithm in the case of a discrete action space. We prove a lower and upper bound in the worst case and in a particular class of problems. Also we present two algorithms using the optimistic approach but in the case of a continuous action space
APA, Harvard, Vancouver, ISO, and other styles
42

Bernauer, Éric. "Les réseaux de neurones et l'aide au diagnostic : un modèle de neurones bouclés pour l'apprentissage de séquences temporelles." Toulouse 3, 1996. http://www.theses.fr/1996TOU30277.

Full text
Abstract:
Apres avoir defini le probleme du diagnostic, les methodes habituellement employees pour le resoudre sont tout d'abord exposees selon l'existence, ou non, d'un modele, plutot mathematique ou plutot symbolique, du systeme a surveiller. Les reseaux de neurones artificiels sont ensuite presentes au travers de leurs proprietes fondamentales et notamment celles utiles au diagnostic. Une attention particuliere est portee sur les modeles proposes pour la detection des fautes dans laquelle le probleme est ramene a une reconnaissance des formes dans le cas de donnees statiques. La presence d'une dimension temporelle dans le probleme du diagnostic, notamment dans le cadre des systemes a evenements discrets, conduit alors a etudier les moyens de representer le temps dans les reseaux de neurones, modeles qui apprehendent habituellement cette grandeur avec difficulte. Le probleme type qui est envisage est celui de l'apprentissage de sequences temporelles. La representation spatiale du temps, dans laquelle ce dernier est introduit par un mecanisme externe, est tout d'abord etudiee. Les difficultes qu'elle pose font qu'il lui est prefere une representation dynamique du temps pour laquelle ce dernier est implicite. Les reseaux de neurones recurrents et les reseaux a delais sur les connexions sont alors etudies. Le modele du neurone boucle comme cas particulier d'un reseau recurrent est ensuite introduit. L'oubli et la memorisation d'informations apparaissent alors comme deux proprietes dynamiques du modele. Nous montrons ensuite comment utiliser ces neurones boucles pour l'apprentissage de sequences simples. Nous proposons alors, dans le cas de l'apprentissage de sequences complexes, plusieurs architectures et regles d'apprentissage. Le modele est evalue sur des problemes classiques d'apprentissage de grammaires. Un exemple d'application au diagnostic d'une cellule flexible est traite
APA, Harvard, Vancouver, ISO, and other styles
43

Fiandino, Maxime. "Exploration d'architectures basée sur la génération automatique de plates-formes matérielles et le portage rapide du logiciel." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0053.

Full text
Abstract:
L’approche proposée se déroule selon un flot itératif en trois étapes. L’une concerne la modification et le développement rapide du modèle exécutable de l’architecture. Une autre vise le portage rapide des logiciels. La troisième est l’exploration d’architecture logicielle et matérielle. Un outil a été développé pour créer et modifier rapidement un HMPSoC à partir de sous-systèmes de traitement paramétrables. Une méthode permet d’adapter le logiciel sur une architecture, elle inclut: paramétrer manuellement le logiciel applicatif, l’extraction automatique des caractéristiques de l’architecture, la génération des sources de bas niveau. Enfin une méthode permet d’effectuer des simulations multi-niveaux des processeurs. Les simulations de haut niveau servent pour exécuter rapidement les logiciels embarqués, les simulations précises en mode bas niveau (ISS) pour mesurer les performances. Suivant les résultats, l’architecture et les logiciels sont modifiés et le cycle peut reprendre
The proposed approach is an iterative flow in three steps. The first one is the fast development and modification of the architecture executable model. The second one is the adaptation of the embedded software. The third one is the hardware and software architecture exploration. A tool has been developed in order to create and modify quickly a hardware architecture model. It uses flexible sub-systems. One method in order to adapt the embedded software is exposed, it includes: to manually add some parameterization in the software, an automatic extraction of the architecture characteristics, the generation of the low level code sources. To finish a method allow to simulate processors at different level of simulation with their embedded software, high level for fast simulation, low level for performance measurements. Following results, hardware and software are modified and the flow can restart. This flow was tested on a real application, a parallelized H264 encoder
APA, Harvard, Vancouver, ISO, and other styles
44

Koch, Guillaume. "Catégorisation automatique de documents manuscrits : Application aux courriers entrants." Rouen, 2006. http://www.theses.fr/2006ROUES033.

Full text
Abstract:
Les travaux présentés concernent la spécification, le développement et l’évaluation d’un système de catégorisation de documents manuscrits faiblement contraints tels que des courriers entrants. Nous démontrons qu’un système développé pour la catégorisation de documents électroniques peut être adapté à la catégorisation de documents manuscrits. Afin d’extraire les seuls mots clés nécessaires à la catégorisation, nous avons mis en place un système d’extraction de mots clés dans les documents manuscrits. Ce système d’extraction est appliqué sur chaque ligne de texte et fait appel à un moteur de reconnaissance de mots manuscrits isolés afin de réaliser conjointement la segmentation de mots et leur reconnaissance. L’intégration d’un modèle de rejet dans le système permet de prendre en compte les éléments hors-lexique lors de la reconnaissance de la ligne. Nous démontrons que malgré les performances en extraction de mots clés très en-dessous de celles des OCR, les performances en catégorisation de documents manuscrits ne sont que très peu dégradées
The work described in this document deals with the design, the development and the evaluation of a system of categorization of unconstrained handwritten documents such as handwritten incoming mails. We demonstrate that a system developed for electronic document categorization can be adapted for handwritten document categorization
APA, Harvard, Vancouver, ISO, and other styles
45

Es, soufi Widad. "Modélisation et fouille des processus en vue d'assister la prise de décisions dans le contexte de la conception et la supervision des systèmes." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0067/document.

Full text
Abstract:
L'industrie actuelle est en plein développement suite à la mise en œuvre du concept de l'industrie 4.0 visant à rendre l'usine une entité intelligente, en combinant les processus et pratiques industriels avec les technologies de l'information et de communication récentes comme les systèmes cyber-physiques et l'internet des objets connectés (IoT), entre autres. Ce développement industriel, ainsi que le besoin d'innover pour atteindre et maintenir la compétitivité favorisent une augmentation phénoménale du volume de données (connue sous le nom de Big Data), rendant ainsi (i) les processus de conception et de supervision des systèmes de plus en plus chaotiques, (ii) les données au sein des organisations de plus en plus difficiles à exploiter et (iii) les ingénieurs de plus en plus perdus lors de la prise de décision. En effet, plusieurs problèmes sont identifiés dans les milieux industriels et qui peuvent être classés en trois catégories : (i) difficultés lors de la recherche, la visualisation et l'échange de l'information, (ii) difficultés lors de la prise de décision et (iii) difficultés lors de la gestion des changements de contexte. A travers ce travail, nous proposons un système d'aide à la décision intelligent et modulaire, dont chacun des quatre modules résout un des problèmes identifiés. Les modules de modélisation et de traçabilité des processus permettent de modéliser les processus et de capturer la façon comment ils sont exécutés. Le module d'aide à la décision permet de proposer le pattern le plus adapté au contexte de la décision ainsi que les paramètres de ses activités les plus significatifs. Le module de gestion des changements contextuels permet de continuellement mettre à jour le module de prise de décision, lui permettant ainsi de tenir compte de l'aspect dynamique du contexte. Le système proposé est entièrement vérifié et à moitié validé dans le contexte du projet Gontrand, visant la supervision intelligente et en temps réel des réseaux de gaz favorisant l'injection du gaz vert. Pour qu'il soit entièrement validé, les performances du système doivent être analysées après l'intégration et l'exploitation de ce dernier dans un milieu industriel réel
Data sets are growing rapidly because of two things. First, the fourth industrial revolution that aims to transform factories into smart entities in which cyber physical systems monitor the physical processes of the factory. Second, the need to innovate in order to achieve and maintain competitiveness. Due to this huge volume of data (Big Data), (i) design and supervision processes are becoming chaotic, (ii) data within organizations is increasingly becoming difficult to exploit and (iii) engineers are increasingly lost when making decisions. Indeed, several issues are identified in industry: (i) when researching, visualizing and exchanging information, (ii) when making decisions and (iii) when managing contextual changes. Through this research work, we propose an Intelligent and modular Decision Support System (IDSS), where each of the four modules solves one of the identified issues. Process modelling and traceability modules aim to model processes and capture how they are actualy executed. The decision support module proposes the process patterns that best fit the decision context, as well as their most significant activity parameters. The contextual change management module continuously updates the decision-making module, in order to handle the dynamic aspect of the decision context. The proposed system is fully verified and half-validated in the context of the Gontrand project, aiming at intelligent and real-time supervision of gas networks favoring the injection of green gas. In order to be fully validated, the performance of the system must be analyzed after integrating and exploitating it in a real industrial environment
APA, Harvard, Vancouver, ISO, and other styles
46

Claveau, Vincent. "Acquisition automatique de lexiques sémantiques pour la recherche d'information." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00524646.

Full text
Abstract:
De nombreuses applications du traitement automatique des langues (recherche d'information, traduction automatique, etc.) requièrent des ressources sémantiques spécifiques à leur tâche et à leur domaine. Pour répondre à ces besoins spécifiques, nous avons développé ASARES, un système d'acquisition d'informations sémantiques lexicales sur corpus. Celui-ci répond à un triple objectif : il permet de fournir des résultats de bonne qualité, ses résultats et le processus ayant conduit à leur extraction sont interprétables, et enfin, il est assez générique et automatique pour être aisément portable d'un corpus à un autre. Pour ce faire, ASARES s'appuie sur une technique d'apprentissage artificiel symbolique --- la programmation logique inductive --- qui lui permet d'inférer des patrons d'extraction morphosyntaxiques et sémantiques à partir d'exemples des éléments lexicaux sémantiques que l'on souhaite acquérir. Ces patrons sont ensuite utilisés pour extraire du corpus de nouveaux éléments. Nous montrons également qu'il est possible de combiner cette approche symbolique avec des techniques d'acquisition statistiques qui confèrent une plus grande automaticité à ASARES. Pour évaluer la validité de notre méthode, nous l'avons appliquée à l'extraction d'un type de relations sémantiques entre noms et verbes définies au sein du Lexique génératif appelées relations qualia. Cette tâche d'acquisition revêt deux intérêts principaux. D'une part, ces relations ne sont définies que de manière théorique ; l'interprétabilité linguistique des patrons inférés permet donc d'en préciser le fonctionnement et les réalisations en contexte. D'autre part, plusieurs auteurs ont noté l'intérêt de ce type de relations dans le domaine de la recherche d'information pour donner accès à des reformulations sémantiquement équivalentes d'une même idée. Grâce à une expérience d'extension de requêtes, nous vérifions expérimentalement cette affirmation : nous montrons que les résultats d'un système de recherche exploitant ces relations qualia, acquises par ASARES, sont améliorés de manière significative quoique localisée.
APA, Harvard, Vancouver, ISO, and other styles
47

Sobral, Rui. "Techniques et systèmes d'acquisition des connaissances." Compiègne, 1989. http://www.theses.fr/1989COMPD168.

Full text
Abstract:
Ce travail de recherche pose l'un des problèmes fondamentaux des systèmes à base de connaissances : l'acquisition de ces connaissances. Il définit clairement les enjeux du domaine et se compose de trois parties. La première est une présentation quasi-exhaustive des différentes méthodes de recueil d'expertise existantes. Chaque technique est rapidement décrite et un synthèse argumentée conclut cette étude. La seconde est constituée par passage en revue des principaux systèmes informatiques d'acquisition automatique des connaissances. Ces systèmes sont jugés en fonction de leur efficacité et de leurs performances. Des enseignements en sont tirés afin de déterminer les caractéristiques souhaitables pour ce type de système. La dernière présente STIX : un système de transfert interactif d'expertise réalisé dans le cadre de ce travail. Ce système basé sur le « repertory grid », permet l'obtention d'une base de connaissances par une interrogation systématique de l'expert, l'optimisation et la détection de lacunes de cette base grâce à la définition de distances et de similitudes entre ses éléments constitutifs. La base de connaissances est automatiquement transcrite dans un langage informatique ou pour moteur d'inférences quelconque (PASCAL, LISP, ART, Ops5, ExpertKit,. . . ). Les originalités de ce système sont liées à la généralité des critères qu'il incorpore et à la profondeur (modélisation des arbres de décisions) et complexité (introduction de méta-connaissance) des raisonnements qu'il permet de représenter. Deux exemples d'utilisation sur des applications industrielles sont fournis. Finalement ce travail propose un parallèle entre « repertory grids » et réseaux de neurones artificiels permettant d'introduire de l'apprentissage dans un système symbolique.
APA, Harvard, Vancouver, ISO, and other styles
48

Ferneda, Edilson. "Conception d'un agent rationnel et examen de son raisonnement en géométrie." Montpellier 2, 1992. http://www.theses.fr/1992MON20300.

Full text
Abstract:
Notre objectif dans ce travail est de faire l'anatomie d'un agent rationnel en regardant dans le plus grand detail l'ensemble des donnees, des heuristiques et des mecanismes qui interviennent pour qu'un agent rationnel realise des taches simples de raisonnement en geometrie. Etant donnees les contraintes de modelisation de l'agent rationnel, les concepts qu'il formule sous la forme de connaissances sont souvent errones. Comme le domaine de la geometrie est bien connu, l'agent humain est habile pour determiner des contre-exemples qui embarrassent l'agent; l'agent rationnel n'a pas pour objectif de produire une connaissance exacte, mais une connaissance argumentable, qui puisse etre corrigee lors d'un protocole de dialogue
APA, Harvard, Vancouver, ISO, and other styles
49

Hardy, Corentin. "Contribution au développement de l’apprentissage profond dans les systèmes distribués." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S020/document.

Full text
Abstract:
L'apprentissage profond permet de développer un nombre de services de plus en plus important. Il nécessite cependant de grandes bases de données d'apprentissage et beaucoup de puissance de calcul. Afin de réduire les coûts de cet apprentissage profond, nous proposons la mise en œuvre d'un apprentissage collaboratif. Les futures utilisateurs des services permis par l'apprentissage profond peuvent ainsi participer à celui-ci en mettant à disposition leurs machines ainsi que leurs données sans déplacer ces dernières sur le cloud. Nous proposons différentes méthodes afin d'apprendre des réseaux de neurones profonds dans ce contexte de système distribué
Deep learning enables the development of a growing number of services. However, it requires large training databases and a lot of computing power. In order to reduce the costs of this deep learning, we propose a distributed computing setup to enable collaborative learning. Future users can participate with their devices and their data without moving private data in datacenters. We propose methods to train deep neural network in this distibuted system context
APA, Harvard, Vancouver, ISO, and other styles
50

Rioual, Yohann. "RL-based Energy Management for Autonomous Cyber Physical Systems." Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS533.

Full text
Abstract:
La gestion d'énergie d'un système cyber physique est une tâche difficile à cause de la complexité des architectures matérielles et l'utilisation d'OS. En outre, ces systèmes sont déployés dans des environnements qui évoluent et où leur capacité de recharge en énergie varie. Avec le temps, leur consommation en énergie est modifiée du fait du vieillissement des composants. Les modèles de consommation conçus en laboratoire ne peuvent pas prendre en compte tous les scénarios de déploiement possible ainsi que le vieillissement du système. Une approche qui se développe est l'utilisation d'apprentissage par renforcement dans lequel nous n'avons plus connaissance du modèle de consommation du système ; mais grâce à cette approche, ce dernier est capable d'adapter son fonctionnement pendant son déploiement en fonction de l'évolution de son environnement. Plusieurs approches existent en apprentissage par renforcement. La première partie de cette thèse est consacrée à la proposition de lignes directrices pour aider à la sélection de l’approche la plus appropriée pour une application et une cible donnée. La deuxième partie se concentre sur la conception de la récompense que l’on donne à notre système et qui va influencer son comportement dans son environnement. Deux fonctions de récompense capables d’ajuster la performance du système en fonction de l’énergie disponible y sont présentées. La troisième et dernière partie explore l’utilisation de plusieurs agents pour contrôler indépendamment les différents modules de notre système. Cette approche permet un contrôle plus précis de la consommation en énergie, réduisant l’utilisation de mémoire par rapport à une approche avec un agent unique
The energy management of a cyber physical system is a difficult task because of the complexity of hardware architectures and the use of OS. In addition, these systems are deployed in changing environments where their energy harvesting capacity varies. Over time, their energy consumption is modified due to the ageing of the components. Consumption models designed in the laboratory cannot take into account all possible deployment scenarios and system aging. One approach that is developing is the use of reinforcement learning in which we no longer know the system's consumption model; but thanks to this approach, the system is still able to adapt its operation during its deployment according to the evolution of its environment. Several approaches exist in reinforcement learning. The first part of this thesis is devoted to proposing guidelines to help for selecting the most appropriate approach for a given application and target. The second part of this thesis focuses on the design of the reward we give to our system that will influence its behaviour in its environment. Two reward functions able to adjust the system’s performance according to the energy available are presented. The third and last part of this thesis explores the use of several agents to independently control the different modules of our system. This approach allows a more precise control of energy consumption, reducing memory usage compared to a single agent approach
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography