Teses / dissertações sobre o tema "Réseaux de neurones embarqués"

Siga este link para ver outros tipos de publicações sobre o tema: Réseaux de neurones embarqués.

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Réseaux de neurones embarqués".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Pompougnac, Hugo. "Spécification et compilation de réseaux de neurones embarqués". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS436.

Texto completo da fonte
Resumo:
Dans cette thèse, nous proposons une approche pour spécifier et compiler conjointement les aspects Calcul Haute Performance (HPC) et Temps-Réel Embarqué (RTE) d’un même système. Notre approche est fondée sur une intégration formelle, algorithmique et outillée entre deux formalismes sous-tendant une bonne partie des travaux en HPC et en RTE : le formalisme SSA et le langage flot de données synchrone Lustre. Le formalisme SSA est au cœur de bon nombre de compilateurs HPC, dont ceux employés par les frameworks d'apprentissage machine tels TensorFlow ou PyTorch. Le langage Lustre est au cœur des processus de mise en œuvre de systèmes embarqués critiques dans l’avionique, ou encore le rail
In this thesis, we propose an approach for the joint specification and compilation of both High-Performance Computing (HPC) and Real-Time Embedded (RTE) aspects of a system. Our approach is based on a formal, algorithmic and tooled integration between two formalisms underlying a large part of works in HPC and RTE fields: the SSA formalism and the synchronous dataflow language Lustre. The SSA formalism is a key component of many HPC compilers, including those used by Machine Learning frameworks such as TensorFlow or PyTorch. The Lustre language is a key component of implementation processes of critical embedded systems in avionics or rail transportation
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Fernandez, Brillet Lucas. "Réseaux de neurones CNN pour la vision embarquée". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM043.

Texto completo da fonte
Resumo:
Pour obtenir des hauts taux de détection, les CNNs requièrent d'un grand nombre de paramètres à stocker, et en fonction de l'application, aussi un grand nombre d'opérations. Cela complique gravement le déploiement de ce type de solutions dans les systèmes embarqués. Ce manuscrit propose plusieurs solutions à ce problème en visant une coadaptation entre l'algorithme, l'application et le matériel.Dans ce manuscrit, les principaux leviers permettant de fixer la complexité computationnelle d'un détecteur d'objets basé sur les CNNs sont identifiés et étudies. Lorsqu'un CNN est employé pour détecter des objets dans une scène, celui-ci doit être appliqué à travers toutes les positions et échelles possibles. Cela devient très coûteux lorsque des petits objets doivent être trouvés dans des images en haute résolution. Pour rendre la solution efficiente et ajustable, le processus est divisé en deux étapes. Un premier CNN s'especialise à trouver des régions d'intérêt de manière efficiente, ce qui permet d'obtenir des compromis flexibles entre le taux de détection et le nombre d’opérations. La deuxième étape comporte un CNN qui classifie l’ensemble des propositions, ce qui réduit la complexité de la tâche, et par conséquent la complexité computationnelle.De plus, les CNN exhibent plusieurs propriétés qui confirment leur surdimensionnement. Ce surdimensionnement est une des raisons du succès des CNN, puisque cela facilite le processus d’optimisation en permettant un ample nombre de solutions équivalentes. Cependant, cela complique leur implémentation dans des systèmes avec fortes contraintes computationnelles. Dans ce sens, une méthode de compression de CNN basé sur une Analyse en Composantes Principales (ACP) est proposé. L’ACP permet de trouver, pour chaque couche du réseau, une nouvelle représentation de l’ensemble de filtres appris par le réseau en les exprimant à travers d’une base ACP plus adéquate. Cette base ACP est hiérarchique, ce qui veut dire que les termes de la base sont ordonnés par importance, et en supprimant les termes moins importants, il est possible de trouver des compromis optimales entre l’erreur d’approximation et le nombre de paramètres. À travers de cette méthode il es possible d’obtenir, par exemple, une réduction x2 sur le nombre de paramètres et opérations d’un réseau du type ResNet-32, avec une perte en accuracy <2%. Il est aussi démontré que cette méthode est compatible avec d’autres méthodes connues de l’état de l’art, notamment le pruning, winograd et la quantification. En les combinant toutes, il est possible de réduire la taille d’un ResNet-110 de 6.88 Mbytes à 370kBytes (gain mémoire x19) avec une dégradation d’accuracy de 3.9%.Toutes ces techniques sont ensuite misses en pratique dans un cadre applicatif de détection de vissages. La solution obtenue comporte une taille de modèle de 29.3kBytes, ce qui représente une réduction x65 par rapport à l’état de l’art, à égal taux de détection. La solution est aussi comparé a une méthode classique telle que Viola-Jones, ce qui confirme autour d’un ordre de magnitude moins de calculs, au même temps que l’habilité d’obtenir des taux de détection plus hauts, sans des hauts surcoûts computationnels Les deux réseaux sont en suite évalues sur un multiprocesseur embarqué, ce qui permet de vérifier que les taux de compression théoriques obtenues restent cohérents avec les chiffres mesurées. Dans le cas de la détection de vissages, la parallélisation du réseau comprimé par ACP sûr 8 processeurs incrémente la vitesse de calcul d’un facteur x11.68 par rapport au réseau original sûr un seul processeur
Recently, Convolutional Neural Networks have become the state-of-the-art soluion(SOA) to most computer vision problems. In order to achieve high accuracy rates, CNNs require a high parameter count, as well as a high number of operations. This greatly complicates the deployment of such solutions in embedded systems, which strive to reduce memory size. Indeed, while most embedded systems are typically in the range of a few KBytes of memory, CNN models from the SOA usually account for multiple MBytes, or even GBytes in model size. Throughout this thesis, multiple novel ideas allowing to ease this issue are proposed. This requires to jointly design the solution across three main axes: Application, Algorithm and Hardware.In this manuscript, the main levers allowing to tailor computational complexity of a generic CNN-based object detector are identified and studied. Since object detection requires scanning every possible location and scale across an image through a fixed-input CNN classifier, the number of operations quickly grows for high-resolution images. In order to perform object detection in an efficient way, the detection process is divided into two stages. The first stage involves a region proposal network which allows to trade-off recall for the number of operations required to perform the search, as well as the number of regions passed on to the next stage. Techniques such as bounding box regression also greatly help reduce the dimension of the search space. This in turn simplifies the second stage, since it allows to reduce the task’s complexity to the set of possible proposals. Therefore, parameter counts can greatly be reduced.Furthermore, CNNs also exhibit properties that confirm their over-dimensionment. This over-dimensionement is one of the key success factors of CNNs in practice, since it eases the optimization process by allowing a large set of equivalent solutions. However, this also greatly increases computational complexity, and therefore complicates deploying the inference stage of these algorithms on embedded systems. In order to ease this problem, we propose a CNN compression method which is based on Principal Component Analysis (PCA). PCA allows to find, for each layer of the network independently, a new representation of the set of learned filters by expressing them in a more appropriate PCA basis. This PCA basis is hierarchical, meaning that basis terms are ordered by importance, and by removing the least important basis terms, it is possible to optimally trade-off approximation error for parameter count. Through this method, it is possible to compress, for example, a ResNet-32 network by a factor of ×2 both in the number of parameters and operations with a loss of accuracy <2%. It is also shown that the proposed method is compatible with other SOA methods which exploit other CNN properties in order to reduce computational complexity, mainly pruning, winograd and quantization. Through this method, we have been able to reduce the size of a ResNet-110 from 6.88Mbytes to 370kbytes, i.e. a x19 memory gain with a 3.9 % accuracy loss.All this knowledge, is applied in order to achieve an efficient CNN-based solution for a consumer face detection scenario. The proposed solution consists of just 29.3kBytes model size. This is x65 smaller than other SOA CNN face detectors, while providing equal detection performance and lower number of operations. Our face detector is also compared to a more traditional Viola-Jones face detector, exhibiting approximately an order of magnitude faster computation, as well as the ability to scale to higher detection rates by slightly increasing computational complexity.Both networks are finally implemented in a custom embedded multiprocessor, verifying that theorical and measured gains from PCA are consistent. Furthermore, parallelizing the PCA compressed network over 8 PEs achieves a x11.68 speed-up with respect to the original network running on a single PE
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Godin, Christelle. "Contributions à l'embarquabilité et à la robustesse des réseaux de neurones en environnement radiatif : apprentissage constructif : neurones à impulsions". École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2000. http://www.theses.fr/2000ESAE0013.

Texto completo da fonte
Resumo:
Les réseaux de neurones et plus particulièrement les perceptrons multi-couches sont aujourd'hui largement utilisés pour des tâches de classification. L'environnement radiatif, hostile pour les équipements électroniques, provoque des modifications de leur fonctionnement. Cette thèse explore deux voies dans le but d'obtenir des réseaux de neurones robustes destinés à être embarqués dans des systèmes fonctionnant en environnement radiatif. La première approche est basée sur un nouvel algorithme d'apprentissage constructif, appelé NetLS, qui est une généralisation des algorithmes NetLines et Net Spheres. Nous montrons sur des problèmes étalons qu'il permet d'aboutir à des réseaux de neurones binaires de très petite taille alors que d'autres algorithmes conduisent à des classifieurs bien plus complexes pour des performances équivalentes. La seconde approche consiste à utiliser un nouveau modèle de neurone à impulsions pour l'implantation de neurones à fonction de réponse continue. Ainsi, n'importe quel algorithme d'apprentissage classique (rétropropagation et ses variantes) peut être utilisé et le réseau de neurones obtenu peut fonctionner avec ces neurones à impulsions. Dans ces conditions, nous montrons que lors de la relaxation du réseau les performances augmentent au cours du temps jusqu'à atteindre celles du réseau de neurones continus. Ainsi, si une erreur se produit au cours du calcul, l'information disponible peut représenter une partie du résultat. Une architecture numérique pour ce neurone est proposée et évaluée. La surface occupée sur le silicium est 10 fois inférieure à celle nécessaire pour implanter une neurone continu. Ces deux approches conduisent à des réseaux de neurones de faible surface : la probabilité d'une erreur due aux radiations est minimisée. Ils ont été confrontés à des problèmes de détection de signaux radar de deux types, les premiers étant générés par un modèle, et les seconds des échos ionosphériques mesurés par le radar du projet EISCAT (European Incoherent SCATter).
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Mamalet, Franck. "Adéquation algorithme-architecture pour les réseaux de neurones à convolution : application à l'analyse de visages embarquée". Thesis, Lyon, INSA, 2011. http://www.theses.fr/2011ISAL0068.

Texto completo da fonte
Resumo:
La prolifération des capteurs d'images dans de nombreux appareils électroniques, et l'évolution des capacités de traitements à proximité de ces capteurs ouvrent un champ d'exploration pour l'implantation et l'optimisation d'algorithmes complexes de traitement d'images afin de proposer des systèmes de vision artificielle embarquée. Ces travaux s'inscrivent dans la problématique dite d'adéquation algorithme-architecture (A3). Ils portent sur une classe d'algorithmes appelée réseau de neurones à convolutions (ConvNet) et ses applications en analyse de visages embarquée. La chaîne d'analyse de visages, introduite par Garcia et al., a été choisie d'une part pour ses performances en taux de détection/reconnaissance au niveau de l'état de l'art, et d'autre part pour son caractère homogène reposant sur des ConvNets. La première contribution de ces travaux porte sur une étude d'adéquation de cette chaîne d'analyse de visages aux processeurs embarqués. Nous proposons plusieurs adaptations algorithmiques des ConvNets, et montrons que celles-ci permettent d'obtenir des facteurs d'accélération importants (jusqu'à 700) sur un processeur embarqué pour mobile, sans dégradation des performances en taux de détection/reconnaissance. Nous présentons ensuite une étude des capacités de parallélisation des ConvNets, au travers des travaux de thèse de N. Farrugia. Une exploration "gros-grain" du parallélisme des ConvNets, suivie d'une étude de l'ordonnancement interne des processeurs élémentaires, conduisent à une architecture parallèle paramétrable, capable de détecter des visages à plus de 10 images VGA par seconde sur FPGA. Nous proposons enfin une extension de ces études à la phase d'apprentissage de ces réseaux de neurones. Nous étudions des restrictions de l'espace des hypothèses d'apprentissage, et montrons, sur un cas d'application, que les capacités d'apprentissage des ConvNets ne sont pas dégradées, et que le temps d'apprentissage peut être réduit jusqu'à un facteur cinq
Proliferation of image sensors in many electronic devices, and increasing processing capabilities of such sensors, open a field of exploration for the implementation and optimization of complex image processing algorithms in order to provide embedded vision systems. This work is a contribution in the research domain of algorithm-architecture matching. It focuses on a class of algorithms called convolution neural network (ConvNet) and its applications in embedded facial analysis. The facial analysis framework, introduced by Garcia et al., was chosen for its state of the art performances in detection/recognition, and also for its homogeneity based on ConvNets. The first contribution of this work deals with an adequacy study of this facial analysis framework with embedded processors. We propose several algorithmic adaptations of ConvNets, and show that they can lead to significant speedup factors (up to 700) on an embedded processor for mobile phone, without performance degradation. We then present a study of ConvNets parallelization capabilities, through N. Farrugia's PhD work. A coarse-grain parallelism exploration of ConvNets, followed by study of internal scheduling of elementary processors, lead to a parameterized parallel architecture on FPGA, able to detect faces at more than 10 VGA frames per second. Finally, we propose an extension of these studies to the learning phase of neural networks. We analyze several hypothesis space restrictions for ConvNets, and show, on a case study, that classification rate performances are almost the same with a training time divided by up to five
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Abderrahmane, Nassim. "Impact du codage impulsionnel sur l’efficacité énergétique des architectures neuromorphiques". Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4082.

Texto completo da fonte
Resumo:
Dans le contexte actuel, l’Intelligence Artificielle (IA) est largement répandue et s’applique à de nombreux domaines tels que les transports, la médecine et les véhicules autonomes. Parmi les algorithmes d'IA, on retrouve principalement les réseaux de neurones, qui peuvent être répartis en deux familles : d'une part, les Réseaux de Neurones Impulsionnels (SNNs) qui sont issus du domaine des neurosciences ; d'autre part, les Réseaux de Neurones Analogiques (ANNs) qui sont issus du domaine de l'apprentissage machine. Les ANNs connaissent un succès inédit grâce à des résultats inégalés dans de nombreux secteurs tels que la classification d'images et la reconnaissance d'objets. Cependant, leur déploiement nécessite des capacités de calcul considérables et ne conviennent pas à des systèmes très contraints. Afin de pallier ces limites, de nombreux chercheurs s'intéressent à un calcul bio-inspiré, qui serait la parfaite alternative aux calculateurs conventionnels basés sur l'architecture de Von Neumann. Ce paradigme répond aux exigences de performance de calcul, mais pas aux exigences d'efficacité énergétique. Il faut donc concevoir des circuits matériels neuromorphiques adaptés aux calculs parallèles et distribués. Dans ce contexte, nous avons établi un certain nombre de critères en termes de précision et de coût matériel pour différencier les SNNs et ANNs. Dans le cas de topologies simples, nous avons montré que les SNNs sont plus efficaces en termes de coût matériel que les ANNs, et ce, avec des précisions de prédiction quasiment similaires. Ainsi, dans ce travail, notre objectif est de concevoir une architecture neuromorphique basée sur les SNNs. Dans cette perspective, nous avons mis en place un flot de conception composé de trois niveaux, qui permet la réalisation d’une architecture neuromorphique dédiée et adaptée aux applications d’IA embarquée.Dans un contexte d'efficacité énergétique, nous avons réalisé une étude approfondie sur divers paradigmes de codage neuronal utilisés avec les SNNs. Par ailleurs, nous avons proposé de nouvelles versions dérivées du codage fréquentiel, visant à se rapprocher de l'activité produite avec le codage temporel, qui se caractérise par un nombre réduit d'impulsions (spikes) se propageant dans le SNN. En faisant cela, nous sommes en mesure de réduire le nombre de spikes, ce qui se traduit par un SNN avec moins d'événements à traiter, et ainsi, réduire la consommation énergétique sous-jacente. Pour cela, deux techniques nouvelles ont été proposées : "First Spike", qui se caractérise par l'utilisation d’un seul spike au maximum par donnée ; "Spike Select", qui permet de réguler et de minimiser l'activité globale du SNN.Dans la partie d’exploration RTL, nous avons comparé de manière quantitative un certain nombre d’architectures de SNN avec différents niveaux de parallélisme et multiplexage de calculs. En effet, le codage "Spike Select" engendre une régulation de la distribution des spikes, avec la majorité générée dans la première couche et peu d'entre eux propagés dans les couches profondes. Nous avons constaté que cette distribution bénéficie d’une architecture hybride comportant une première couche parallèle et les autres multiplexées. Par conséquent, la combinaison du "Spike Select" et de l'architecture hybride serait une solution efficace, avec un compromis efficace entre coût matériel, consommation et latence.Enfin, en se basant sur les choix architecturaux et neuronaux issus de l'exploration précédente, nous avons élaboré une architecture évènementielle dédiée aux SNNs mais suffisamment programmable pour supporter différents types et tailles de réseaux de neurones. L'architecture supporte les couches les plus utilisées : convolution, pooling et entièrement connectées. En utilisant cette architecture, nous serons bientôt en mesure de comparer les ANNs et les SNNs sur des applications réalistes et enfin conclure sur l'utilisation des SNNs pour l'IA embarquée
Nowadays, Artificial Intelligence (AI) is a widespread concept applied to many fields such as transportation, medicine and autonomous vehicles. The main AI algorithms are artificial neural networks, which can be divided into two families: Spiking Neural Networks (SNNs), which are bio-inspired models resulting from neuroscience, and Analog Neural Networks (ANNs), which result from machine learning. The ANNs are experiencing unprecedented success in research and industrial fields, due to their recent successes in many application contexts such as image classification and object recognition. However, they require considerable computational capacity for their deployment which is not adequate to very constrained systems such as 'embedded systems'. To overcome these limitations, many researchers are interested in brain-inspired computing, which would be the perfect alternative to conventional computers based on the Von Neumann architecture (CPU/GPU). This paradigm meets computing performance but not energy efficiency requirements. Hence, it is necessary to design neuromorphic hardware circuits adaptable to parallel and distributed computing. In this context, we have set criteria in terms of accuracy and hardware implementation cost to differentiate the two neural families (SNNs and ANNs). In the case of simple network topologies, we conducted a study that has shown that the spiking models have significant gains in terms of hardware cost when compared to the analog networks, with almost similar prediction accuracies. Therefore, the objective of this thesis is to design a generic neuromorphic architecture that is based on spiking neural networks. To this end, we have set up a three-level design flow for exploring and implementing neuromorphic architectures.In an energy efficiency context, a thorough exploration of different neural coding paradigms for neural data representation in SNNs has been carried out. Moreover, new derivative versions of rate-based coding have been proposed that aim to get closer to the activity produced by temporal coding, which is characterized by a reduced number of spikes propagating in the network. In this way, the number of spikes can be reduced so that the number of events to be processed in the SNNs gets smaller. The aim in doing this approach is to reduce the hardware architecture's energy consumption. The proposed coding approaches are: First Spike, which is characterized using at most one single spike to present an input data, and Spike Select, which allows to regulate and minimize the overall spiking activity in the SNN.In the RTL design exploration, we quantitatively compared three SNN architectural models having different levels of computing parallelism and multiplexing. Using Spike Select coding results in a distribution regulation of the spiking data, with most of them generated within the first layer and few of them propagate into the deep layers. Such distribution benefits from a so-called 'hybrid architecture' that includes a fully-parallel part for the first layer and multiplexed parts to the other layers. Therefore, combining the Spike Select and the Hybrid Architecture would be an effective solution for embedded AI applications, with an efficient hardware and latency trade-off.Finally, based on the architectural and neural choices resulting from the previous exploration, we have designed a final event-based architecture dedicated to SNNs supporting different neural network types and sizes. The architecture supports the most used layers: convolutional, pooling and fully-connected. Using this architecture, we will be able to compare analog and spiking neural networks on realistic applications and to finally conclude about the use of SNNs for Embedded Artificial Intelligence
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Boukli, Hacene Ghouthi. "Processing and learning deep neural networks on chip". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0153/document.

Texto completo da fonte
Resumo:
Dans le domaine de l'apprentissage machine, les réseaux de neurones profonds sont devenus la référence incontournable pour un très grand nombre de problèmes. Ces systèmes sont constitués par un assemblage de couches, lesquelles réalisent des traitements élémentaires, paramétrés par un grand nombre de variables. À l'aide de données disponibles pendant une phase d'apprentissage, ces variables sont ajustées de façon à ce que le réseau de neurones réponde à la tâche donnée. Il est ensuite possible de traiter de nouvelles données. Si ces méthodes atteignent les performances à l'état de l'art dans bien des cas, ils reposent pour cela sur un très grand nombre de paramètres, et donc des complexités en mémoire et en calculs importantes. De fait, ils sont souvent peu adaptés à l'implémentation matérielle sur des systèmes contraints en ressources. Par ailleurs, l'apprentissage requiert de repasser sur les données d'entraînement plusieurs fois, et s'adapte donc difficilement à des scénarios où de nouvelles informations apparaissent au fil de l'eau. Dans cette thèse, nous nous intéressons dans un premier temps aux méthodes permettant de réduire l'impact en calculs et en mémoire des réseaux de neurones profonds. Nous proposons dans un second temps des techniques permettant d'effectuer l'apprentissage au fil de l'eau, dans un contexte embarqué
In the field of machine learning, deep neural networks have become the inescapablereference for a very large number of problems. These systems are made of an assembly of layers,performing elementary operations, and using a large number of tunable variables. Using dataavailable during a learning phase, these variables are adjusted such that the neural networkaddresses the given task. It is then possible to process new data.To achieve state-of-the-art performance, in many cases these methods rely on a very largenumber of parameters, and thus large memory and computational costs. Therefore, they are oftennot very adapted to a hardware implementation on constrained resources systems. Moreover, thelearning process requires to reuse the training data several times, making it difficult to adapt toscenarios where new information appears on the fly.In this thesis, we are first interested in methods allowing to reduce the impact of computations andmemory required by deep neural networks. Secondly, we propose techniques for learning on thefly, in an embedded context
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Pinna, Andrea. "Conception d'une rétine connexionniste : du capteur au système de vision sur puce". Paris 6, 2003. http://www.theses.fr/2003PA066566.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Veniat, Tom. "Neural Architecture Search under Budget Constraints". Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS443.

Texto completo da fonte
Resumo:
L'augmentation de la puissance de calcul et de la quantité de données disponible ont permis la montée en popularité de l'apprentissage profond. Cependant, l'expertise et les ressources nécessaires pour construire de tels algorithmes ainsi que l'empreinte mémoire et le temps d'inférence lors de l'utilisation sont autant d'obstacles à l'utilisation de ces méthodes. Dans cette thèse, nous proposons de construire des modèles d'apprentissage profond de manière plus efficace et automatisée. Tout d'abord, nous nous concentrons sur l'apprentissage d'une architecture efficace pour les problèmes de traitement d'images. Nous proposons un modèle dans lequel nous pouvons guider la procédure d'apprentissage d'architecture en spécifiant un budget et une fonction de coût fixes. Ensuite, nous considérons le problème de la classification de séquences, où un modèle peut être encore plus efficace en adaptant dynamiquement sa taille à la complexité du signal à venir. Enfin, nous abordons le problème de l'efficacité sous l'angle de l'apprentissage par transfert, une procédure d'apprentissage pouvant être rendue encore plus efficace si elle s'appuie sur des connaissances acquises lors d'expériences précédentes. Nous explorons les architectures modulaires dans le scénario de l'apprentissage continuel et présentons un nouveau benchmark permettant une évaluation fine des différents types de transfert
The recent increase in computation power and the ever-growing amount of data available ignited the rise in popularity of deep learning. However, the expertise, the amount of data, and the computing power necessary to build such algorithms as well as the memory footprint and the inference latency of the resulting system are all obstacles preventing the widespread use of these methods. In this thesis, we propose several methods allowing to make a step towards a more efficient and automated procedure to build deep learning models. First, we focus on learning an efficient architecture for image processing problems. We propose a new model in which we can guide the architecture learning procedure by specifying a fixed budget and cost function. Then, we consider the problem of sequence classification, where a model can be even more efficient by dynamically adapting its size to the complexity of the signal to come. We show that both approaches result in significant budget savings. Finally, we tackle the efficiency problem through the lens of transfer learning. Arguing that a learning procedure can be made even more efficient if, instead of starting tabula rasa, it builds on knowledge acquired during previous experiences. We explore modular architectures in the continual learning scenario and present a new benchmark allowing a fine-grained evaluation of different kinds of transfer
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Osman, Ousama. "Méthodes de diagnostic en ligne, embarqué et distribué dans les réseaux filaires complexes". Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC038.

Texto completo da fonte
Resumo:
Les recherches menées dans cette thèse portent sur le diagnostic de réseaux filaires complexes à l’aide de la réflectométrie distribuée. L’objectif est de développer de nouvelles technologies de diagnostic en ligne, distribuées des réseaux complexes permettant la fusion de données ainsi que la communication entre les réflectomètres pour détecter, localiser et caractériser les défauts électriques (francs et non francs). Cette collaboration entre les réflectomètres permet de résoudre le problème d’ambiguïté de localisation des défauts et d’améliorer la qualité du diagnostic. La première contribution concerne la proposition d’une méthode basée sur la théorie des graphes permettant la combinaison de données entre les réflectomètres distribués afin de faciliter la localisation d’un défaut. L’amplitude du signal réfléchi est ensuite utilisée pour identifier le type du défaut et estimer son impédance. Cette estimation est basée sur la régénération du signal en compensant la dégradation subie par le signal de diagnostic au cours de sa propagation à travers le réseau. La deuxième contribution permet la fusion des données de réflectomètres distribués dans des réseaux complexes affectés par de multiples défauts. Pour atteindre cet objectif, deux méthodes ont été proposées et développées : la première est basée sur les algorithmes génétiques (AG) et la deuxième est basée sur les réseaux de neurones (RN). Ces outils combinés avec la réflectométrie distribuée permettent la détection automatique, la localisation et la caractérisation de plusieurs défauts dans différents types et topologies des réseaux filaires. La troisième contribution propose d’intégrer la communication entre les réflectomètres via le signal de diagnostic porteur d’informations. Elle utilise adéquatement les phases du signal multiporteuses MCTDR pour transmettre des données. Cette communication assure l’échange d’informations utiles entre les réflectomètres sur l’état des câbles, permettant ainsi la fusion de données et la localisation des défauts sans ambiguïtés. Les problèmes d’interférence entre les réflectomètres sont également abordés lorsqu’ils injectent simultanément leurs signaux de test dans le réseau. Ces travaux de thèse ont montré l’efficacité des méthodes proposées pour améliorer les performances des systèmes de diagnostic filaire actuels en termes de diagnostic de certains défauts encore difficiles à détecter aujourd’hui, et d’assurer la sécurité de fonctionnement des systèmes électriques
The research conducted in this thesis focuses on the diagnosis of complex wired networks using distributed reflectometry. It aims to develop new distributed diagnostic techniques for complex networks that allow data fusion as well as communication between reflectometers to detect, locate and characterize electrical faults (soft and hard faults). This collaboration between reflectometers solves the problem of fault location ambiguity and improves the quality of diagnosis. The first contribution is the development of a graph theory-based method for combining data between distributed reflectometers, thus facilitating the location of the fault. Then, the amplitude of the reflected signal is used to identify the type of fault and estimate its impedance. The latter is based on the regeneration of the signal by compensating for the degradation suffered by the diagnosis signal during its propagation through the network. The second contribution enables data fusion between distributed reflectometers in complex networks affected by multiple faults. To achieve this objective, two methods have been proposed and developed: the first is based on genetic algorithms (GA) and the second is based on neural networks (RN). These tools combined with distributed reflectometryallow automatic detection, location, and characterization of several faults in different types and topologies of wired networks. The third contribution proposes the use of information-carrying diagnosis signal to integrate communication between distributed reflectometers. It properly uses the phases of the MCTDR multi-carrier signal to transmit data. This communication ensures the exchange of useful information (such as fault location and amplitude) between reflectometers on the state of the cables, thus enabling data fusion and unambiguous fault location. Interference problems between the reflectometers are also addressed when they simultaneously inject their test signals into the network. These studies illustrate the efficiency and applicability of the proposed methods. They also demonstrate their potential to improve the performance of the current wired diagnosis systems to meet the need and the problem of detecting and locating faults that manufacturers and users face today in electrical systems to improve their operational safety
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Castellanos, SÁnchez Claudio. "Modèle connexionniste neuromimétique pour la perception visuelle embarquée du mouvement". Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011483.

Texto completo da fonte
Resumo:
Le recherche en connexionnisme est en face des fortes contraintes d'autonomie en robotique notamment issues des tâches perceptives visuelles qui n'ont pas encore été satisfaites par les modèles neuronaux utilisés jusqu'à aujourd'hui, surtout celles liées à la perception du mouvement. Dans ce cadre, nous proposons un modèle connexionniste neuromimétique permettant de traiter un ensemble de tâches de perception visuelle dynamique (robot/objets environnants en mouvement). Cela implique le compromis de maintenir la satisfaction des contraintes (bio-inspiration, traitements locaux massivement distribués en vue d'une implantation ultérieure temps-réel embarquée sur circuit FPGA, Field Programmable Gate Array) au coeur de la définition du modèle proposé, malgré la complexité des tâches en jeu.
Le modèle connexionniste proposé pour la perception visuelle du mouvement est constitué de trois modules : le premier opère un filtrage spatio-temporel causal issu des filtres de Gabor et inspiré des réponses des cellules simples du cortex visuel primaire, V1. Le deuxième met en place un mécanisme distribué de fortes interactions localisées fondé sur un principe antagoniste inspiré de l'organisation en colonnes d'orientation dans V1. Finalement, en nous inspirant des propriétés des champs récepteurs des neurones de MT et MST (aire temporelle moyenne et supérieur moyenne, respectivement), nous intégrons les réponses du second module et les envoyons au troisième. Ce dernier fait émerger un seul objet en mouvement à travers l'évolution en différentes cartes des interactions latérales, en pro-action et en retro-action d'une population neuronale densément interconnectée selon le principe de la CNFT (Continuum Neural Field Theory). L'attention sur l'objet émergé nous permet donc de le suivre.
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Abernot, Madeleine. "Digital oscillatory neural network implementation on FPGA for edge artificial intelligence applications and learning". Electronic Thesis or Diss., Université de Montpellier (2022-....), 2023. http://www.theses.fr/2023UMONS074.

Texto completo da fonte
Resumo:
Au cours des dernières décennies, la multiplication des objets embarqués dans de nombreux domaines a considérablement augmenté la quantité de données à traiter et la complexité des tâches à résoudre, motivant l'émergence d'algorithmes probabilistes d'apprentissage tels que l'intelligence artificielle (IA) et les réseaux de neurones artificiels (ANN). Cependant, les systèmes matériels pour le calcul embarqué basés sur l'architecture von Neuman ne sont pas efficace pour traiter cette quantité de données. C'est pourquoi des paradigmes neuromorphiques dotés d'une mémoire distribuée sont étudiés, s'inspirant de la structure et de la représentation de l'information des réseaux de neurones biologiques. Dernièrement, la plupart de la recherche autour des paradigmes neuromorphiques ont exploré les réseaux de neurones à impulsion ou spiking neural networks (SNNs), qui s'inspirent des impulsions utilisées pour transmettre l'information dans les réseaux biologiques. Les SNNs encodent l'information temporellement à l'aide d'impulsions pour assurer un calcul de données continues naturel et à faible énergie. Récemment, les réseaux de neurones oscillatoires (ONN) sont apparu comme un paradigme neuromorphique alternatif pour du calcul temporel, rapide et efficace, à basse consommation. Les ONNs sont des réseaux d'oscillateurs couplés qui émulent les propriétés de calcul collectif des zones du cerveau par le biais d'oscillations. Les récentes implémentations d'ONN combinées à l'émergence de composants compacts à faible consommation d'énergie encouragent le développement des ONNs pour le calcul embarqué. L’état de l’art de l'ONN le configure comme un réseau de Hopfield oscillatoire (OHN) avec une architecture d’oscillateurs entièrement couplés pour effectuer de la reconnaissance de formes avec une précision limitée. Cependant, le grand nombre de synapses de l'architecture limite l’implémentation de larges ONNs et le champs des applications de l'ONN. Cette thèse se concentre pour étudier si et comment l'ONN peut résoudre des applications significatives d'IA embarquée à l'aide d'une preuve de concept de l'ONN implémenté en digital sur FPGA. Tout d'abord, ce travail explore de nouveaux algorithmes d'apprentissages pour OHN, non supervisé et supervisé, pour améliorer la précision et pour intégrer de l'apprentissage continu sur puce. Ensuite, cette thèse étudie de nouvelles architectures pour l'ONN en s'inspirant des architectures en couches des ANNs pour créer dans un premier temps des couches d'OHN en cascade puis des réseaux ONN multi-couche. Les nouveaux algorithmes d'apprentissage et les nouvelles architectures sont démontrées avec l'ONN digital pour des applications d'IA embarquée, telles que pour la robotique avec de l'évitement d'obstacles et pour le traitement d'images avec de la reconnaissance de formes, de la détection de contour, de l'extraction d'amers, ou de la classification
In the last decades, the multiplication of edge devices in many industry domains drastically increased the amount of data to treat and the complexity of tasks to solve, motivating the emergence of probabilistic machine learning algorithms with artificial intelligence (AI) and artificial neural networks (ANNs). However, classical edge hardware systems based on von Neuman architecture cannot efficiently handle this large amount of data. Thus, novel neuromorphic computing paradigms with distributed memory are explored, mimicking the structure and data representation of biological neural networks. Lately, most of the neuromorphic paradigm research has focused on Spiking neural networks (SNNs), taking inspiration from signal transmission through spikes in biological networks. In SNNs, information is transmitted through spikes using the time domain to provide a natural and low-energy continuous data computation. Recently, oscillatory neural networks (ONNs) appeared as an alternative neuromorphic paradigm for low-power, fast, and efficient time-domain computation. ONNs are networks of coupled oscillators emulating the collective computational properties of brain areas through oscillations. The recent ONN implementations combined with the emergence of low-power compact devices for ONN encourage novel attention over ONN for edge computing. State-of-the-art ONN is configured as an oscillatory Hopfield network (OHN) with fully coupled recurrent connections to perform pattern recognition with limited accuracy. However, the large number of OHN synapses limits the scalability of ONN implementation and the ONN application scope. The focus of this thesis is to study if and how ONN can solve meaningful AI edge applications using a proof-of-concept of the ONN paradigm with a digital implementation on FPGA. First, it explores novel learning algorithms for OHN, unsupervised and supervised, to improve accuracy performances and to provide continual on-chip learning. Then, it studies novel ONN architectures, taking inspiration from state-of-the-art layered ANN models, to create cascaded OHNs and multi-layer ONNs. Novel learning algorithms and architectures are demonstrated with the digital design performing edge AI applications, from image processing with pattern recognition, image edge detection, feature extraction, or image classification, to robotics applications with obstacle avoidance
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Seznec, Mickaël. "From the algorithm to the targets, optimization flow for high performance computing on embedded GPUs". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG074.

Texto completo da fonte
Resumo:
Les algorithmes de traitement numérique actuels nécessitent une puissance de calcul accrue pour obtenir des résultats plus précis et traiter des données plus volumineuses. Dans le même temps, les architectures matérielles se spécialisent, avec des accélérateurs très efficaces pour des tâches spécifiques. Dans ce contexte, le chemin du déploiement de l'algorithme à l'implémentation est de plus en plus complexe. Il est donc crucial de déterminer comment les algorithmes peuvent être modifiés pour tirer parti des capacités du matériel. Dans notre étude, nous nous sommes intéressé aux unités graphiques (GPU), un type de processeur massivement parallèle. Notre travail a consisté à l'adaptation entre l'algorithme et le matériel d'exécution. À l'échelle d'un opérateur mathématique, nous avons modifié un algorithme de convolution d'images pour utiliser les tensor cores et montré qu'on peut en doubler les performances pour de grands noyaux de convolution. Au niveau méthode, nous avons évalué des solveurs de systèmes linéaires pour l'estimation de flux optique afin de trouver le plus adéquat sur GPU. Grâce à ce choix et après de nouvelles optimisations spécifiques, comme la fusion d'itérations ou la réutilisation de zones mémoire, la méthode est deux fois plus rapide que l'implémentation initiale, fonctionnant à 60 images par seconde sur plateforme embarquée (30W). Enfin, nous avons également montré l'intérêt, dans le cadre des réseaux de neurones profonds, de cette méthode de conception d'algorithmes adaptée au matériel. Avec pour exemple l'hybridation entre un réseau conçu pour le flux optique avec une autre architecture préentrainée et conçue pour être efficace sur des cibles à faible puissance de calcul
Current digital processing algorithms require more computing power to achieve more accurate results and process larger data. In the meantime, hardware architectures are becoming more specialized, with highly efficient accelerators designed for specific tasks. In this context, the path of deployment from the algorithm to the implementation becomes increasingly complex. It is, therefore, crucial to determine how algorithms can be modified to take advantage of new hardware capabilities. Our study focused on graphics processing units (GPUs), a massively parallel processor. Our algorithmic work was done in the context of radio-astronomy or optical flow estimation and consisted of finding the best adaptation of the software to the hardware. At the level of a mathematical operator, we modified the traditional image convolution algorithm to use the matrix units and showed that its performance doubles for large convolution kernels. At a broader method level, we evaluated linear solvers for the combined local-global optical flow to find the most suitable one on GPU. With additional optimizations, such as iteration fusion or memory buffer re-utilization, the method is twice as fast as the initial implementation, running at 60 frames per second on an embedded platform (30 W). Finally, we also pointed out the interest of this hardware-aware algorithm design method in the context of deep neural networks. For that, we showed the hybridization of a convolutional neural network for optical flow estimation with a pre-trained image classification network, MobileNet, that was initially designed for efficient image classification on low-power platforms
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Courdouan, Elie. "Développement d'un module BMS multi-sources harvesting". Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0633.

Texto completo da fonte
Resumo:
Avec le développement des applications mobiles (téléphonie, IoT, domotique, …), les systèmes embarqués ont montré une croissance exponentielle ces dernières années. Or la principale caractéristique de ces nouveaux systèmes est la combinaison d’une puissance de calcul importante avec une grande autonomie de fonctionnement. Malheureusement, ces caractéristiques étant diamétralement opposées, les concepteurs de systèmes se heurtent à un dilemme leur imposant de limiter la puissance embarquée. Afin de pallier ce problème d'autonomie, de plus en plus d'architectures se tournent vers la mise en place d'étages de récupération d'énergie depuis une ou plusieurs sources. Dans le cadre d'une thèse CIFRE, l'étude a ainsi été portée sur la conception d'un module de récupération d'énergie optimisé s'interfaçant sur plusieurs sources. Deux directions ont ainsi été trouvées afin d'augmenter la quantité récupérée par un tel dispositif :- Le développement de l'approche multisources afin de proposer une architecture industrialisable.- L'optimisation des quantités d'énergie extraites de chaque source par l'intermédiaire d'algorithmes nouvelle génération permettant la recherche du point de fonctionnement maximum. Ces derniers sont ainsi optimisés grâce aux progrès réalisés récemment dans le domaine du Deep Learning et la commercialisation de microcontrôleurs à faible puissance de plus en plus performants. L’objectif final étant de déployer des réseaux de capteurs à grande échelle et faible coût, dont l’autonomie est améliorée voire infinie si le système parvient à produire plus d’énergie que ce qu’il consomme
With the development of mobile applications, such as telecoms, IoT and home automation, embedded systems have shown an exponential growth over the past years. The main characteristic of these newly build systems is to combine high processing capabilities and extended operational autonomy. Unfortunately, these parameters are fundamentally opposed and hardware designer facing this issue by limiting processing capability to ensure enough autonomy. To solve this autonomy problem, newly architectures choose to implement an energy harvesting stage with one or more sources. As part of this industrial thesis, the study has been carried out on the design of an optimized energy harvesting module using one or more sources. Two directions were found to increase the quantity of harvested energy: - Interfacing multiple harvester from complementary source in an industrialized architecture - Optimization of produced energy from each source by using next-generation algorithms of Maximum Power Point Tracking. These algorithms are optimized thanks to technical advances made in the field of Deep Learning and the availability of more efficient low power microcontroller. The final goal of this study is to deploy a low cost wide area network of sensors with enhanced or infinite autonomy
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Masure, Loïc. "Towards a better comprehension of deep learning for side-channel analysis". Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS443.

Texto completo da fonte
Resumo:
Les récents progrès en apprentissage profond ont bouleversé l'état de l'art des attaques par observations en sécurité embarquée. Mais leur aspect « boîte-noire » empêche à ce jour l'identification des failles implicitement exploitées dans l'implémentation. De même, il est difficile d'interpréter les résultats de telles attaques sur le niveau de sécurité de l'implémentation-cible. Toutes ces raisons ont rendu la communauté scientifique sceptique quant à l’intérêt de ces techniques dans le cadre d'une évaluation de sécurité. Cette thèse se propose de dresser une meilleure compréhension de l'apprentissage profond dans un tel contexte. Nous montrons comment l’entraînement de tels estimateurs peut être analysé à travers le prisme d'une évaluation de sécurité, de façon à estimer a priori la complexité d’une attaque à base de réseaux de neurones sans avoir toutefois à la mener. Nous observons également sur des simulations que ces modèles entraînés sans connaissance a priori des contre-mesures peuvent atteindre les bornes de sécurité théoriques prévues par la littérature, validant la pertinence ou non de certaines contre-mesures comme le partage de secret ou la dissimulation contre les réseaux de neurones. Par ailleurs, nous expliquons comment exploiter un réseau entraîné pour effectuer une caractérisation efficace des fuites d'information dans les observations, et ce même en présence de contre-mesures rendant d'autres techniques classiques inopérantes. Cela permet une meilleure compréhension des fuites d’information exploitées par le réseau et d’affiner le diagnostic de l’évaluateur ou du développeur, afin de proposer des corrections
The recent improvements in deep learning (DL) have reshaped the state of the art of side-channel attacks (SCA) in the field of embedded security. Yet, their ``black-box'' aspect nowadays prevents the identification of the vulnerabilities exploited by such adversaries. Likewise, it is hard to conclude from the outcomes of these attacks about the security level of the target device. All those reasons have made the SCA community skeptical about the interest of such attack techniques in terms of security evaluation. This thesis proposes to draw a better understanding of deep learning for SCA. We show how the training of such estimators can be analyzed through the security evaluation prism, in order to estimate a priori the complexity of an SCA, without necessarily mounting the attack. We also remark on simulated experiments that those models, trained without prior knowledge about the counter-measures added to protect the target device, can reach the theoretical security bounds expected by the literature. This validates the relevance or not of some counter-measures such as secret-sharing or hiding, against DL-based SCA. Furthermore, we explain how to exploit a trained neural network to efficiently characterize the information leakage in the observed traces, even in presence of counter-measures making other classical charactertization techniques totally inefficient. This enables a better understanding of the leakage implicitly exploited by the neural network, and allows to refine the evaluator's diagnosis, in order to propose corrections to the developer
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Morozkin, Pavel. "Design and implementation of image processing and compression algorithms for a miniature embedded eye tracking system". Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS435.pdf.

Texto completo da fonte
Resumo:
Les interactions Homme-machines (IHM) deviennent progressivement une partie intégrante de notre futur. Parmi eux, les systèmes embarqués d’oculométrie permettent à l'utilisateur d’interagir avec les objets placés dans un environnement connu, par l'utilisation les mouvements naturels des yeux. La solution mobile d’oculométrie EyeDee™ (développée par SuriCog) est un exemple précis de produit basé sur l’IHM. Elle inclut un système portable filaire ou sans fil Weetsy™ composé d’une monture Weetsy™ et d’une carte électronique Weetsy™, d’un capteur intelligent à distance π-Box™ et d’une unité de traitement basé sur un PC exécutant le logiciel SuriDev (analyse des mouvements des yeux, détection de la position de la tête et estimation du regard) qui délivre les résultats en temps réel à une application du client via SuriSDK™ (Software Development Kit, Kit de Développement Logiciel). En raison du caractère portable du système d’oculométrie développé il faut se conformer à certaines contraintes. Les plus importantes sont : une faible consommation d'énergie, un faible dégagement de chaleur, un faible rayonnement électromagnétique, un nombre limité d’instructions par seconde (MIPS – Million Instructions Per Second), ainsi qu’un support de transmission sans fil de données de l’œil. Par rapport à l'état-de-l'art des systèmes de compression d'images employés généralement, il est possible de construire de toutes nouvelles méthodes, approches et algorithmes de traitement d’images et de compression spécialisées à l’application de l’analyse des mouvements des yeux. Développement et implémentation de ces méthodes, approches et algorithmes sont les objectifs de la thèse
Human-Machine Interaction (HMI) progressively becomes a part of coming future. Being an example of HMI, embedded eye tracking systems allow user to interact with objects placed in a known environment by using natural eye movements. The EyeDee™ portable eye tracking solution (developed by SuriCog) is an example of an HMI-based product, which includes Weetsy™ portable wire/wireless system (including Weetsy™ frame and Weetsy™ board), π-Box™ remote smart sensor and PC-based processing unit running SuriDev eye/head tracking and gaze estimation software, delivering its result in real time to a client’s application through SuriSDK (Software Development Kit). Due to wearable form factor developed eye-tracking system must conform to certain constraints, where the most important are low power consumption, low heat generation low electromagnetic radiation, low MIPS (Million Instructions per Second), as well as support wireless eye data transmission and be space efficient in general. Eye image acquisition, finding of the eye pupil ROI (Region Of Interest), compression of ROI and its wireless transmission in compressed form over a medium are very beginning steps of the entire eye tracking algorithm targeted on finding coordinates of human eye pupil. Therefore, it is necessary to reach the highest performance possible at each step in the entire chain. In contrast with state-of-the-art general-purpose image compression systems, it is possible to construct an entire new eye tracking application-specific image processing and compression methods, approaches and algorithms, design and implementation of which are the goal of this thesis
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Caron, Louis-Charles. "Implémentation matérielle d'un réseau de neurones à décharges pour synchronisation rapide". Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/1603.

Texto completo da fonte
Resumo:
In this master thesis, we present two different hardware implementations of the Oscillatory Dynamic Link Matcher (ODLM). The ODLM is an algorithm which uses the synchronization in a network of spiking neurons to realize different signal processing tasks. The main objective of this work is to identify the key design choices leading to the efficient implementation of an embedded version of the ODLM. The resulting systems have been tested with image segmentation and image matching tasks. The first system is bit-slice and time-driven. The state of the whole network is updated at regular time intervals. The system uses a bit-slice architecture with a large number of processing elements. Each processing element, or slice, implements one neuron of the network and takes the form of a column on the hardware. The columns are placed side by side and they are locally connected to their 2 neighbors. This local hardware connection scheme makes the system scalable, which means that columns can be easily added to increase the capacity of the system. Each column consists of a weight vector, a synapse model unit and a membrane model unit. The system can implement any network topology, making it very flexible. The function governing the time evolution of the neurons' membrane potential is approximated by a piece-wise linear function to reduce the amount of logical resources required. With this system, a fully-connected network of 648 neurons can be implemented on a Virtex-5 Xilinx XC5VSX5OT FPGA clocked at 100 MHz. The system is designed to process simultaneous spikes in parallel, reaching a maximum processing speed of 6 Mspikes/s. It can segment a 23×23 pixel image in 2 seconds and match two pre-segmented 90×30 pixel images in 550 ms. The second system is event-driven. A single processing element sequentially processes the spikes. This processing element is a 5-stage pipeline which can process an average of 1 synapse per 7 clock cycles. The synaptic weights are not stored in memory in this system, they are computed on-the-fly as spikes are processed. The topology of the network is also resolved during operation, and the system supports various regular topologies like 8-neighbor and fully-connected. The membrane potential time evolution function is computed with high precision using a look-up table. On the Virtex-5 FPGA, a network of 65 536 neurons can be implemented and a 406×158 pixel image can be segmented in 200 ms. The FPGA can be clocked at 100 MHz. Most of the design choices made for the second system are well adapted to the hardware implementation of the ODLM. In the original ODLM, the weight values do not change over time and usually depend on a single variable. It is therefore beneficial to compute the weights on the fly rather than saving them in a huge memory bank. The event-driven approach is a very efficient strategy. It reduces the amount of computations required to run the network and the amount of data moved in and out of memory. Finally, the precise computation of the neurons' membrane potential increases the convergence speed of the network.
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Ales, Achour. "Etude CEM des réseaux embarqués". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT051.

Texto completo da fonte
Resumo:
Aujourd'hui CEM normative sur RSIL ne permet pas de garantir le bon fonctionnement de façon systématique. La sûreté est assurée au moyen de marges CEM, souvent excessives. Le système est donc sous optimal Par ailleurs, le fonctionnement des convertisseurs sur RSIL n'est pas forcément représentatif du fonctionnement réel: le RSIL n'est pas forcément représentatif des impédances des réseaux embarqués. De ce fait, le filtrage d'un convertisseur peut être optimisé sur RSIL mais n'est plus forcément optimal dès qu'on est sur un réseau réel. L'objectif de cette thèse est de progresser dans la modélisation CEM des réseaux embarqués, en vue de pouvoir prédire le comportement, et d'optimiser les moyens de filtrage
Today normative LISN EMC does not guarantee the proper functioning systematically. Safety is ensured by EMC margins often excessive. The system is therefore suboptimal Furthermore, the operation of the converters on the AN is not necessarily representative of the actual operation : the AN is not necessarily representative of the impedances of embedded networks . Thus , filtering of a converter can be optimized but on the AN is not necessarily optimal since it is a real network . The objective of this thesis is to advance the EMC modeling of embedded systems in order to predict behavior, and optimize the filter means
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Wenzek, Didier. "Construction de réseaux de neurones". Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343569.

Texto completo da fonte
Resumo:
La dénomination de réseaux de neurones recouvre tout un ensemble de méthodes de calcul dont le point commun est de décrire le calcul d'une solution a un probleme comme la recherche d'un état d'équilibre par un ensemble de cellules simples inter-agissant entre elles via un réseau de connections paramétrées. L'approche usuelle, pour obtenir un réseau de neurones ayant un comportement souhaite, consiste a tester sur des exemples un réseau choisi a priori et a modifier ses paramètres de contrôle jusqu'à ce que l'on obtienne un comportement satisfaisant. La difficulté de ces méthodes est que leur succès ou leur échec reposent sur le choix d'un premier réseau et que l'on ne dispose pas de règles permettant de déduire ce choix de la structure du probleme. La motivation de cette thèse a donc été de décrire des méthodes de synthèse permettant une construction modulaire de réseaux de neurones. Aussi, cette thèse propose une classe de réseaux de neurones parmi lesquels toute spécification de la forme chercher un élément de e (fini) vérifiant la propriété p admet au moins une réalisation. En outre, les réseaux de cette classe peuvent être combines pour obtenir un réseau réalisant une combinaison des spécifications des réseaux combines
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Tsopze, Norbert. "Treillis de Galois et réseaux de neurones : une approche constructive d'architecture des réseaux de neurones". Thesis, Artois, 2010. http://www.theses.fr/2010ARTO0407/document.

Texto completo da fonte
Resumo:
Les réseaux de neurones artificiels connaissent des succès dans plusieurs domaines. Maisles utilisateurs des réseaux de neurones sont souvent confrontés aux problèmes de définitionde son architecture et d’interprétabilité de ses résultats. Plusieurs travaux ont essayé d’apporterune solution à ces problèmes. Pour les problèmes d’architecture, certains auteurs proposentde déduire cette architecture à partir d’un ensemble de connaissances décrivant le domaine duproblème et d’autres proposent d’ajouter de manière incrémentale les neurones à un réseauayant une taille initiale minimale. Les solutions proposées pour le problème d’interprétabilitédes résultats consistent à extraire un ensemble de règles décrivant le fonctionnement du réseau.Cette thèse contribue à la résolution de ces deux problèmes. Nous nous limitons à l’utilisationdes réseaux de neurones dans la résolution des problèmes de classification.Nous présentons dans cette thèse un état de l’art des méthodes existantes de recherche d’architecturede réseaux de neurones : une étude théorique et expérimentale est aussi faite. Decette étude, nous observons comme limites de ces méthodes la disponibilité absolue des connaissancespour construire un réseau interprétable et la construction des réseaux difficiles à interpréteren absence de connaissances. En alternative, nous proposons une méthode appelée CLANN(Concept Lattice-based Artificial Neural network) basée les treillis de Galois qui construit undemi-treillis à partir des données et déduire de ce demi-treillis l’architacture du réseau. CLANNétant limitée à la résolution des problèmes à deux classes, nous proposons MCLANN permettantd’étendre cette méthodes de recherche d’architecture des réseaux de neurones aux problèmes àplusieurs classes.Nous proposons aussi une méthode appelée ’Approche des MaxSubsets’ pour l’extractiondes règles à partir d’un réseau de neurones. La particularité de cette méthode est la possibilitéd’extraire les deux formats de règles (’si alors’ et ’m parmi N’) à partir d’une structure quenous construisons. Nous proposons aussi une façon d’expliquer le résultat calculé par le réseauconstruit par la méthode MCLANN au sujet d’un exemple
The artificial neural networks are successfully applied in many applications. But theusers are confronted with two problems : defining the architecture of the neural network able tosolve their problems and interpreting the network result. Many research works propose some solutionsabout these problems : to find out the architecture of the network, some authors proposeto use the problem domain theory and deduct the network architecture and some others proposeto dynamically add neurons in the existing networks until satisfaction. For the interpretabilityproblem, solutions consist to extract rules which describe the network behaviour after training.The contributions of this thesis concern these problems. The thesis are limited to the use of theartificial neural networks in solving the classification problem.In this thesis, we present a state of art of the existing methods of finding the neural networkarchitecture : we present a theoritical and experimental study of these methods. From this study,we observe some limits : difficulty to use some method when the knowledges are not available ;and the network is seem as ’black box’ when using other methods. We a new method calledCLANN (Concept Lattice-based Artificial Neural Network) which builds from the training dataa semi concepts lattice and translates this semi lattice into the network architecture. As CLANNis limited to the two classes problems, we propose MCLANN which extends CLANN to manyclasses problems.A new method of rules extraction called ’MaxSubsets Approach’ is also presented in thisthesis. Its particularity is the possibility of extracting the two kind of rules (If then and M-of-N)from an internal structure.We describe how to explain the MCLANN built network result aboutsome inputs
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Valenti, Giacomo. "Secure, efficient automatic speaker verification for embedded applications". Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS471.

Texto completo da fonte
Resumo:
Cette thèse se concentre uniquement sur la vérification automatique du locuteur, tâche de classification binaire, en deux aspects : l'efficacité et la sécurité. Chacun des aspects sera exploré dans deux itérations : sur l'ASV traditionnel (chapitres II, III et IV) et l'ASV expérimentale (chapitres V, VI et VII). Les chapitres II et V sont des revues de littérature, leur but est de mettre en perspective les contributions dans le chapitres que respectivement les suivent. Chapitre II est centré sur la réduction des donnés nécessaire pour entrainer un modèle de locuteur, dans ce cas l’efficacité est ce qui permet de rendre un système facilement usable par l’utilisateur final dans un contexte des application embarquées. Chapitre III se concentre sur les mots de passe oraux et sur la possibilité de donner une mesure de sécurité en fonction du contenu textuel et de l’énonciation au moment du choix, exactement comme pour les mots de passe écrits. Dans le chapitre V une approche génétique pour l’évolution des topologies neuronaux est appliqué pour la première fois au flux audio brut, pour l’identification du locuteur. Chapitre VI voit cette même approche appliquée à la reconnaissance des attaques de mystification de l’identité
This industrial CIFRE PhD thesis addresses automatic speaker verification (ASV) issues in the context of embedded applications. The first part of this thesis focuses on more traditional problems and topics. The first work investigates the minimum enrolment data requirements for a practical, text-dependent short-utterance ASV system. Contributions in part A of the thesis consist in a statistical analysis whose objective is to isolate text-dependent factors and prove they are consistent across different sets of speakers. For very short utterances, the influence of a specific text content on the system performance can be considered a speaker-independent factor. Part B of the thesis focuses on neural network-based solutions. While it was clear that neural networks and deep learning were becoming state-of-the-art in several machine learning domains, their use for embedded solutions was hindered by their complexity. Contributions described in the second part of the thesis comprise blue-sky, experimental research which tackles the substitution of hand-crafted, traditional speaker features in favour of operating directly upon the audio waveform and the search for optimal network architectures and weights by means of genetic algorithms. This work is the most fundamental contribution: lightweight, neuro-evolved network structures which are able to learn from the raw audio input
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Boisard, Olivier. "Optimization and implementation of bio-inspired feature extraction frameworks for visual object recognition". Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOS016/document.

Texto completo da fonte
Resumo:
L'industrie a des besoins croissants en systèmes dits intelligents, capable d'analyserles signaux acquis par des capteurs et prendre une décision en conséquence. Cessystèmes sont particulièrement utiles pour des applications de vidéo-surveillanceou de contrôle de qualité. Pour des questions de coût et de consommation d'énergie,il est souhaitable que la prise de décision ait lieu au plus près du capteur. Pourrépondre à cette problématique, une approche prometteuse est d'utiliser des méthodesdites bio-inspirées, qui consistent en l'application de modèles computationels issusde la biologie ou des sciences cognitives à des problèmes industriels. Les travauxmenés au cours de ce doctorat ont consisté à choisir des méthodes d'extractionde caractéristiques bio-inspirées, et à les optimiser dans le but de les implantersur des plateformes matérielles dédiées pour des applications en vision par ordinateur.Tout d'abord, nous proposons un algorithme générique pouvant être utilisés dans différentscas d'utilisation, ayant une complexité acceptable et une faible empreinte mémoire.Ensuite, nous proposons des optimisations pour une méthode plus générale, baséesessentiellement sur une simplification du codage des données, ainsi qu'une implantationmatérielle basées sur ces optimisations. Ces deux contributions peuvent par ailleurss'appliquer à bien d'autres méthodes que celles étudiées dans ce document
Industry has growing needs for so-called “intelligent systems”, capable of not only ac-quire data, but also to analyse it and to make decisions accordingly. Such systems areparticularly useful for video-surveillance, in which case alarms must be raised in case ofan intrusion. For cost saving and power consumption reasons, it is better to perform thatprocess as close to the sensor as possible. To address that issue, a promising approach isto use bio-inspired frameworks, which consist in applying computational biology modelsto industrial applications. The work carried out during that thesis consisted in select-ing bio-inspired feature extraction frameworks, and to optimize them with the aim toimplement them on a dedicated hardware platform, for computer vision applications.First, we propose a generic algorithm, which may be used in several use case scenarios,having an acceptable complexity and a low memory print. Then, we proposed opti-mizations for a more global framework, based on precision degradation in computations,hence easing up its implementation on embedded systems. Results suggest that whilethe framework we developed may not be as accurate as the state of the art, it is moregeneric. Furthermore, the optimizations we proposed for the more complex frameworkare fully compatible with other optimizations from the literature, and provide encourag-ing perspective for future developments. Finally, both contributions have a scope thatgoes beyond the sole frameworks that we studied, and may be used in other, more widelyused frameworks as well
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Ahmed, Nacer Abdelaziz. "Analyse et dimensionnement de réseaux hétérogènes embarqués". Phd thesis, Toulouse, INPT, 2018. http://oatao.univ-toulouse.fr/20115/1/AHMEDNACER_Abdelaziz.pdf.

Texto completo da fonte
Resumo:
Avec l’apparition des nouvelles technologies de communication, le nombre des systèmes embarqués avionique et automobile est en constante augmentation. La gestion des communications entre ces systèmes devient alors de plus en plus complexe à mettre en oeuvre dans un contexte où les contraintes temporelles et environnementales sont très fortes et où le taux d’échanges de messages en augmentation continuelle. L’utilisation optimale des réseaux pour acheminer les données tout en respectant les contraintes temporelles imposées est essentielle du point de vue de la sûreté de fonctionnement. Historiquement, pour répondre aux problématiques d’efficacité et de sûreté, les industriels ont développé une palette de réseaux embarqués dédiés à leurs applications cibles (CAN, LIN, . . . ). Ces réseaux présentaient des débits relativement faibles à un moment où un besoin croissant en bande passante se faisait ressentir. le choix d’utiliser le concept de composants dit ‘sur étagères’ (off the shelf COTS) permettait alors de pallier à ce nouveau besoin. Dans un souci de conservation des capacités des réseaux à garantir les contraintes temporelles imposées par les systèmes embarqués temps réel, les industriels ont dû adapter ce concept de composants sur étagères aux systèmes embarqués. L’intérêt de l’utilisation de ces composants est un gain non négligeable en bande passante et en poids pour des coûts de développements relativement faibles. L’introduction de ces composants nouveaux s’est faite de telle sorte que leur impact sur les standards préexistants et les systèmes connectés soit minimal. C’est ainsi que les réseaux dit ‘hétérogènes’ ont vu leur apparition. Ces réseaux constituent une hybridation entre les technologies embarquées historiques et les composants sur étagère. Ils consistent en des réseaux d’extrémité utilisant des technologies éprouvées (telles que le CAN) interconnectés via des passerelles à un réseau fédérateur (backbone) utilisant des composants sur étagères. Dès lors, le défi majeur à relever lors de l’utilisation d’un réseau fédérateur est de respecter les contraintes temporelles des applications sollicitant les différents réseaux. L’objectif est mis à mal sur les points d’interconnexion des réseaux hétérogènes (Passerelles). Ainsi l’approche principale utilisée pour le passage d’un réseau à un autre est l’encapsulation de trames. Pour atteindre l’optimalité de performance de cette technique plusieurs paramètres sont à prendre en compte tels que le nombre de trames à encapsuler, les ordonnancements utilisés, le coût en bande passante ainsi que l’impact sur les distributions de délais (gigue). Dans l’optique de préservation des performances des réseaux, l’objet de nos travaux porte sur l’étude, la comparaison et la proposition de techniques permettant l’interconnexion de réseaux hétérogènes temps réels à la fois pour des applications à faibles et à fortes contraintes temporelles. Après un état de l’art sur les réseaux temps réel, nous spécifions différentes techniques d’interconnexion de réseaux hétérogènes, puis, nous présentons une étude de cas basée sur une architecture réseau interconnectant différents bus CAN via un réseau fédérateur sans fil Wi-Fi. L’étude que nous avons menée montre, par le biais de différentes simulations, que cette architecture réseau est une bonne candidate pour la transmission de flux à contraintes temporelles faibles. Une architecture réseau interconnectant différents bus CAN via un réseau fédérateur Ethernet commuté est ensuite considérée dans une seconde étude de cas ciblant les applications à fortes contraintes temporelles. Dans un premier temps, nous prenons en compte le cas d’un réseau fédérateur Ethernet-PQSE et, dans un second temps, le cas d’Ethernet-AVB. Cette étude nous permet de montrer l’impact des différentes techniques d’interconnexion sur les délais des flux du réseau.
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Voegtlin, Thomas. "Réseaux de neurones et auto-référence". Lyon 2, 2002. http://theses.univ-lyon2.fr/documents/lyon2/2002/voegtlin_t.

Texto completo da fonte
Resumo:
Le sujet de cette thèse est l'étude d'une classe d'algorithmes d'apprentissage non supervisés pour réseaux de neurones récurrents. Dans la 1ere partie (chap. 1 à 4), je présente plusieurs algorithmes, basés sur un même principe d'apprentissage : l'auto-référence. L'apprentissage auto-référent n'implique pas l'optimisation d'un critère objectif (comme une fonction d'erreur), mais il fait intervenir une fonction subjective, qui dépend de ce que le réseau a déjà appris. Un exemple de réseau supervisé basé sur ce principe est le Simple Recurrent Netword d'Elman (1990). Dans ce cas, l'auto-référence est appliquée à l'algorithme de rétro-propagation du gradient. Sur ce point, le réseau d'Elman diffère des autres méthodes de rétro-propagation pour réseaux récurrents, qui font intervenir un gradient objectif (Back-propagation Through Time, Real-Time Recurrent learning). Je montr que l'auto-référence peut être utilisée avec les principales techniques d'apprentissage non supervisé : Cartes de Kohonen, Analyse en composantes principales, Analyse en composantes indépendantes. Ces techniques sont classiquement utilisées pour représenter des données statiques. L'auto-référence permet de les généraliser à des séries temporelles, et de définir des algorithmes d'apprentissage nouveaux
The purpose of this thesis is to present a class of unsupervised learning algorithms for recurrent networks. In the first part (chapters 1 to 4), I propose a new approach to this question, based on a simple principle: self-reference. A self-referent algorithm is not based on the minimization of an objective criterion, such as an error function, but on a subjective function, that depends on what the network has previously learned. An example of a supervised recurrent network where learning is self-referent is the Simple Recurrent Network (SRN) by Elman (1990). In the SRN, self-reference is applied to the supervised error back-propagation algorithm. In this aspect, the SRN differs from other generalizations of back-propagation to recurrent networks, that use an objective criterion, such as Back-Propagation Through Time, or Real-Time Recurrent Learning. In this thesis, I show that self-reference can be combined with several well-known unsupervised learning methods: the Self-Organizing Map (SOM), Principal Components Analysis (PCA), and Independent Components Analysis (ICA). These techniques are classically used to represent static data. Self-reference allows one to generalize these techniques to time series, and to define unsupervised learning algorithms for recurrent networks
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Teytaud, Olivier. "Apprentissage, réseaux de neurones et applications". Lyon 2, 2001. http://theses.univ-lyon2.fr/documents/lyon2/2001/teytaud_o.

Texto completo da fonte
Resumo:
Les fondements théoriques de l'apprentissage sont en grande partie posés. Comme la calculabilité est venue à maturité en s'orientant vers la complexité, l'apprentissage mûrit face à des résultats négatifs forts qui rendent sans espoir la quête d'algorithmes universels, efficaces pour toute donnée. Vraisemblablement les grandes avancées à venir seront (a) soit dans des domaines connexes où l'étude théorique a moins été poussée, (b) soit moins philosophiques et plus concrètes (théorique à préoccupations algorithmiques, représentation de données structurées, implémentation physique, modularité), soit enfin (c) dans la modélisation biologique. Cette thèse résume (et essaie modestement de compléter) les avancées théoriques statistiques, des points de vue successifs des cas où l'apprentissage est difficile (i. E. , où l'on sort du cadre iid sans bruit avec a priori de VC-dimension finie), des utilisations non-standards de la VC-théorie (non-supervisé, extraction de règles : c'est le (a) ci-dessus), puis du passage au concret avec le passage aux préoccupations algorithmiques (validité des approximations dans les Supports Vector Machines, efficacité des algorithmes de Gibbs quoique l'étude soit très incomplète, plus proches voisins rapides d'un point de vue expérimental représentation de données structurées images ou textes - tout cela est le (b)) et la modélisation biologique (c)
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Côté, Marc-Alexandre. "Réseaux de neurones génératifs avec structure". Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10489.

Texto completo da fonte
Resumo:
Cette thèse porte sur les modèles génératifs en apprentissage automatique. Deux nouveaux modèles basés sur les réseaux de neurones y sont proposés. Le premier modèle possède une représentation interne où une certaine structure a été imposée afin d’ordonner les caractéristiques apprises. Le deuxième modèle parvient à exploiter la structure topologique des données observées, et d’en tenir compte lors de la phase générative. Cette thèse présente également une des premières applications de l’apprentissage automatique au problème de la tractographie du cerveau. Pour ce faire, un réseau de neurones récurrent est appliqué à des données de diffusion afin d’obtenir une représentation des fibres de la matière blanche sous forme de séquences de points en trois dimensions.
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Cagli, Eleonora. "Feature Extraction for Side-Channel Attacks". Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS295.

Texto completo da fonte
Resumo:
La cryptographie embarquée sur les composants sécurisés peut être vulnérable à des attaques par canaux auxiliaires basées sur l’observation de fuites d’information issues de signaux acquis durant l’exécution de l’algorithme. Aujourd’hui, la présence de nombreuses contremesures peut conduire à l’acquisition de signaux à la fois très bruités, ce qui oblige un attaquant, ou un évaluateur sécuritaire, à utiliser des modèles statistiques, et très larges, ce qui rend difficile l’estimation de tels modèles. Dans cette thèse nous étudions les techniques de réduction de dimension en tant que prétraitement, et plus généralement le problème de l’extraction d’information dans le cas des signaux de grandes dimensions. Les premiers travaux concernent l’application des extracteurs de caractéristiques linéaires classiques en statistiques appliquées, comme l'analyse en composantes principales et l’analyse discriminante linéaire. Nous analysons ensuite une généralisation non linéaire de ce deuxième extracteur qui permet de définir une méthode de prétraitement qui reste efficace en présence de contremesures de masquage. Finalement, en généralisant davantage les modèles d’extractions, nous explorons certaines méthodes d’apprentissage profond pour réduire les prétraitements du signal et extraire de façon automatique l’information du signal brut. En particulier, l’application des réseaux de neurones convolutifs nous permet de mener des attaques qui restent efficaces en présence de désynchronisation
Cryptographic integrated circuits may be vulnerable to attacks based on the observation of information leakages conducted during the cryptographic algorithms' executions, the so-called Side-Channel Attacks. Nowadays the presence of several countermeasures may lead to the acquisition of signals which are at the same time highly noisy, forcing an attacker or a security evaluator to exploit statistical models, and highly multi-dimensional, letting hard the estimation of such models. In this thesis we study preprocessing techniques aiming at reducing the dimension of the measured data, and the more general issue of information extraction from highly multi-dimensional signals. The first works concern the application of classical linear feature extractors, such as Principal Component Analysis and Linear Discriminant Analysis. Then we analyse a non-linear generalisation of the latter extractor, obtained through the application of a « Kernel Trick », in order to let such preprocessing effective in presence of masking countermeasures. Finally, further generalising the extraction models, we explore the deep learning methodology, in order to reduce signal preprocessing and automatically extract sensitive information from rough signal. In particular, the application of the Convolutional Neural Network allows us to perform some attacks that remain effective in presence of signal desynchronisation
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Mauclair, Cédric. "Une approche statistique des réseaux temps réel embarqués". Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0016/document.

Texto completo da fonte
Resumo:
Depuis quelques années, les réseaux de communication déployés au sein d’aéronefs sont toujours plus vastes et plus complexes. Ces bus numériques multiplexent différents flux de données afin de limiter les câbles, mais cela induit des retards sur les transmissions. Les travaux présentés ici portent sur une approche statistique de l’évaluation des performances du pire temps de traversée d’un réseau embarqué de type AFDX. Il s’agit de définir une nouvelle approche visant à associer à un calcul pire cas, une distribution des temps de transmission des messages, en vue notamment de permettre d’apprécier le pessimisme du calcul pire cas. Les méthodes décrites sont applicables dans le cadre plus général d’un ensemble de tâches. Nous proposons trois contributions dans ces travaux. Tout d’abord, une méthode originaled’évaluation de la distribution de la durée de traversée d’un commutateur AFDX qui s’appuie sur une énumération symbolique des scénarios d’ordonnancement dans la file d’attente. Puis, un algorithme efficace de calcul des délais subis par des messages/tâches périodiques lorsque les déphasages initiaux sont connus. Les délais calculés sont exacts ainsi que la distribution de probabilité. Enfin, le calcul de la distribution des délais subis par des messages/tâches dans un cadregénéral, à l’aide d’une méthode statistique de type Monte Carlo. Des décalages initiaux sont tirés aléatoirement et permettent de nourrir l’algorithme précédent
Since a few years, communication networks deployed in aircrafts are ever larger and ever more complex. These digital buses multiplex different data streams in order to save cabling, but this causes delays on transmissions.The work presented here is based on a statistical evaluation of the worst case transit time of an embedded network of the AFDX type. It consists in associating a worst case computation with a complete distribution of the transit times in order, among other things, to appreciatethe pessimism of worst case approaches. The methods are also applicable to a set of realtime tasks. This work contributes three major results. First, an original method to evaluate the distribution of the transit time through an AFDX switch, based on the symbolic enumeration of the scheduling scenarios in the waiting queues of the switch. Second, an effective algorithm to compute the delays encountered by periodic messages/ tasks when initial offsets are known. Delays thus computed are exact and so is the delays distribution. Third, the computation of the delays distribution encountered by messages/tasks in a general case using a Monte Carlo based statistical method. Initial offsets are randomised and feed the preceding algorithm
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Mezni, Anis. "Ordonnancement des réseaux de capteurs sans fil embarqués". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI030.

Texto completo da fonte
Resumo:
Les réseaux de capteurs sans fil ont attiré beaucoup d’activités de recherche et développement au cours de la dernière décennie. Pourtant, leur utilisation est restreinte, à ce jour, à la surveillance et l’acheminement des informations détectées. Cette thèse vise à introduire un nouvel aspect intéressant de point de vue fonctionnel. Partant d’une exigence spécifiée initialement, mettre en oeuvre une synergie à plusieurs niveaux entre un ensemble des noeuds, tout en se basant sur une interaction adéquate. Ceci est réalisé par la génération automatique de code (correct par construction) et sa distribution par la suite en s’appuyant sur la théorie de contrôle par supervision. La synthèse de contrôleurs discrets SCD est une application de ce cadre théorique. Dans ce manuscrit, nous montrons comment la technique de la SCD peut être utilisée dans le domaine de réseaux de capteurs sans fil. Ainsi son potentiel se décline à deux niveaux. L’ordonnancement intra-cluster (groupe redondant de capteurs) avec des spécifications exprimant l’exclusion mutuelle lors de l’activation d’un capteur au sein d’un cluster, essentielle pour économiser l’énergie du réseau ainsi que la génération automatique d’un algorithme de routage optimal et multicritères pour les réseaux de capteurs. Spécifiquement, un chemin optimal devrait avoir à la fois une longueur minimale en termes de distance tout en évitant des chemins composés de noeuds dits « maillons faibles » (ayant un niveau d’énergie plus bas que la majorité). Les outils formels cités s’appuient sur une démarche de modélisation basée sur des machines à états finis communicantes. Les verrous scientifiques sont liés à la nature d’un réseau de capteurs ainsi qu’à sa taille. La SCD génère des contrôleurs monobloc, alors qu’au sein d’un réseau de capteurs le traitement est essentiellement distribué. La problématique est celle de la distribution d’un contrôleur global, qui se présente sous forme d’une contrainte logique exprimée sur l’état global du réseau, sur chacun des noeuds du réseau, en ajoutant la synchronisation nécessaire pour garantir un fonctionnement distribué équivalent au contrôleur initialement généré
Wireless Sensor networks are attracted many activities of research and development during the last decade. Yet, the distributed behavior of a WSN remains centered on two main objectives: sensing and routing. This thesis advocates the introduction of an additional feature, which can be considered interesting from a functional point of view and potentially from the power consumption one: starting from a designer-specified requirement, implement a multiple level synergy between (groups of) nodes, based on adequate interaction. This is achieved by automatic generation and distribution of correct-by-construction code, relying on the Supervisory Control Theory. The Discrete Controller Synthesis (DCS) technique is an application of this theoretic framework. In this thesis, we show how DCS can be used for WSN. Thus, its potential is at two levels. The intra-cluster scheduling of a redundant group of sensors with specifications expressing the mutual exclusion during the activation of a sensor within a cluster, essential to save the energy within the network and then a multicriteria automatic generation of an optimal routing functionality. Specifically, an optimal path should have both a minimal length and go through nodes having maximal residual energy. The cited formal tools lean on a modelling approach based on communicating finite state machines (CFSM). The scientific challenges are generally related to the nature of the WSN as well as to its size. The DCS can only generates a monoblock controllers, while the WSN’s behavior is essentially distributed. The issue is how to distribute a global controller, who appears in the form of a logical constraint expressed on the global state of the network, into local controllers while adding the necessary synchronization to guarantee a distributed functioning equivalent to the initially generated controller
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Liutanakul, Pisit. "Stabilité des réseaux embarqués : interactions Puissance - Structure - Commande". Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL006N/document.

Texto completo da fonte
Resumo:
En raison des progrès réalisés dans l’architecture et le contrôle des convertisseurs statique, beaucoup d’applications électrotechniques se comportent comme des dispositifs fonctionnant à puissance constante. Cette propriété conduit à modéliser ces systèmes autour d’un point de fonctionnement par des résistances négatives. Se pose alors un problème de stabilité quand ils sont connectés à des sources d’énergie munies ou non d’une commande. Dans une première partie de la thèse, les différents outils basés sur des spécifications d’impédance sont introduits et appliqués à l’étude des systèmes à puissance distribuée. Deux exemples électrotechniques sont traités ; le premier étudie l’association filtre d’entrée hacheur DC/DC. La seconde traite l’association filtre d’entrée actionneur électromécanique. Dans une second partie de la thèse, pour assurer la stabilité de deux dispositifs électrotechnique mis en cascade, l’auteur propose d’utiliser une commande globale non linéaire permettant d’assurer à la fois la stabilité du système tout en minimisant la taille de ses éléments passifs. Pour assurer un contrôle découplé des différentes sorties ainsi que la stabilité du système, l’auteur utilise une linéarisation de type entrée/sortie. Un régulateur à structure variable de type glissant assure les propriétés de robustesse vis-à-vis des variations paramétriques du système. L’architecture de commande proposée permet alors une diminution significative des éléments de stockage d’énergie dans le système
Because of the high efficiency of the power electronic converters, ideal regulation of their outputs makes the converter appears as a constant power load seen by its front end power stage. So they can be modeled as a negative resistance around an operating point. As a result, when such a converter is connected to a controlled or uncontrolled power source subsystem, the risk of instability has to be unpacked. To study the stability issue taken by such a system, we have detailed in a first step how to prove the local stability of Distributed Power System. The impedance criterions which are used to analysis the stability of cascaded systems are described. These criterions are applied in the case of two power electronics applications. The first one corresponds to a DC/DC switching converter with its input filter. The second one deals with the stability issues of a system constituted by an input filter and an inverter-motor drive system. In the second part of the thesis, a non linear global control of a cascaded power electronic system is investigated in order to ensure the stability of the whole system with a minimization of its passive components. To uncouple the control of all the outputs variables and ensure the system stability, an I/O linearization technique is proposed. Thanks to the use of a sliding controller, the resulting control architecture is robust as regard to parameters variations and allows a significant diminution of the passive component size
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Jodouin, Jean-François. "Réseaux de neurones et traitement du langage naturel : étude des réseaux de neurones récurrents et de leurs représentations". Paris 11, 1993. http://www.theses.fr/1993PA112079.

Texto completo da fonte
Resumo:
Le but de ce travail a été d'évaluer les possibilités d'application des réseaux connexionnistes aux taches de haut niveau comme le traitement du langage naturel (tln). Un travail de réflexion a permis de cerner les types de réseaux et les techniques de représentation propices à ce domaine d'application. Deux réseaux de la classe des réseaux récurrents à couches ont été sélectionnés pour des études approfondies: le simple récurrent network et le time-unfolding network (tun). Le perceptron multicouches a servi d'étalon. Un domaine d'application mettant à l'épreuve la mémoire et les capacités de représentation des réseaux a aussi été choisi: la prédiction de séquences non déterministes. Un outil de simulation graphique, Baptise Simon, a été crée pour l'étude. Le travail empirique a consisté en trois séries d'expériences qui ont pour but d'étudier les capacités de réseaux dans des conditions se rapprochant progressivement du traitement d'énoncés réels. Cette étude a été approfondie par l'analyse des représentations développées par les réseaux durant leur traitement. Cette recherche semble montrer que les réseaux récurrents ont le potentiel de développer des représentations complexes, ce qui leur permet de traiter de façon efficace les taches qui leur ont été données. En particulier, les performances des tuns dépassent, dans le meilleur des cas, celles de nos meilleurs outils de comparaison. En conclusion, les réseaux récurrents à couches ont une utilité immédiate à la frontière entre la parole (ou l'information est généralement bruitée et incomplète) et le langage (ou les représentations symboliques pures supportent mal ce type d'imprécision). De plus, si un important travail de recherche reste encore à faire, les résultats obtenus permettent d'espérer l'application future de ces réseaux à des taches plus évoluées du tln
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Brette, Romain. "Modèles Impulsionnels de Réseaux de Neurones Biologiques". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00005340.

Texto completo da fonte
Resumo:
Les neurosciences computationnelles sont traditionnellement dominées par la conception selon laquelle les neurones codent l'information à travers leur fréquence de décharge. Récemment, les observations expérimentales de synchronisation neuronale ont motivé un renouveau du point de vue impulsionnel, selon lequel la structure temporelle des décharges est pertinente. Les modèles impulsionnels étant moins bien compris que leurs homologues fréquentiels, nous commençons par établir des résultats théoriques généraux, qui nous permettent en particulier de montrer que les modèles impulsionnels répondent de manière reproductible aux stimulations variables apériodiques. Cette propriété nous permet de construire un modèle de sélectivité à l'orientation dans le cortex visuel, le perceptron impulsionnel, qui, en détectant une propriété géométrique de l'image plutôt que l'adéquation entre l'image et un patron, permet d'obtenir avec une architecture feedforward une invariance naturelle au contraste.
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Tardif, Patrice. "Autostructuration des réseaux de neurones avec retards". Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24240/24240.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Maktoobi, Sheler. "Couplage diffractif pour réseaux de neurones optiques". Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCD019.

Texto completo da fonte
Resumo:
Les réseaux photoniques à haute performance peuvent être considérés comme des supports pour les futurs systèmes de calcul. Contrairement à l'électronique, les systèmes photoniques offrent des avantages intéressants, par exemple la possibilité de réaliser des réseaux complètement parallèles. Récemment, les réseaux de neurones ont attiré l'attention de la communauté photonique. L'une des difficultés les plus importantes, en matière de réseaux photoniques parallèles à grande échelle, est la réalisation des connexions. La diffraction est exploitée ici comme méthode pour traiter les connexions entre les nœuds (couplage) dans les réseaux de neurones optiques. Dans cette thèse, nous étudions l'extensibilité d'un couplage diffractif en détails de la façon suivante :Tout d'abord, nous commençons par une introduction générale à propos de l'intelligence artificielle, de l'apprentissage machine, des réseaux de neurones artificiels et des réseaux de neurones photoniques. Lors de la conception d'un réseau neuronal fonctionnel, les règles de l'apprentissage machine sont des éléments essentiels pour optimiser une configuration et ainsi obtenir une faible erreur du système, donc les règles de l'apprentissage sont introduites (chapitre 1). Nous étudions les concepts fondamentaux du couplage diffractif dans notre réservoir spatio-temporel. Dans ce cas, la théorie de la diffraction est expliquée. Nous utilisons un schéma analytique pour fournir les limites en termes de taille des réseaux diffractifs, qui font partie intégrante de notre réseau neuronal photonique (chapitre 2). Les concepts du couplage diffractif sont étudiés expérimentalement dans deux expériences différentes afin de confirmer les limites obtenues analytiquement, et pour déterminer le nombre maximum de nœuds pouvant être couplés dans le réseau photonique (Chapitre 3). Les simulations numériques d'une telle expérience sont basées sur deux schémas différents pour calculer numériquement la taille maximale du réseau, qui approche une surface de 100 mm2 (chapitre 4). Enfin, l'ensemble du réseau neuronal photonique est démontré. Nous concevons un réservoir spatialement étendu sur 900 nœuds. En conséquence, notre système généralise la prédiction pour la séquence chaotique de Mackey-Glass (chapitre 5)
Photonic networks with high performance can be considered as substrates for future computing systems. In comparison with electronics, photonic systems have substantial privileges, for instance the possibility of a fully parallel implementation of networks. Recently, neural networks have moved into the center of attention of the photonic community. One of the most important requirements for parallel large-scale photonic networks is to realize the connectivities. Diffraction is considered as a method to process the connections between the nodes (coupling) in optical neural networks. In the current thesis, we evaluate the scalability of a diffractive coupling in more details as follow:First, we begin with a general introductions for artificial intelligence, machine learning, artificial neural network and photonic neural networks. To establish a working neural network, learning rules are an essential part to optimize a configuration for obtaining a low error from the system, hence learning rules are introduced (Chapter 1). We investigate the fundamental concepts of diffractive coupling in our spatio-temporal reservoir. In that case, theory of diffraction is explained. We use an analytical scheme to provide the limits for the size of diffractive networks which is a part of our photonic neural network (Chapter 2). The concepts of diffractive coupling are investigated experimentally by two different experiments to confirm the analytical limits and to obtain maximum number of nodes which can be coupled in the photonic network (Chapter 3). Numerical simulations for such an experimental setup is modeled in two different schemes to obtain the maximum size of network numerically, which approaches a surface of 100 mm2 (Chapter 4). Finally, the complete photonic neural network is demonstrated. We design a spatially extended reservoir for 900 nodes. Consequently, our system generalizes the prediction for the chaotic Mackey–Glass sequence (Chapter 5)
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Ouali, Jamel. "Architecture intégrée flexible pour réseaux de neurones". Grenoble INPG, 1991. http://www.theses.fr/1991INPG0035.

Texto completo da fonte
Resumo:
Ayant rappelé brièvement quelques réalisations matérielles de réseaux de neurones artificiels dans un premier chapitre cette thèse propose une architecture distribuée, synchrone fondée sur l'existence d'un processeur neurone autonome. Ce processeur pourra être personnalise suivant les caractéristiques du réseaux de neurones a implanter et pourra être connecte a d'autres neurones pour former un réseau de structure et de dimension fixées. Ce neurone se présente comme un circuit dédié fabrique dans un temps court dans un environnement du type compilateur de silicium. Un tel neurone a été conçu et fabrique et s'est avéré complètement opérationnel. Il implémenté sous sa version fabrique uniquement la phase de relaxation. Dans un troisième chapitre, on montre que sans modification de l'architecture, on peut inclure des possibilités d'apprentissage. Pour ceci un algorithme d'apprentissage par la rétropropagation du gradient a été propose et étudié et on montre son implantation sur le réseau de neurones propose en précisant l'adjonction dans la partie de contrôle du neurone a implanter. Enfin, dans un dernier chapitre, nous explorons la possibilité de réaliser de très grands circuits ce qui serait très judicieux pour faire face a la taille des réseaux de neurones requise pour les applications. Pour ceci, nous explorons les possibilités d'intégration tranche entière. En effet, il existe une tolérance aux fautes intrinsèques au calcul neuronal et de plus l'implantation physique régulière doit permettre d'isoler et d'exclure les neurones défaillants. Les possibilités d'implantation physique d'une architecture tranche entière sont donc présentées dans ce chapitre
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Charara, Hussein. "Évaluation des performances temps réel de réseaux embarqués avioniques". Toulouse, INPT, 2007. http://ethesis.inp-toulouse.fr/archive/00000527/.

Texto completo da fonte
Resumo:
Les nouvelles générations d'aéronefs embarquent de plus en plus de systèmes avioniques, pour augmenter à la fois la sécurité et le confort des passagers. Ces nouvelles fonctions entraînent une forte hausse des échanges de données, ce qui nécessite plus de débit et de possibilités d'interconnexion. Les bus classiques de communications avioniques ne peuvent répondre à cette nouvelle demande, ce qui a poussé les constructeurs (Airbus et Boeing) à installer à bord un réseau de communication utilisant la technologie Ethernet commuté. Le principal apport de cette thèse est le développement d'une méthode d'évaluation de performances de ce type de réseaux basée sur une modélisation en file d'attente et simulation. Nous proposons également des approches pour la classification du trafic qui réduisent l'espace de la simulation afin de permettre une analyse plus fine du comportement moyen du réseau. Les résultats de ces simplifications nous ont permis ainsi d'établir un modèle de simulation générique et d'acquérir des répartitions des délais de bout en bout pour la majorité des chemins, devant être étudiés sur la configuration avionique réelle retenue
The recent aircrafts need to accommodate more passengers or freight, with increasing safety and comfort conditions. The new embedded systems imply a large burst in the number and the volume of exchanged data. The avionic data buses cannot cope anymore with these new communications needs. Both Airbus and Boeing made the choice to replace these buses with a network using the Switched Ethernet technology. The main contribution of this thesis is a method, based on a simulation model, which evaluates the performances of this type of networks. We also propose approaches for the traffic classification allowing the reduction of the simulation space, in order to lead to a more refined analysis of the network behaviour. The results of these simplifications enabled us to establish a generic simulation model and to acquire distributions of the end to end delay for the majority of the virtual links, having to be studied on the selected real avionic configuration
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Sambou, Bafing Cyprien. "Systèmes communicants sans fil pour les réseaux avioniques embarqués". Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0040/document.

Texto completo da fonte
Resumo:
L'objet de nos travaux porte sur la proposition d'une architecture hybride IEEE 802.11e/AFDX (Avionics Full Duplex switched ethernet) et sur l'étude des techniques permettant l'interconnexion d'un réseau avionique filaire AFDX et d'un réseau sans fil IEEE802.11e pour des applications de maintenance au sol. Ces techniques devront être capables de satisfaire les exigences temporelles des flux AFDX, en particulier la latence de bout à bout et la gigue. Pour des raisons de déterminisme d'accès au médium, nous avons focalisé nos travaux sur l'adaption de la méthode d'accès HCCA (HCF Controlled Channel Access) pour supporter les exigences de QoS du réseau AFDX. L'utilisation de la technologie IEEE 802.11e et de sa méthode d'accès HCCA n'est pas sans contrainte. L'HCCA est plus orientées pour transporter des flux multimédias tels que la voix et la vidéo, ces derniers n'imposant pas les mêmes contraintes temporelles ni le même niveau d'intégrité des données que les flux AFDX. Pour répondre aux exigences des trafics AFDX (gigue et latence), il est primordial d'améliorer l'HCCA. Nous proposons ainsi une méthode d'accès basée sur l'HCCA appelé AFS-HCCA (AFDX Flows Scheduling with HCCA). Notre méthode implémente deux ordonnanceurs: (1) un ordonnanceur local distribué sur toutes les stations (QSTA) et (2) un ordonnanceur centralisé et contrôlé par le point d'accès (HC). L'ordonnanceur local nommé AWS (AFDX Wireless Scheduler) améliore considérablement celui de référence HCCA, car il sérialise les trames en fonction de leurs contraintes temporelles et intègre une méthode de retransmission contrôlée. AWS n'agit pas sur l'optimisation de la bande passante, d'où notre proposition de deux stratégies supplémentaires: Optimized Solution et Released Bandwidth Solution. Les résultats obtenus par l'ordonnancement AWS distribué et ses stratégies de gestion de la bande passante montrent de réelles nouvelles performances par rapport à la norme HCCA. Cependant, il est indispensable d'ordonnancer de façon centralisée l'ensemble de ces flux pour garantir un accès optimal au médium. Nous avons proposé deux méthodes d'ordonnancement hors-ligne : AFBA (Advanced Fixe BandWidth Allocation) et VBA (Variable Bandwidth Allocation). AFBA alloue des bandes passantes fixes calculées à priori pour satisfaire les exigences temporelles de tous les flux AFDX. VBA quant à lui est basé sur une allocation de bandes passantes variables calculée en fonction des arrivées des trames dans les files d'attente de chaque station. Les ordonnanceurs locaux et centraux avec leurs variantes ont été modélisés et simulés avec OPNET à partir de différents scénarios réels de flux AFDX. Les résultats montrent que l'HCCA de référence de la norme 802.11e n'est pas adapté aux fortes contraintes temporelles de l'AFDX. Nos contributions en termes de sérialisation des flux et d'optimisation de la bande passante réduisent les pertes de trames de 93%, même dans un pire cas avec un réseau chargé et un taux d'erreur binaire élevé
The object of our works concerns at the suggestion of hybrid architecture IEEE 802.11e / AFDX (Avionics Full Duplex switched ethernet) and the study of techniques allowing the interconnection of a wired avionic network AFDX and a wireless network IEEE802.11e for applications of maintenance the ground
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Bigot, Pascal. "Utilisation des réseaux de neurones pour la télégestion des réseaux techniques urbains". Lyon 1, 1995. http://www.theses.fr/1995LYO10036.

Texto completo da fonte
Resumo:
La telegestion des reseaux techniques urbains fait appel a des techniques de reconnaissance de formes: etant donnee une image de l'etat du reseau, determiner si il fonctionne correctement ou non. Une methode employee pour resoudre ce type de probleme fait appel aux reseaux de neurones. Nous definissons une methodologie de construction de l'architecture employee afin d'obtenir des capacites de generalisation satisfaisantes. On s'oriente vers un reseau multicouches et l'algorithme de retropropagation du gradient. Nous precisons aussi une methodologie d'elaboration des bases d'apprentissage qui tienne compte de la nature numerique des donnees utilisees et, en particulier, des sources d'incertitudes qui les caracterisent. Celles-ci sont d'ordre physique (erreurs dues a l'imprecision des mesures et a la presence de bruit) et d'ordre statistique (erreurs dues a des previsions de grandeurs non mesurables). La methode utilisee suppose que l'on peut mesurer tous les parametres necessaires a sa mise en uvre. Ce qui n'est pas le cas dans la pratique. C'est pourquoi nous explorons differentes techniques de selection des parametres mesures et nous etudions les degradations eventuelles des capacites de detection. Nous etudions ensuite un systeme de localisation geographique des anomalies qui utilise les reseaux de neurones. On en montre les limitations. Cette approche est experimentee sur un reseau de distribution d'eau potable. Nous developpons d'autre part une etude theorique sur les relations qui existent entre les fonctions calculables par un reseau de neurones et celles qui sont calculables par un arbre binaire de decision. Ceci nous conduit a des algorithmes d'apprentissage pour des reseaux de neurones dont l'architecture (le nombre de neurones par couches) est variable
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Beyrouthy, Taha. "Logique programmable asynchrone pour systèmes embarqués sécurisés". Grenoble INPG, 2009. http://www.theses.fr/2009INPG0137.

Texto completo da fonte
Resumo:
Cette thèse porte sur la spécification, la conception et la validation d’un FPGA embarqué pour des applications sensibles nécessitant un haut niveau de sécurité. En effet, les FPGA ordinaires présentent de nombreuses failles vis-à-vis de la sécurité : - Ils ne sont pas prévus pour supporter des styles de circuits logiques alternatifs, tels que les circuits asynchrones, qui ont fait leur preuve dans le domaine de la sécurité pour la conception de cryptoprocesseurs par exemple. - Ils ne permettent pas de maîtriser complètement l’implémentation d’un circuit, notamment au niveau du placement et du routage. - Ils ne sont pas protégés contre les attaques par canaux cachés tels que les DPA (Differential Power Analysis) ou les DFA (Differential Fault Attack). Afin de lever ces obstacles technologiques, les travaux entrepris dans le cadre de cette thèse ont permis de proposer une architecture alternative pour supporter la programmation de différents styles de circuits asynchrones, de disposer d’un système de programmation du FPGA sécurisé (contre d’éventuelles attaques) et d’une conception garantissant un haut niveau de protection vis-à-vis des attaques citées ci-dessus. Enfin, une validation matérielle a complété l’étude et a permis d’appréhender la qualité des modèles développés au cours de cette thèse
This thesis focuses on the design and the validation of an embedded FPGA dedicated to critical applications which require a high level of security and confidentiality. Nowadays FPGAs exhibit many weaknesses toward security: 1- They are not intended to efficiently support alternative styles of circuits such as asynchronous circuits. 2- The place and route flow is not completely manageable by the user in order to target our security goal. 3- They are not protected against side channel attacks such as DP A, EMA or DF A. Ln order to overcome these technological problems, the work presented in this thesis proposes an architecture that supports the programming of different styles of asynchronous circuits. Ln addition, it presents a secure programming system and a design that ensurcs a high-Ievel of security against the attacks mentioned above. Finally, the circuit prototype has been evaluated in order to validate the relevance of the proposed solutions
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Koiran, Pascal. "Puissance de calcul des réseaux de neurones artificiels". Lyon 1, 1993. http://www.theses.fr/1993LYO19003.

Texto completo da fonte
Resumo:
Depuis quelques annees on s'est beaucoup interesse a la resolution de problemes d'ingenierie avec des reseaux de neurones artificiels (par exemple en reconnaissance de formes, robotique, prediction de series temporelles, optimisation. . . ). La plupart de ces travaux sont de nature empirique, et ne comportent que peu ou pas du tout d'analyse mathematique rigoureuse. Cette these se situe dans une perspective tout-a-fait differente: il s'agit d'etudier les relations entre les reseaux de neurones et les modeles de calculs classiques ou moins classiques de l'informatique theorique (automates finis, machines de turing, circuits booleens, machines de turing reelles de blum, shub et smale). Les principaux resultats sont les suivants: 1) simulation d'une machine de turing universelle par des reseaux recurrents; 2) etude generale de la puissance de calcul des systemes dynamiques definis par des iterations de fonctions, notamment en petites dimensions; 3) etude de modeles de calculs sur les nombres reels, avec application aux reseaux recurrents et acycliques. On montre que la classe des fonctions (discretes) calculables en temps polynomial est p/poly
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Graïne, Slimane. "Inférence grammaticale régulière par les réseaux de neurones". Paris 13, 1994. http://www.theses.fr/1994PA132020.

Texto completo da fonte
Resumo:
Dans cette thèse, nous proposons: - une méthode pour la simulation des automates finis par les réseaux de neurones (chapitre 4), - une méthode pour la reconnaissance des grammaires hors contexte et des grammaires stochastiques hors contexte par les réseaux de neurones (chapitre (5), - deux méthodes pour l'apprentissage des langages réguliers par les réseaux de neurones (chapitre 6). Les chapitres 2 et 3 présentent respectivement les réseaux de neurones et le problème de l'inférence grammaticale. Les chapitres 1 et 7 respectivement consacrés à l'introduction et à la conclusion.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Le, Fablec Yann. "Prévision de trajectoires d'avions par réseaux de neurones". Toulouse, INPT, 1999. http://www.theses.fr/1999INPT034H.

Texto completo da fonte
Resumo:
La prévision de trajectoires d'avions est un problème crucial pour les systèmes de gestion du traffic aérien. Des méthodes de prévision utilisant des modélisations d'avion existent déjà mais nécessitent beaucoup de paramètres en n'offrant qu'une précision moyenne. C'est pourquoi nous développons une nouvelle approche nútilisant que peu d'informations initiales. La méthode choisie est basée sur l'utilisation de réseaux de neurones auxquels on fait apprendre un ensemble de trajectoires avant de les utiliser pour en prédire de nouvelles. Nous développons trois méthodes différentes qui permettent une prédiction à long terme dans le plan vertical et à court et moyen terme dans le plan horizontal. L'une d'elles est capable d'intégrer de nouvelles données au fur et à mesure que l'avion vole, ce qui lui permet de réagir aux éventuels changements de trajectoire et ainsi de parfaire la prévision. Les deux autres réalisent la prédiction même lorsque l'avion ne vole pas. Nous introduisons aussi une structure de type mélange hiérarchique d'experts qui permet de regrouper le savoir emmagaziné dans plusieurs réseaux, ainsi, il est possible de se passer de la connaissance du type d'avion étudié. Les méthodes utilisant des réseaux de neurones sont ensuite comparées aux méthodes à base de modèles avion. Nous montrons alors que les réseaux de neurones donnent de bien meilleurs résultats tout en permettant une prédiction très rapide. De plus, ne nécessitant que très peu de paramètres au départ, ils sont applicables sur un plus grand nombre de cas.
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Corne, Christophe. "Parallélisation de réseaux de neurones sur architecture distribuée". Mulhouse, 1999. http://www.theses.fr/1999MULH0583.

Texto completo da fonte
Resumo:
Notre étude a pour objectif d'établir le rôle prépondérant que peuvent avoir les techniques parallèles dans la résolution de calculs complexes utilisant des réseaux de neurones. Nous présentons les différents modèles de réseaux de neurones afin d'évaluer leur adaptabilité au parallélisme et de retenir la meilleure méthode de parallélisation. La structure choisie est basée sur l'algorithme neuromimétique Self-Organizing Map (SOM). Nous parallélisons cet algorithme sur différents types de plate-formes à architecture distribuée, l'une d'entre elles étant un réseau de stations de travail. Nous présentons un réseau grossissant, auto-organisé dans sa généralité et détaillons la forme séquentielle de son algorithme fondateur. La parallélisation de ce dernier algorithme sur une architecture utilisant la norme SCI (Scalable Coherent Interface) comme moyen de communication nous permet de montrer l'intérêt à la fois d'un réseau d'ordinateurs comme ressources de calcul et de ce nouveau protocole à 1 Gigabit/s. Pour évaluer les performances de nos algorithmes et les faire fonctionner, nous avons dû soutirer la puissance optimale des matériels dont nous disposions. Nous avons constaté à cette occasion, que les ressources informatiques, prises dans leur ensemble, avaient un potentiel et une disponibilité en puissance de calcul largement inexploitée. Ces circonstances nous ont conduit à une réflexion sur l'optimisation des ressources informatiques et à la conception d'un logiciel de répartition des tâches, sur systèmes distribués. Nous détaillons le fonctionnement de ce logiciel nommé «ReTrop» et présentons succinctement ses débouchés industriels. Comme exemple d'utilisation de ce principe, nous présentons les résultats obtenus pour améliorer le choix des paramètres d'un réseau grossissant, auto-organisé.
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

He, Bing. "Estimation paramétrique du signal par réseaux de neurones". Lille 1, 2002. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2002/50376-2002-75.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Godary, Karen. "Validation temporelle de réseaux embarqués critiques et fiables pour l'automobiles". Lyon, INSA, 2004. http://theses.insa-lyon.fr/publication/2004ISAL0068/these.pdf.

Texto completo da fonte
Resumo:
Dans le domaine de l’automobile, la tendance actuelle pour les constructeurs est de remplacer certains systèmes hydrauliques et mécaniques par des systèmes x-by-wire : composants électroniques communicants grâce à un réseau. Deus aspects particuliers de la fiabilité de ces architectures sont traités dans ces travaux : l’aspect temporel et sa tolérance aux fautes. Afin de garantir la fiabilité de ces systèmes critiques, il est nécessaire de vérifier le respect de leurs contraintes strictes par validation. Les travaux de cette thèse sont consacrés à la validation temporelle en présence de fautes d’une architecture dédiées à ces systèmes : TTA (Time-Triggered Architecture), et en proposent une méthodologie de validation. Pour cela, il a été nécessaire de choisir un formalisme de modélisation adapté aux différentes caractéristiques de l’architecture et à ces contraintes, en particulier sur le plan temporel. Une étude comparative théorique et expérimentale de plusieurs formalismes a permis de choisir les TSA (Times Safety Automata), extension des automates temporisés implémentée dans l’outil UPPAAL. Le modèle obtenu est ensuite analysé par model-checking. Cette méthodologie a permis la validation des bornes temporelles des différents services de TTA, c’est à dire leur pire temps d’exécution, sous certaines hypothèses de fautes. Elle complète les processus de validation de TTA existants, d’une part les approches de tests, de simulations et d’injections de fautes qui ne sont pas exhaustives, et d’autre part des approches formelles (preuve de théorème) qui ne permettaient pas de prendre en compte les bornes temporelles ou l’interaction des algorithmes
In the automotive domain, the current tendency for the manufacturers is to replace hydraulic and mechanical systems by x-by-wire systems : electronic components communicating through a network. Two particular aspects of the reliability of this architectures are studied in this work: the temporal aspect and its fault tolerance. In order to guarantee the reliability of this critical systems, it is necessary to verify the respect of their constraints by validation. Works of this thesis is devoted to the temporal validation in presence of faults of a specific architecture dedicated to these systems: TTA (Time-Triggered Structure), and propose a methodology of validation for this architecture. For that, it was necessary to choose a modelling formalism which fits well to the characteristics of the architecture and its constraints, in particular on the temporal domain. A theoretical and experimental comparative study of several formalisms led us to choose the TSA (Time Safety Automata), extension of the timed automata implemented in the UPPAAL tool. The obtained model is then analysed by model-checking. This methodology allowed the validation of the temporal bounds of the TTA services, i. E. Their worst execution time, under different faults hypotheses. It completes the existent validation processes for TTA, on the one hand the approaches such as test, simulation and fault injection which are not exhaustive, and on the other hand formal approaches (proof of theorems) which did not allow to take into account the temporal bounds or the interaction of the algorithms
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Killian, Cédric. "Réseaux embarqués sur puce reconfigurable dynamiquement et sûrs de fonctionnement". Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0396.

Texto completo da fonte
Resumo:
Les besoins de performance des systèmes sur puce embarqués augmentant sans cesse pour satisfaire des applications de plus en plus complexes, de nouvelles architectures de traitement et de nouveaux paradigmes de calcul sont apparus. L'intégration au sein d'une même puce électronique de plusieurs dizaines, voire centaines d'éléments de calcul a donné naissance aux systèmes sur puce multiprocesseur (MultiProcessor Systems on Chip - MPSoC). Cette évolution permet d'obtenir une puissance de traitement parallèle considérable. Actuellement, les performances de tels systèmes reposent sur le support de communication et d'échange des données entre les blocs de calcul intégrés. La problématique du support de communication est de fournir une bande passante et une adaptabilité élevées, afin de pouvoir bénéficier efficacement du parallélisme potentiel de la puissance de calcul disponible des MPSoC. C'est dans ce contexte du besoin primordial de flexibilité et de bande passante que sont apparus les réseaux embarqués sur puce (Network-on-Chip - NoC) dont l'objectif est de permettre l'interconnexion optimisée d'un grand nombre d'éléments de calcul au sein d'une même puce électronique, tout en assurant l'exigence d'un compromis entre les performances de communication et les ressources d'interconnexion. De plus, l'apparition de la technologie FPGA reconfigurable dynamiquement a ouvert de nouvelles approches permettant aux MPSoC d'adapter leurs constituants en cours de fonctionnement et de répondre aux besoins croissant d'adaptabilité, de flexibilité et de la diversité des ressources des systèmes embarqués. Étant donnée cette évolution de complexité des systèmes électroniques et la diminution de la finesse de gravure, et donc du nombre croissant de transistors au sein d'une même puce, la sensibilité des circuits face aux phénomènes générant des fautes n'a de cesse d'augmenter. Ainsi, dans le but d'obtenir des systèmes sur puces performants et fiables, des techniques de détection, de localisation et de correction d'erreurs doivent être proposées au sein des NoC reconfigurables ou adaptatifs, où la principale difficulté réside dans l'identification et la distinction entre des erreurs réelles et des fonctionnements variables ou adaptatifs des éléments constituants ces types de NoC C'est dans ce contexte que nous proposons de nouveaux mécanismes et solutions architecturales permettant de contrôler le fonctionnement d'un NoC adaptatif supportant les communications d'une structure MPSOC, et afin de d'identifier et localiser avec précision les éléments défaillants d'une telle structure dans le but de les corriger ou de les isoler pour prévenir toutes défaillances du système
The need of performance of embedded Syxtena-on-Chlps (Socs) are increasing constantly to meet the requirements of applications becoming more and more complexes, and new processing architectures and new computing paradigms have emerged. The integration within a single chip of dozens, or hundreds of computing and processing elements has given birth to Mukt1 Pmcesmr Systena-on-Chp (MPSoC) allowing to feature a high level of parallel processing. Nowaday s, the performance of these systems rely on the communication medium between the interconnected processing elements. The problematic of the communication medium to feature a high bandwidth and flexibility is primordial in order to efficiently use the parallel processing capacity of the MPSoC In this context, Network-on-Chlps (NoCs) are developed where the aim is to allow the interconnection of a large number of elements in the same device while maintaining a tradeoff between performance and logical resources. Moreover, the emergence of the partial reconfigurable FPGA technology allows to the MPSoC to adapt their elements during its operation in order to meet the system requirements. Given this increasing complexity of the electronic systems and the shrinking size of the devices, the sensibility of the chip against phenomena generating fault has increased. Thereby, to design efficient and reliable Socs, new error detection and localization techniques must be proposed for the dynamic NoCs where the main difficulty is the identification and the distinction between real errors and adaptive behavior of the NoCs. In this context, we present new mechanisms and architectural solutions allowing to check during the system operation the correctness of dynamic NoCs in order to locate and isolate efficiently the faulty components avoiding a failure of the system
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Bénédic, Yohann. "Approche analytique pour l'optimisation de réseaux de neurones artificiels". Phd thesis, Université de Haute Alsace - Mulhouse, 2007. http://tel.archives-ouvertes.fr/tel-00605216.

Texto completo da fonte
Resumo:
Les réseaux de neurones artificiels sont nés, il y a presque cinquante ans, de la volonté de modéliser les capacités de mémorisation et de traitement du cerveau biologique. Aujourd'hui encore, les nombreux modèles obtenus brillent par leur simplicité de mise en œuvre, leur puissance de traitement, leur polyvalence, mais aussi par la complexité des méthodes de programmation disponibles. En réalité, très peu d'entre-elles sont capables d'aboutir analytiquement à un réseau de neurones correctement configuré. Bien au contraire, la plupart se " contentent " d'ajuster, petit à petit, une ébauche de réseau de neurones, jusqu'à ce qu'il fonctionne avec suffisamment d'exemples de la tâche à accomplir. Au travers de ces méthodes, dites " d'apprentissages ", les réseaux de neurones sont devenus des boîtes noires, que seuls quelques experts sont effectivement capables de programmer. Chaque traitement demande en effet de choisir convenablement une configuration initiale, la nature des exemples, leur nombre, l'ordre d'utilisation, ... Pourtant, la tâche finalement apprise n'en reste pas moins le résultat d'une stratégie algorithmique implémentée par le réseau de neurones. Une stratégie qui peut donc être identifiée par le biais de l'analyse, et surtout réutilisée lors de la conception d'un réseau de neurones réalisant une tâche similaire, court-circuitant ainsi les nombreux aléas liés à ces méthodes d'apprentissage. Les bénéfices de l'analyse sont encore plus évidents dans le cas de réseaux de neurones à sortie binaire. En effet, le caractère discret des signaux traités simplifie grandement l'identification des mécanismes mis en jeu, ainsi que leur contribution au traitement global. De ce type d'analyse systématique naît un formalisme original, qui décrit la stratégie implémentée par les réseaux de neurones à sortie binaire de façon particulièrement efficace. Schématiquement, ce formalisme tient lieu d'" état intermédiaire " entre la forme boîte noire d'un réseau de neurones et sa description mathématique brute. En étant plus proche des modèles de réseaux de neurones que ne l'est cette dernière, il permet de retrouver, par synthèse analytique, un réseau de neurones effectuant la même opération que celui de départ, mais de façon optimisée selon un ou plusieurs critères : nombre de neurones, nombre de connexions, dynamique de calcul, etc. Cette approche analyse-formalisation-synthèse constitue la contribution de ces travaux de thèse.
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Gatet, Laurent. "Intégration de Réseaux de Neurones pour la Télémétrie Laser". Phd thesis, Toulouse, INPT, 2007. http://oatao.univ-toulouse.fr/7595/1/gatet.pdf.

Texto completo da fonte
Resumo:
Grandes lignes : Un réseau de neurones est une architecture paramétrable composée de plusieurs modules appelés neurones. Ils peuvent être utilisés pour compenser des variations non souhaitées de certains phénomènes physiques ou pour effectuer des tâches de discrimination. Un réseau de neurones a été intégré en technologie CMOS basse tension pour être implanté au sein d'un télémètre laser par déphasage. Deux études ont été menées en parallèle. La première consiste à lever l'indétermination sur la mesure de distance déduite de la mesure de déphasage. La seconde étude permet la classification de différents types de surfaces à partir de deux signaux issus du télémètre. Résumé détaillé : Un réseau de neurones a la faculté de pouvoir être entraîné afin d'accomplir une tâche d'approximation de fonction ou de classification à partir d'un nombre limité de données sur un intervalle bien défini. L'objectif de cette thèse est de montrer l'intérêt d'adapter les réseaux de neurones à un type de système optoélectronique de mesure de distance, la télémétrie laser par déphasage. La première partie de ce manuscrit développe de manière succincte leurs diverses propriétés et aptitudes, en particulier leur reconfigurabilité par l'intermédiaire de leurs paramètres et leur capacité à être intégré directement au sein de l'application. La technique de mesure par télémétrie laser par déphasage est développée dans le deuxième chapitre et comparée à d'autres techniques télémétriques. Le troisième chapitre montre qu'un réseau de neurones permet d'améliorer nettement le fonctionnement du télémètre. Une première étude met en valeur sa capacité à accroître la plage de mesure de distance sans modifier la résolution. Elle est réalisée à partir de mesures expérimentales afin de prouver le réel intérêt de la méthode comportementale développée. La deuxième étude ouvre une nouvelle perspective relative à l'utilisation d'un télémètre laser par déphasage, celle d'effectuer la classification de différents types de surfaces sur des plages de distances et d'angles d'incidence variables. Pour valider expérimentalement ces deux études, les cellules de base du neurone de type perceptron multi-couches ont été simulées puis implantées de manière analogique. Les phases de simulation, de conception et de test du neurone analogique sont détaillées dans le quatrième chapitre. Un démonstrateur du réseau de neurones global a été réalisé à partir de neurones élémentaires intégrés mis en parallèle. Une étude de la conception des mêmes cellules en numérique est détaillée succinctement dans le cinquième chapitre afin de justifier les avantages associés à chaque type d'intégration. Le dernier chapitre présente les phases d'entraînement et de validation expérimentales du réseau intégré pour les deux applications souhaitées. Ces phases de calibrage sont effectuées extérieurement à l'ASIC, par l'intermédiaire de l'équation de transfert déterminée après caractérisation expérimentale et qualification du réseau de neurones global. Les résultats expérimentaux issus de la première étude montrent qu'il est possible d'obtenir à partir des signaux de sorties du télémètre et du réseau de neurones, une mesure de distance de précision (50µm) sur un intervalle de mesure 3 fois plus important que celui limité à la mesure du déphasage. Concernant l'application de discrimination de surfaces, le réseau de neurones analogique implanté est capable de classer quatre types de cibles sur l'intervalle [0.5m ; 1.25m] pour un angle d'incidence pouvant varier de - π /6 à + π /6.
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Robitaille, Benoît. "Contrôle adaptatif par entraînement spécialisé de réseaux de neurones". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp02/NQ35778.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Ducom, Jean-Christophe. "Codage temporel et apprentissage dans les réseaux de neurones". Aix-Marseille 1, 1996. http://www.theses.fr/1996AIX11041.

Texto completo da fonte
Resumo:
Nous rappelons dans un premier temps quelques bases de neurobiologie sur les caracteristiques et les proprietes du neurone, ainsi que sur l'organisation generale des neurones dans le cerveau. Ceci nous amene par la suite a reconsiderer les modeles classiques de reseaux de neurones formels, a cause de leur manque de realisme et de leur incapacite a resoudre certains problemes, tels que la segmentation et le liage d'attributs visuels. Or, de recentes experiences sur le traitement de stimuli par le cortex visuel exhibent un nouveau type de codage de l'information, base sur les relations temporelles entre les differents potentiels d'action (en particulier la synchronisation de leurs temps d'emission), et non plus sur la frequence de decharge des neurones. A partir de la variante de codage temporel de s. Thorpe, nous proposons un modele de presynchronisation d'activite neuronale reposant sur un couplage diffusif entre neurones et sur un signal inhibiteur. Nous etudions les proprietes d'un tel reseau de neurones realistes, de type integrateur a seuil avec fuite, suivant differents types de signal d'entree et de bruit. Dans une seconde partie, nous etudions les consequences de l'introduction du temps pour l'apprentissage: les temps de transmission du signal entre neurones sont pris en compte. Apres avoir rappele les principaux resultats experimentaux sur l'apprentissage, ceux-ci permettant de degager certaines contraintes biologiques, nous proposons une loi de modification des efficacites synaptiques. Elle permet au reseau de conserver et de recuperer une suite de configurations d'activite spatio-temporelle. Enfin, nous etudions ses proprietes lorsque certaines contraintes de normalisation lui sont imposees au niveau des variations des poids synaptiques ; on montre alors que le comportement du reseau est different selon la maniere utilisee pour realiser ces contraintes
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Benaïm, Michel. "Dynamiques d'activation et dynamiques d'apprentissage des réseaux de neurones". Toulouse, ENSAE, 1992. http://www.theses.fr/1992ESAE0001.

Texto completo da fonte
Resumo:
L'objet principal de cette these est d'etudier de facon rigoureuse un modele temps-reel de reseau de neurones. La description mathematique complete d'un modele temps-reel requiert la donnee de trois dynamiques: la dynamique d'activation ou dynamique des memoires a court terme qui determine l'evolution des etats d'activation des unites. La dynamique des poids ou dynamique des memoires a long terme qui determine l'evolution des vecteurs poids selon une regle d'apprentissage ou un mecanisme d'auto-organisation. Une dynamique exogene qui decrit l'evolution des stimuli exterieurs au reseau et que nous representerons par un processus aleatoire. Aussi l'evolution du reseau est donnee par un systeme dynamique non autonome couple, dans le produit cartesien de l'espace d'activation par l'espace des poids. Avec ce formalisme, nous etudions un modele de reseau qui peut etre vu comme une version temps-reel des cartes auto-organisatrices de kohonen et plus generalement d'une classe de reseaux utilises comme modules elementaires dans des architectures evoluees (art, neocognitron,. . . )
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia