Academic literature on the topic 'Elagage de réseaux de neurones'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Elagage de réseaux de neurones.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Elagage de réseaux de neurones":

1

-BORNE, Pierre. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 31. http://dx.doi.org/10.3845/ree.2006.074.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

-BORNE, Pierre. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 37. http://dx.doi.org/10.3845/ree.2006.075.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

-Y. HAGGEGE, Joseph. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 43. http://dx.doi.org/10.3845/ree.2006.076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

-BENREJEB, Mohamed. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 47. http://dx.doi.org/10.3845/ree.2006.077.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

-Y. HAGGEGE, Joseph. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 50. http://dx.doi.org/10.3845/ree.2006.078.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

-BENREJEB, Mohamed. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 55. http://dx.doi.org/10.3845/ree.2006.079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Bélanger, M., N. El-Jabi, D. Caissie, F. Ashkar, and J. M. Ribi. "Estimation de la température de l'eau de rivière en utilisant les réseaux de neurones et la régression linéaire multiple." Revue des sciences de l'eau 18, no. 3 (April 12, 2005): 403–21. http://dx.doi.org/10.7202/705565ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La température de l'eau en rivière est un paramètre ayant une importance majeure pour la vie aquatique. Les séries temporelles décrivant ce paramètre thermique existent, mais elles sont moins nombreuses et souvent courtes, ou comptent parfois des valeurs manquantes. Cette étude présente la modélisation de la température de l'eau en utilisant des réseaux de neurones et la régression linéaire multiple pour relier la température de l'eau à celle de l'air et le débit du ruisseau Catamaran, situé au Nouveau-Brunswick, Canada. Une recherche multidisciplinaire à long terme se déroule présentement sur ce site. Les données utilisées sont de 1991 à 2000 et comprennent la température de l'air de la journée en cours, de la veille et de l'avant-veille, le débit ainsi que le temps transformé en série trigonométrique. Les données de 1991 à 1995 ont été utilisées pour l'entraînement ou la calibration du modèle tandis que les données de 1996 à 2000 ont été utilisées pour la validation du modèle. Les coefficients de détermination obtenus pour l'entraînement sont de 94,2 % pour les réseaux de neurones et de 92,6 % pour la régression linéaire multiple, ce qui donne un écart-type des erreurs de 1,01 C pour les réseaux de neurones et de 1,05 C pour la régression linéaire multiple. Pour la validation, les coefficients de détermination sont de 92,2 % pour les réseaux de neurones et de 91,6 % pour la régression linéaire multiple, ce qui se traduit en un écart-type des erreurs de 1,10 C pour les réseaux de neurones et de 1,25 C pour la régression linéaire multiple. Durant la période d'étude (1991-2000), le biais a été calculé à +0,11 C pour le modèle de réseaux de neurones et à -0,26 °C pour le modèle de régression. Ces résultats permettent de conclure qu'il est possible de prévoir la température de l'eau de petits cours d'eau en utilisant la température de l'air et le débit, aussi bien avec les réseaux de neurones qu'avec la régression linéaire multiple. Les réseaux de neurones semblent donner un ajustement aux données légèrement meilleur que celui offert par la régression linéaire multiple, toutefois ces deux approches de modélisation démontrent une bonne performance pour la prédiction de la température de l'eau en rivière.
8

Mézard, Marc, and Jean-Pierre Nadal. "Réseaux de neurones et physique statistique." Intellectica. Revue de l'Association pour la Recherche Cognitive 9, no. 1 (1990): 213–45. http://dx.doi.org/10.3406/intel.1990.884.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Laks, Bernard. "Réseaux de neurones et syllabation du français." Linx 34, no. 1 (1996): 327–46. http://dx.doi.org/10.3406/linx.1996.1440.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Jelassi, Khaled, Najiba Bellaaj-Merabet, and Bruno Dagues. "Estimation du flux par réseaux de neurones." Revue internationale de génie électrique 7, no. 1-2 (April 30, 2004): 105–31. http://dx.doi.org/10.3166/rige.7.105-131.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Elagage de réseaux de neurones":

1

Hubens, Nathan. "Towards lighter and faster deep neural networks with parameter pruning." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAS025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis leur résurgence en 2012, les réseaux de neurones profonds sont devenus omniprésents dans la plupart des disciplines de l'intelligence artificielle, comme la reconnaissance d'images, le traitement de la parole et le traitement du langage naturel. Cependant, au cours des dernières années, les réseaux de neurones sont devenus exponentiellement profonds, faisant intervenir de plus en plus de paramètres. Aujourd'hui, il n'est pas rare de rencontrer des architectures impliquant plusieurs milliards de paramètres, alors qu'elles en contenaient le plus souvent des milliers il y a moins de dix ans.Cette augmentation généralisée du nombre de paramètres rend ces grands modèles gourmands en ressources informatiques et essentiellement inefficaces sur le plan énergétique. Cela rend les modèles déployés coûteux à maintenir, mais aussi leur utilisation dans des environnements limités en ressources très difficile.Pour ces raisons, de nombreuses recherches ont été menées pour proposer des techniques permettant de réduire la quantité de stockage et de calcul requise par les réseaux neuronaux. Parmi ces techniques, l'élagage synaptique, consistant à créer des modèles réduits, a récemment été mis en évidence. Cependant, bien que l'élagage soit une technique de compression courante, il n'existe actuellement aucune méthode standard pour mettre en œuvre ou évaluer les nouvelles méthodes, rendant la comparaison avec les recherches précédentes difficile.Notre première contribution concerne donc une description inédite des techniques d'élagage, développée selon quatre axes, et permettant de définir de manière univoque et complète les méthodes existantes. Ces composantes sont : la granularité, le contexte, les critères et le programme. Cette nouvelle définition du problème de l'élagage nous permet de le subdiviser en quatre sous-problèmes indépendants et de mieux déterminer les axes de recherche potentiels.De plus, les méthodes d'élagage en sont encore à un stade de développement précoce et principalement destinées aux chercheurs, rendant difficile pour les novices d'appliquer ces techniques. Pour combler cette lacune, nous avons proposé l'outil FasterAI, destiné aux chercheurs, désireux de créer et d'expérimenter différentes techniques de compression, mais aussi aux nouveaux venus, souhaitant compresser leurs modèles pour des applications concrètes. Cet outil a de plus été construit selon les quatre composantes précédemment définis, permettant une correspondance aisée entre les idées de recherche et leur mise en œuvre.Nous proposons ensuite quatre contributions théoriques, chacune visant à fournir de nouvelles perspectives et à améliorer les méthodes actuelles dans chacun des quatre axes de description identifiés. De plus, ces contributions ont été réalisées en utilisant l'outil précédemment développé, validant ainsi son utilité scientifique.Enfin, afin de démontrer que l'outil développé, ainsi que les différentes contributions scientifiques proposées, peuvent être applicables à un problème complexe et réel, nous avons sélectionné un cas d'utilisation : la détection de la manipulation faciale, également appelée détection de DeepFakes. Cette dernière contribution est accompagnée d'une application de preuve de concept, permettant à quiconque de réaliser la détection sur une image ou une vidéo de son choix.L'ère actuelle du Deep Learning a émergé grâce aux améliorations considérables des puissances de calcul et à l'accès à une grande quantité de données. Cependant, depuis le déclin de la loi de Moore, les experts suggèrent que nous pourrions observer un changement dans la façon dont nous concevons les ressources de calcul, conduisant ainsi à une nouvelle ère de collaboration entre les communautés du logiciel, du matériel et de l'apprentissage automatique. Cette nouvelle quête de plus d'efficacité passera donc indéniablement par les différentes techniques de compression des réseaux neuronaux, et notamment les techniques d'élagage
Since their resurgence in 2012, Deep Neural Networks have become ubiquitous in most disciplines of Artificial Intelligence, such as image recognition, speech processing, and Natural Language Processing. However, over the last few years, neural networks have grown exponentially deeper, involving more and more parameters. Nowadays, it is not unusual to encounter architectures involving several billions of parameters, while they mostly contained thousands less than ten years ago.This generalized increase in the number of parameters makes such large models compute-intensive and essentially energy inefficient. This makes deployed models costly to maintain but also their use in resource-constrained environments very challenging.For these reasons, much research has been conducted to provide techniques reducing the amount of storage and computing required by neural networks. Among those techniques, neural network pruning, consisting in creating sparsely connected models, has been recently at the forefront of research. However, although pruning is a prevalent compression technique, there is currently no standard way of implementing or evaluating novel pruning techniques, making the comparison with previous research challenging.Our first contribution thus concerns a novel description of pruning techniques, developed according to four axes, and allowing us to unequivocally and completely define currently existing pruning techniques. Those components are: the granularity, the context, the criteria, and the schedule. Defining the pruning problem according to those components allows us to subdivide the problem into four mostly independent subproblems and also to better determine potential research lines.Moreover, pruning methods are still in an early development stage, and primarily designed for the research community. Indeed, most pruning works are usually implemented in a self-contained and sophisticated way, making it troublesome for non-researchers to apply such techniques without having to learn all the intricacies of the field. To fill this gap, we proposed FasterAI toolbox, intended to be helpful to researchers, eager to create and experiment with different compression techniques, but also to newcomers, that desire to compress their neural network for concrete applications. In particular, the sparsification capabilities of FasterAI have been built according to the previously defined pruning components, allowing for a seamless mapping between research ideas and their implementation.We then propose four theoretical contributions, each one aiming at providing new insights and improving on state-of-the-art methods in each of the four identified description axes. Also, those contributions have been realized by using the previously developed toolbox, thus validating its scientific utility.Finally, to validate the applicative character of the pruning technique, we have selected a use case: the detection of facial manipulation, also called DeepFakes Detection. The goal is to demonstrate that the developed tool, as well as the different proposed scientific contributions, can be applicable to a complex and actual problem. This last contribution is accompanied by a proof-of-concept application, providing DeepFake detection capabilities in a web-based environment, thus allowing anyone to perform detection on an image or video of their choice.This Deep Learning era has emerged thanks to the considerable improvements in high-performance hardware and access to a large amount of data. However, since the decline of Moore's Law, experts are suggesting that we might observe a shift in how we conceptualize the hardware, by going from task-agnostic to domain-specialized computations, thus leading to a new era of collaboration between software, hardware, and machine learning communities. This new quest for more efficiency will thus undeniably go through neural network compression techniques, and particularly sparse computations
2

Wenzek, Didier. "Construction de réseaux de neurones." Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343569.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La dénomination de réseaux de neurones recouvre tout un ensemble de méthodes de calcul dont le point commun est de décrire le calcul d'une solution a un probleme comme la recherche d'un état d'équilibre par un ensemble de cellules simples inter-agissant entre elles via un réseau de connections paramétrées. L'approche usuelle, pour obtenir un réseau de neurones ayant un comportement souhaite, consiste a tester sur des exemples un réseau choisi a priori et a modifier ses paramètres de contrôle jusqu'à ce que l'on obtienne un comportement satisfaisant. La difficulté de ces méthodes est que leur succès ou leur échec reposent sur le choix d'un premier réseau et que l'on ne dispose pas de règles permettant de déduire ce choix de la structure du probleme. La motivation de cette thèse a donc été de décrire des méthodes de synthèse permettant une construction modulaire de réseaux de neurones. Aussi, cette thèse propose une classe de réseaux de neurones parmi lesquels toute spécification de la forme chercher un élément de e (fini) vérifiant la propriété p admet au moins une réalisation. En outre, les réseaux de cette classe peuvent être combines pour obtenir un réseau réalisant une combinaison des spécifications des réseaux combines
3

Tsopze, Norbert. "Treillis de Galois et réseaux de neurones : une approche constructive d'architecture des réseaux de neurones." Thesis, Artois, 2010. http://www.theses.fr/2010ARTO0407/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les réseaux de neurones artificiels connaissent des succès dans plusieurs domaines. Maisles utilisateurs des réseaux de neurones sont souvent confrontés aux problèmes de définitionde son architecture et d’interprétabilité de ses résultats. Plusieurs travaux ont essayé d’apporterune solution à ces problèmes. Pour les problèmes d’architecture, certains auteurs proposentde déduire cette architecture à partir d’un ensemble de connaissances décrivant le domaine duproblème et d’autres proposent d’ajouter de manière incrémentale les neurones à un réseauayant une taille initiale minimale. Les solutions proposées pour le problème d’interprétabilitédes résultats consistent à extraire un ensemble de règles décrivant le fonctionnement du réseau.Cette thèse contribue à la résolution de ces deux problèmes. Nous nous limitons à l’utilisationdes réseaux de neurones dans la résolution des problèmes de classification.Nous présentons dans cette thèse un état de l’art des méthodes existantes de recherche d’architecturede réseaux de neurones : une étude théorique et expérimentale est aussi faite. Decette étude, nous observons comme limites de ces méthodes la disponibilité absolue des connaissancespour construire un réseau interprétable et la construction des réseaux difficiles à interpréteren absence de connaissances. En alternative, nous proposons une méthode appelée CLANN(Concept Lattice-based Artificial Neural network) basée les treillis de Galois qui construit undemi-treillis à partir des données et déduire de ce demi-treillis l’architacture du réseau. CLANNétant limitée à la résolution des problèmes à deux classes, nous proposons MCLANN permettantd’étendre cette méthodes de recherche d’architecture des réseaux de neurones aux problèmes àplusieurs classes.Nous proposons aussi une méthode appelée ’Approche des MaxSubsets’ pour l’extractiondes règles à partir d’un réseau de neurones. La particularité de cette méthode est la possibilitéd’extraire les deux formats de règles (’si alors’ et ’m parmi N’) à partir d’une structure quenous construisons. Nous proposons aussi une façon d’expliquer le résultat calculé par le réseauconstruit par la méthode MCLANN au sujet d’un exemple
The artificial neural networks are successfully applied in many applications. But theusers are confronted with two problems : defining the architecture of the neural network able tosolve their problems and interpreting the network result. Many research works propose some solutionsabout these problems : to find out the architecture of the network, some authors proposeto use the problem domain theory and deduct the network architecture and some others proposeto dynamically add neurons in the existing networks until satisfaction. For the interpretabilityproblem, solutions consist to extract rules which describe the network behaviour after training.The contributions of this thesis concern these problems. The thesis are limited to the use of theartificial neural networks in solving the classification problem.In this thesis, we present a state of art of the existing methods of finding the neural networkarchitecture : we present a theoritical and experimental study of these methods. From this study,we observe some limits : difficulty to use some method when the knowledges are not available ;and the network is seem as ’black box’ when using other methods. We a new method calledCLANN (Concept Lattice-based Artificial Neural Network) which builds from the training dataa semi concepts lattice and translates this semi lattice into the network architecture. As CLANNis limited to the two classes problems, we propose MCLANN which extends CLANN to manyclasses problems.A new method of rules extraction called ’MaxSubsets Approach’ is also presented in thisthesis. Its particularity is the possibility of extracting the two kind of rules (If then and M-of-N)from an internal structure.We describe how to explain the MCLANN built network result aboutsome inputs
4

Voegtlin, Thomas. "Réseaux de neurones et auto-référence." Lyon 2, 2002. http://theses.univ-lyon2.fr/documents/lyon2/2002/voegtlin_t.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet de cette thèse est l'étude d'une classe d'algorithmes d'apprentissage non supervisés pour réseaux de neurones récurrents. Dans la 1ere partie (chap. 1 à 4), je présente plusieurs algorithmes, basés sur un même principe d'apprentissage : l'auto-référence. L'apprentissage auto-référent n'implique pas l'optimisation d'un critère objectif (comme une fonction d'erreur), mais il fait intervenir une fonction subjective, qui dépend de ce que le réseau a déjà appris. Un exemple de réseau supervisé basé sur ce principe est le Simple Recurrent Netword d'Elman (1990). Dans ce cas, l'auto-référence est appliquée à l'algorithme de rétro-propagation du gradient. Sur ce point, le réseau d'Elman diffère des autres méthodes de rétro-propagation pour réseaux récurrents, qui font intervenir un gradient objectif (Back-propagation Through Time, Real-Time Recurrent learning). Je montr que l'auto-référence peut être utilisée avec les principales techniques d'apprentissage non supervisé : Cartes de Kohonen, Analyse en composantes principales, Analyse en composantes indépendantes. Ces techniques sont classiquement utilisées pour représenter des données statiques. L'auto-référence permet de les généraliser à des séries temporelles, et de définir des algorithmes d'apprentissage nouveaux
The purpose of this thesis is to present a class of unsupervised learning algorithms for recurrent networks. In the first part (chapters 1 to 4), I propose a new approach to this question, based on a simple principle: self-reference. A self-referent algorithm is not based on the minimization of an objective criterion, such as an error function, but on a subjective function, that depends on what the network has previously learned. An example of a supervised recurrent network where learning is self-referent is the Simple Recurrent Network (SRN) by Elman (1990). In the SRN, self-reference is applied to the supervised error back-propagation algorithm. In this aspect, the SRN differs from other generalizations of back-propagation to recurrent networks, that use an objective criterion, such as Back-Propagation Through Time, or Real-Time Recurrent Learning. In this thesis, I show that self-reference can be combined with several well-known unsupervised learning methods: the Self-Organizing Map (SOM), Principal Components Analysis (PCA), and Independent Components Analysis (ICA). These techniques are classically used to represent static data. Self-reference allows one to generalize these techniques to time series, and to define unsupervised learning algorithms for recurrent networks
5

Teytaud, Olivier. "Apprentissage, réseaux de neurones et applications." Lyon 2, 2001. http://theses.univ-lyon2.fr/documents/lyon2/2001/teytaud_o.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les fondements théoriques de l'apprentissage sont en grande partie posés. Comme la calculabilité est venue à maturité en s'orientant vers la complexité, l'apprentissage mûrit face à des résultats négatifs forts qui rendent sans espoir la quête d'algorithmes universels, efficaces pour toute donnée. Vraisemblablement les grandes avancées à venir seront (a) soit dans des domaines connexes où l'étude théorique a moins été poussée, (b) soit moins philosophiques et plus concrètes (théorique à préoccupations algorithmiques, représentation de données structurées, implémentation physique, modularité), soit enfin (c) dans la modélisation biologique. Cette thèse résume (et essaie modestement de compléter) les avancées théoriques statistiques, des points de vue successifs des cas où l'apprentissage est difficile (i. E. , où l'on sort du cadre iid sans bruit avec a priori de VC-dimension finie), des utilisations non-standards de la VC-théorie (non-supervisé, extraction de règles : c'est le (a) ci-dessus), puis du passage au concret avec le passage aux préoccupations algorithmiques (validité des approximations dans les Supports Vector Machines, efficacité des algorithmes de Gibbs quoique l'étude soit très incomplète, plus proches voisins rapides d'un point de vue expérimental représentation de données structurées images ou textes - tout cela est le (b)) et la modélisation biologique (c)
6

Côté, Marc-Alexandre. "Réseaux de neurones génératifs avec structure." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10489.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur les modèles génératifs en apprentissage automatique. Deux nouveaux modèles basés sur les réseaux de neurones y sont proposés. Le premier modèle possède une représentation interne où une certaine structure a été imposée afin d’ordonner les caractéristiques apprises. Le deuxième modèle parvient à exploiter la structure topologique des données observées, et d’en tenir compte lors de la phase générative. Cette thèse présente également une des premières applications de l’apprentissage automatique au problème de la tractographie du cerveau. Pour ce faire, un réseau de neurones récurrent est appliqué à des données de diffusion afin d’obtenir une représentation des fibres de la matière blanche sous forme de séquences de points en trois dimensions.
7

Jodouin, Jean-François. "Réseaux de neurones et traitement du langage naturel : étude des réseaux de neurones récurrents et de leurs représentations." Paris 11, 1993. http://www.theses.fr/1993PA112079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de ce travail a été d'évaluer les possibilités d'application des réseaux connexionnistes aux taches de haut niveau comme le traitement du langage naturel (tln). Un travail de réflexion a permis de cerner les types de réseaux et les techniques de représentation propices à ce domaine d'application. Deux réseaux de la classe des réseaux récurrents à couches ont été sélectionnés pour des études approfondies: le simple récurrent network et le time-unfolding network (tun). Le perceptron multicouches a servi d'étalon. Un domaine d'application mettant à l'épreuve la mémoire et les capacités de représentation des réseaux a aussi été choisi: la prédiction de séquences non déterministes. Un outil de simulation graphique, Baptise Simon, a été crée pour l'étude. Le travail empirique a consisté en trois séries d'expériences qui ont pour but d'étudier les capacités de réseaux dans des conditions se rapprochant progressivement du traitement d'énoncés réels. Cette étude a été approfondie par l'analyse des représentations développées par les réseaux durant leur traitement. Cette recherche semble montrer que les réseaux récurrents ont le potentiel de développer des représentations complexes, ce qui leur permet de traiter de façon efficace les taches qui leur ont été données. En particulier, les performances des tuns dépassent, dans le meilleur des cas, celles de nos meilleurs outils de comparaison. En conclusion, les réseaux récurrents à couches ont une utilité immédiate à la frontière entre la parole (ou l'information est généralement bruitée et incomplète) et le langage (ou les représentations symboliques pures supportent mal ce type d'imprécision). De plus, si un important travail de recherche reste encore à faire, les résultats obtenus permettent d'espérer l'application future de ces réseaux à des taches plus évoluées du tln
8

Brette, Romain. "Modèles Impulsionnels de Réseaux de Neurones Biologiques." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00005340.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les neurosciences computationnelles sont traditionnellement dominées par la conception selon laquelle les neurones codent l'information à travers leur fréquence de décharge. Récemment, les observations expérimentales de synchronisation neuronale ont motivé un renouveau du point de vue impulsionnel, selon lequel la structure temporelle des décharges est pertinente. Les modèles impulsionnels étant moins bien compris que leurs homologues fréquentiels, nous commençons par établir des résultats théoriques généraux, qui nous permettent en particulier de montrer que les modèles impulsionnels répondent de manière reproductible aux stimulations variables apériodiques. Cette propriété nous permet de construire un modèle de sélectivité à l'orientation dans le cortex visuel, le perceptron impulsionnel, qui, en détectant une propriété géométrique de l'image plutôt que l'adéquation entre l'image et un patron, permet d'obtenir avec une architecture feedforward une invariance naturelle au contraste.
9

Tardif, Patrice. "Autostructuration des réseaux de neurones avec retards." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24240/24240.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Maktoobi, Sheler. "Couplage diffractif pour réseaux de neurones optiques." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCD019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les réseaux photoniques à haute performance peuvent être considérés comme des supports pour les futurs systèmes de calcul. Contrairement à l'électronique, les systèmes photoniques offrent des avantages intéressants, par exemple la possibilité de réaliser des réseaux complètement parallèles. Récemment, les réseaux de neurones ont attiré l'attention de la communauté photonique. L'une des difficultés les plus importantes, en matière de réseaux photoniques parallèles à grande échelle, est la réalisation des connexions. La diffraction est exploitée ici comme méthode pour traiter les connexions entre les nœuds (couplage) dans les réseaux de neurones optiques. Dans cette thèse, nous étudions l'extensibilité d'un couplage diffractif en détails de la façon suivante :Tout d'abord, nous commençons par une introduction générale à propos de l'intelligence artificielle, de l'apprentissage machine, des réseaux de neurones artificiels et des réseaux de neurones photoniques. Lors de la conception d'un réseau neuronal fonctionnel, les règles de l'apprentissage machine sont des éléments essentiels pour optimiser une configuration et ainsi obtenir une faible erreur du système, donc les règles de l'apprentissage sont introduites (chapitre 1). Nous étudions les concepts fondamentaux du couplage diffractif dans notre réservoir spatio-temporel. Dans ce cas, la théorie de la diffraction est expliquée. Nous utilisons un schéma analytique pour fournir les limites en termes de taille des réseaux diffractifs, qui font partie intégrante de notre réseau neuronal photonique (chapitre 2). Les concepts du couplage diffractif sont étudiés expérimentalement dans deux expériences différentes afin de confirmer les limites obtenues analytiquement, et pour déterminer le nombre maximum de nœuds pouvant être couplés dans le réseau photonique (Chapitre 3). Les simulations numériques d'une telle expérience sont basées sur deux schémas différents pour calculer numériquement la taille maximale du réseau, qui approche une surface de 100 mm2 (chapitre 4). Enfin, l'ensemble du réseau neuronal photonique est démontré. Nous concevons un réservoir spatialement étendu sur 900 nœuds. En conséquence, notre système généralise la prédiction pour la séquence chaotique de Mackey-Glass (chapitre 5)
Photonic networks with high performance can be considered as substrates for future computing systems. In comparison with electronics, photonic systems have substantial privileges, for instance the possibility of a fully parallel implementation of networks. Recently, neural networks have moved into the center of attention of the photonic community. One of the most important requirements for parallel large-scale photonic networks is to realize the connectivities. Diffraction is considered as a method to process the connections between the nodes (coupling) in optical neural networks. In the current thesis, we evaluate the scalability of a diffractive coupling in more details as follow:First, we begin with a general introductions for artificial intelligence, machine learning, artificial neural network and photonic neural networks. To establish a working neural network, learning rules are an essential part to optimize a configuration for obtaining a low error from the system, hence learning rules are introduced (Chapter 1). We investigate the fundamental concepts of diffractive coupling in our spatio-temporal reservoir. In that case, theory of diffraction is explained. We use an analytical scheme to provide the limits for the size of diffractive networks which is a part of our photonic neural network (Chapter 2). The concepts of diffractive coupling are investigated experimentally by two different experiments to confirm the analytical limits and to obtain maximum number of nodes which can be coupled in the photonic network (Chapter 3). Numerical simulations for such an experimental setup is modeled in two different schemes to obtain the maximum size of network numerically, which approaches a surface of 100 mm2 (Chapter 4). Finally, the complete photonic neural network is demonstrated. We design a spatially extended reservoir for 900 nodes. Consequently, our system generalizes the prediction for the chaotic Mackey–Glass sequence (Chapter 5)

Books on the topic "Elagage de réseaux de neurones":

1

Blayo, François. Les réseaux de neurones artificiels. Paris: Presses universitaires de France, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Kamp, Yves. Réseaux de neurones récursifs pour mémoires associatives. Lausanne: Presses polytechniques et universitaires romandes, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Rollet, Guy. Les RÉSEAUX DE NEURONES DE LA CONSCIENCE - Approche multidisciplinaire du phénomène. Paris: Editions L'Harmattan, 2013.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Personnaz, L. Réseaux de neurones formels pour la modélisation, la commande et la classification. Paris: CNRS Editions, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Amat, Jean-Louis. Techniques avancées pour le traitement de l'information: Réseaux de neurones, logique floue, algorithmes génétiques. 2nd ed. Toulouse: Cépaduès-Ed., 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Journées d'électronique (1989 Lausanne, Switzerland). Réseaux de neurones artificiels: Comptes rendus des Journées d'électronique 1989, Lausanne, 10-12 october 1983. Lausanne: Presses polytechniques romande, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Seidou, Ousmane. Modélisation de la croissance de glace de lac par réseaux de neurones artificiels et estimation du volume de la glace abandonnée sur les berges des réservoirs hydroélectriques pendant les opérations d'hiver. Québec, QC: INRS--ETE, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Horcholle-Bossavit, Ginette. Le neurone computationnel: Histoire d'un siècle de recherches. Paris: CNRS, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Koch, Christof. Biophysics of computation: Information processing in single neurons. New York: Oxford University Press, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Levitan, Irwin B. The neuron: Cell and molecular biology. 3rd ed. Oxford: Oxford University Press, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Elagage de réseaux de neurones":

1

Martaj, Dr Nadia, and Dr Mohand Mokhtari. "Réseaux de neurones." In MATLAB R2009, SIMULINK et STATEFLOW pour Ingénieurs, Chercheurs et Etudiants, 807–78. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. http://dx.doi.org/10.1007/978-3-642-11764-0_17.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Kipnis, C., and E. Saada. "Un lien entre réseaux de neurones et systèmes de particules: Un modele de rétinotopie." In Lecture Notes in Mathematics, 55–67. Berlin, Heidelberg: Springer Berlin Heidelberg, 1996. http://dx.doi.org/10.1007/bfb0094641.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

"4. Les réseaux de neurones artificiels." In L'intelligence artificielle, 91–112. EDP Sciences, 2021. http://dx.doi.org/10.1051/978-2-7598-2580-6.c006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

MOLINIER, Matthieu, Jukka MIETTINEN, Dino IENCO, Shi QIU, and Zhe ZHU. "Analyse de séries chronologiques d’images satellitaires optiques pour des applications environnementales." In Détection de changements et analyse des séries temporelles d’images 2, 125–74. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9057.ch4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre traite des méthodes d’analyse de séries chronologiques denses en télédétection. Il présente les principales exigences en termes de prétraitements des données, puis un aperçu des quatre principaux axes en détection de changement basée sur l'analyse de séries chronologiques denses : carte de classification, classification de trajectoire, frontières statistiques et approches d'ensemble. Il fournit aussi les détails sur deux des algorithmes les plus largement utilisés dans ce contexte d’analyse. Il aborde également la question de l'apprentissage profond pour la télédétection, en détaillant trois types d'architectures de réseau adaptées à l'analyse de séries chronologiques d'images satellitaires : les réseaux de neurones récurrents, les réseaux de neurones convolutifs et les modèles hybrides combinant ces deux derniers modèles de réseau.
5

BYTYN, Andreas, René AHLSDORF, and Gerd ASCHEID. "Systèmes multiprocesseurs basés sur un ASIP pour l’efficacité des CNN." In Systèmes multiprocesseurs sur puce 1, 93–111. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les réseaux de neurones convolutifs (CNN) utilisés pour l’analyse des signaux vidéo sont très gourmands en calculs. De telles applications embarquées nécessitent des implémentations efficaces en termes de coût et de puissance. Ce chapitre présente une solution basée sur un processeur de jeu d’instructions spécifique à l’application (ASIP) qui représente un bon compromis entre efficacité et programmabilité.
6

BENMAMMAR, Badr, and Asma AMRAOUI. "Application de l’intelligence artificielle dans les réseaux de radio cognitive." In Gestion et contrôle intelligents des réseaux, 233–60. ISTE Group, 2020. http://dx.doi.org/10.51926/iste.9008.ch9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce chapitre, nous nous intéressons aux techniques de l’intelligence artificielle (IA) qui ont été les plus utilisées dans les trois dernières années dans la radio cognitive (RC). Nous nous intéressons à des métaheuristiques qui n’étaient pas discutées dans les précédents travaux, comme l’algorithme des lucioles, la recherche coucou, l’algorithme de recherche gravitationnel et l’optimisation par essaim de particules. Nous présentons également les travaux récents liés à l’application des autres techniques d’IA dans la RC, à savoir les algorithmes génétiques, les algorithmes de colonies d’abeilles, la logique floue, la théorie des jeux, les réseaux de neurones, les modèles de Markov, les machines à vecteurs de support, le raisonnement à partir de cas, les arbres de décision, les réseaux bayésiens, les systèmes multi-agents et l’apprentissage par renforcement.
7

COGRANNE, Rémi, Marc CHAUMONT, and Patrick BAS. "Stéganalyse : détection d’information cachée dans des contenus multimédias." In Sécurité multimédia 1, 261–303. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9026.ch8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre détaille comment analyser une image numérique en vue d’obtenir des informations sur les données cachées par une méthode de stéganographie. Après une présentation des objectifs, plusieurs stratégies de détection sont ensuite détaillées, notamment les méthodes statistiques utilisant le rapport de vraisemblance, les méthodes par apprentissage reposant soit sur l’extraction de caractéristiques, soit sur l’utilisation de réseaux de neurones profonds.
8

ATTO, Abdourrahmane M., Héla HADHRI, Flavien VERNIER, and Emmanuel TROUVÉ. "Apprentissage multiclasse multi-étiquette de changements d’état à partir de séries chronologiques d’images." In Détection de changements et analyse des séries temporelles d’images 2, 247–71. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9057.ch6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre étudie les capacités de généralisation d’une bibliothèque de réseaux de neurones convolutifs pour la classification d’états de surface terrestre dans le temps, avec une granularité variable sur la nature des états. L’ensemble de données utilisé pour réaliser cette étude est constitué d'images à sémantique descriptible au sens de propriétés géophysiques et des impacts des conditions météorologiques en zone de glaciers.
9

DE’ FAVERI TRON, Alvise. "La détection d’intrusion au moyen des réseaux de neurones : un tutoriel." In Optimisation et apprentissage, 211–47. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9071.ch8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La détection d'intrusion est un concept clé dans la sécurité. Elle vise à analyser l'état actuel d'un réseau en temps réel et à identifier les anomalies potentielles qui se produisent dans le système. Un réseau de neurones à réaction formé sur l'ensemble de données NSL-KDD a pour objectif de maximiser la précision de la reconnaissance de nouveaux échantillons de données.
10

ATTO, Abdourrahmane M., Fatima KARBOU, Sophie GIFFARD-ROISIN, and Lionel BOMBRUN. "Clustering fonctionnel de séries d’images par entropies relatives." In Détection de changements et analyse des séries temporelles d’images 1, 121–38. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre traite l'extraction d'attributs à partir d'ondelettes et de filtres ConvNet (réseaux de neurones à convolution) pour l'analyse non supervisée de séries chronologiques d'images. Nous exploitons les capacités des ondelettes et des filtres neuro-convolutifs à capturer des propriétés d'invariance non-triviales, ainsi que les nouvelles solutions de centroïdes proposées dans ce chapitre, pour l'analyse d'attributs de hauts niveaux par entropie relative. La détection d'anomalies et le clustering fonctionnel d'évolution sont développés à partir de ce cadre.

Conference papers on the topic "Elagage de réseaux de neurones":

1

Fourcade, A. "Apprentissage profond : un troisième oeil pour les praticiens." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
« L’intelligence artificielle connaît un essor fulgurant depuis ces dernières années. Lapprentissage automatique et plus précisément lapprentissage profond grâce aux réseaux de neurones convolutifs ont permis des avancées majeures dans le domaine de la reconnaissance des formes. Cette présentation fait suite à mon travail de thèse. La première partie retrace lhistorique et décrit les principes de fonctionnement de ces réseaux. La seconde présente une revue de la littérature de leurs applications dans la pratique médicale de plusieurs spécialités, pour des tâches diagnostiques nécessitant une démarche visuelle (classification dimages et détection de lésions). Quinze articles, évaluant les performances de ces solutions dautomatisation, ont été analysés. La troisième partie est une discussion à propos des perspectives et des limites présentées par les réseaux de neurones convolutifs, ainsi que leurs possibles applications en chirurgie orale. »
2

Gresse, Adrien, Richard Dufour, Vincent Labatut, Mickael Rouvier, and Jean-François Bonastre. "Mesure de similarité fondée sur des réseaux de neurones siamois pour le doublage de voix." In XXXIIe Journées d’Études sur la Parole. ISCA: ISCA, 2018. http://dx.doi.org/10.21437/jep.2018-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

ORLIANGES, Jean-Christophe, Younes El Moustakime, Aurelian Crunteanu STANESCU, Ricardo Carrizales Juarez, and Oihan Allegret. "Retour vers le perceptron - fabrication d’un neurone synthétique à base de composants électroniques analogiques simples." In Les journées de l'interdisciplinarité 2023. Limoges: Université de Limoges, 2024. http://dx.doi.org/10.25965/lji.761.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les avancées récentes dans le domaine de l'intelligence artificielle (IA), en particulier dans la reconnaissance d'images et le traitement du langage naturel, ouvrent de nouvelles perspectives qui vont bien au-delà de la recherche académique. L'IA, portée par ces succès populaires, repose sur des algorithmes basés sur des "réseaux de neurones" et elle se nourrit des vastes quantités d'informations accessibles sur Internet, notamment via des ressources telles que l'encyclopédie en ligne Wikipédia, la numérisation de livres et de revues, ainsi que des bibliothèques de photographies. Si l'on en croit les propres dires du programme informatique ChatGPT, son réseau de neurones compte plus de 175 millions de paramètres. Quant à notre cerveau, qui était le modèle initial de cette approche connexionniste, il compte environ 86 milliards de neurones formant un vaste réseau interconnecté... Dans ce travail, nous proposons une approche plus modeste de l'IA en nous contentant de décrire les résultats que l'on peut obtenir avec un seul neurone synthétique isolé, le modèle historique du perceptron (proposé par Frank Rosenblatt dans les années 1950). C'est un "Retour vers le futur" de l'IA qui est entrepris pour fabriquer et tester un neurone artificiel à partir de composants électroniques simples. Celui-ci doit permettre de différencier un chien d'un chat à partir de données anatomiques collectées sur ces animaux.
4

Walid, Tazarki, Fareh Riadh, and Chichti Jameleddine. "La Prevision Des Crises Bancaires: Un essai de modélisation par la méthode des réseaux de neurones [Not available in English]." In International Conference on Information and Communication Technologies from Theory to Applications - ICTTA'08. IEEE, 2008. http://dx.doi.org/10.1109/ictta.2008.4529985.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Kim, Lila, and Cédric Gendrot. "Classification automatique de voyelles nasales pour une caractérisation de la qualité de voix des locuteurs par des réseaux de neurones convolutifs." In XXXIVe Journées d'Études sur la Parole -- JEP 2022. ISCA: ISCA, 2022. http://dx.doi.org/10.21437/jep.2022-82.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Gendrot, Cedric, Emmanuel Ferragne, and Anaïs Chanclu. "Analyse phonétique de la variation inter-locuteurs au moyen de réseaux de neurones convolutifs : voyelles seules et séquences courtes de parole." In XXXIVe Journées d'Études sur la Parole -- JEP 2022. ISCA: ISCA, 2022. http://dx.doi.org/10.21437/jep.2022-94.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Quintas, Sebastião, Alberto Abad, Julie Mauclair, Virginie Woisard, and Julien Pinquier. "Utilisation de réseaux de neurones profonds avec attention pour la prédiction de l’intelligibilité de la parole de patients atteints de cancers ORL." In XXXIVe Journées d'Études sur la Parole -- JEP 2022. ISCA: ISCA, 2022. http://dx.doi.org/10.21437/jep.2022-7.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography