Academic literature on the topic 'Compression de réseaux neuronaux'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Compression de réseaux neuronaux.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Compression de réseaux neuronaux"

1

Wendling, Fabrice. "Modélisation des réseaux neuronaux épileptogènes." Neurophysiologie Clinique 48, no. 4 (2018): 248. http://dx.doi.org/10.1016/j.neucli.2018.06.074.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Meunier, Claude. "La physique des réseaux neuronaux." Intellectica. Revue de l'Association pour la Recherche Cognitive 9, no. 1 (1990): 313–21. http://dx.doi.org/10.3406/intel.1990.890.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Venance, Laurent. "Dynamique et physiopathologie des réseaux neuronaux." L’annuaire du Collège de France, no. 112 (April 1, 2013): 884–86. http://dx.doi.org/10.4000/annuaire-cdf.1083.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Venance, Laurent. "Dynamique et physiopathologie des réseaux neuronaux." L’annuaire du Collège de France, no. 114 (July 1, 2015): 1030–32. http://dx.doi.org/10.4000/annuaire-cdf.12073.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Venance, Laurent. "Dynamique et physiopathologie des réseaux neuronaux." L’annuaire du Collège de France, no. 115 (November 1, 2016): 913–16. http://dx.doi.org/10.4000/annuaire-cdf.12639.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Venance, Laurent. "Dynamique et physiopathologie des réseaux neuronaux." L’annuaire du Collège de France, no. 111 (April 1, 2012): 909–11. http://dx.doi.org/10.4000/annuaire-cdf.1706.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Deniau, Jean-Michel. "Dynamique et physiopathologie des réseaux neuronaux." L’annuaire du Collège de France, no. 108 (December 1, 2008): 964–69. http://dx.doi.org/10.4000/annuaire-cdf.254.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Venance, Laurent. "Dynamique et physiopathologie des réseaux neuronaux." L’annuaire du Collège de France, no. 113 (April 1, 2014): 947–49. http://dx.doi.org/10.4000/annuaire-cdf.2708.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Deniau, Jean-Michel, and Laurent Venance. "Dynamique et physiopathologie des réseaux neuronaux." L’annuaire du Collège de France, no. 109 (March 1, 2010): 1082–86. http://dx.doi.org/10.4000/annuaire-cdf.456.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Sauteur, Tania. "Comment les cerveaux humains encodent-ils leurs propres processus d'apprentissage et de mémorisation et comment la topologie du réseau social élargi d'une personne présente-t-elle des schémas neuronaux similaires à ceux de ses ami-e-s et communautés ?" Cortica 2, no. 2 (2023): 157–63. http://dx.doi.org/10.26034/cortica.2023.4208.

Full text
Abstract:
Le présent Cortica Journal Club permet d’explorer les fondements sous-jacents de l’apprentissage et de la mémoire, éclairant comment ces processus se reflètent et interagissent avec la topologie des réseaux sociaux élargis. En effet, les cerveaux humains évaluent instinctivement la position des individus au sein de leur réseau social. Les similitudes dans les réponses cérébrales sont corrélées à la force des liens d’amitié, tandis que la compréhension de la structure globale du réseau reflète l'assimilation de topologies à la fois sociales et cognitives. A l’avenir, la combinaison de méthodes
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Compression de réseaux neuronaux"

1

Foucher, Christophe. "Analyse et amélioration d'algorithmes neuronaux et non neuronaux de quantification vectorielle pour la compression d'images." Rennes 1, 2002. http://www.theses.fr/2002REN10120.

Full text
Abstract:
Dans le contexte de l'imagerie satellite, nous avons travaillé sur la quantification vectorielle (QV) qui permet un meilleur compromis qualité/compression avec un codage à longueur fixe, plus robuste. Pour guider le choix d'un algorithme, nous avons en analysé plusieurs selon leurs caractéristiques de fonctionnement et leurs performances. Certains ont été simulés sur des images réelles. Un point faible de la QV est la complexité algorithmique du codage. Les évaluations ont confirmé l'intérêt des techniques de QV avec contrainte pour la réduire mais au détriment de la qualité. C'est pourquoi no
APA, Harvard, Vancouver, ISO, and other styles
2

Dupont, Robin. "Deep Neural Network Compression for Visual Recognition." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS565.

Full text
Abstract:
Grâce à la miniaturisation de l'électronique, les dispositifs embarqués sont devenus omniprésents depuis les années 2010, réalisant diverses tâches autour de nous. À mesure que leur utilisation augmente, la demande pour des dispositifs traitant les données et prenant des décisions complexes de manière efficace s'intensifie. Les réseaux de neurones profonds sont puissants pour cet objectif, mais souvent trop lourds pour les appareils embarqués. Il est donc impératif de compresser ces réseaux sans compromettre leur performance. Cette thèse introduit deux méthodes innovantes centrées sur l'élagag
APA, Harvard, Vancouver, ISO, and other styles
3

Leconte, Louis. "Compression and federated learning : an approach to frugal machine learning." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS107.

Full text
Abstract:
Les appareils et outils “intelligents” deviennent progressivement la norme, la mise en œuvre d'algorithmes basés sur des réseaux neuronaux artificiels se développant largement. Les réseaux neuronaux sont des modèles non linéaires d'apprentissage automatique avec de nombreux paramètres qui manipulent des objets de haute dimension et obtiennent des performances de pointe dans divers domaines, tels que la reconnaissance d'images, la reconnaissance vocale, le traitement du langage naturel et les systèmes de recommandation.Toutefois, l'entraînement d'un réseau neuronal sur un appareil à faible capa
APA, Harvard, Vancouver, ISO, and other styles
4

Yvinec, Edouard. "Efficient Neural Networks : Post Training Pruning and Quantization." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS581.

Full text
Abstract:
Les réseaux de neurones profonds sont devenus les modèles les plus utilisés, que ce soit en vision par ordinateur ou en traitement du langage. Depuis le sursaut provoqué par l'utilisation des ordinateurs modernes, en 2012, la taille de ces modèles n'a fait qu'augmenter, aussi bien en matière de taille mémoire qu'en matière de coût de calcul. Ce phénomène a grandement limité le déploiement industriel de ces modèles. Spécifiquement, le cas de l'IA générative, et plus particulièrement des modèles de langue tels que GPT, a fait atteindre une toute nouvelle dimension à ce problème. En effet, ces ré
APA, Harvard, Vancouver, ISO, and other styles
5

Louis, Thomas. "Conventionnel ou bio-inspiré ? Stratégies d'optimisation de l'efficacité énergétique des réseaux de neurones pour environnements à ressources limitées." Electronic Thesis or Diss., Université Côte d'Azur, 2025. http://www.theses.fr/2025COAZ4001.

Full text
Abstract:
Intégrer des algorithmes d'intelligence artificielle (IA) directement dans des satellites présente de nombreux défis. Ces systèmes embarqués, fortement limités en consommation d'énergie et en empreinte mémoire, doivent également résister aux interférences. Cela nécessite systématiquement l'utilisation de systèmes sur puce (SoC) afin de combiner deux systèmes dits « hétérogènes » : un microcontrôleur polyvalent et un accélérateur de calcul économe en énergie (comme un FPGA ou un ASIC). Pour relever les défis liés au portage de telles architectures, cette thèse se concentre sur l'optimisation et
APA, Harvard, Vancouver, ISO, and other styles
6

Hubens, Nathan. "Towards lighter and faster deep neural networks with parameter pruning." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAS025.

Full text
Abstract:
Depuis leur résurgence en 2012, les réseaux de neurones profonds sont devenus omniprésents dans la plupart des disciplines de l'intelligence artificielle, comme la reconnaissance d'images, le traitement de la parole et le traitement du langage naturel. Cependant, au cours des dernières années, les réseaux de neurones sont devenus exponentiellement profonds, faisant intervenir de plus en plus de paramètres. Aujourd'hui, il n'est pas rare de rencontrer des architectures impliquant plusieurs milliards de paramètres, alors qu'elles en contenaient le plus souvent des milliers il y a moins de dix an
APA, Harvard, Vancouver, ISO, and other styles
7

Resmerita, Diana. "Compression pour l'apprentissage en profondeur." Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4043.

Full text
Abstract:
Les voitures autonomes sont des applications complexes qui nécessitent des machines puissantes pour pouvoir fonctionner correctement. Des tâches telles que rester entre les lignes blanches, lire les panneaux ou éviter les obstacles sont résolues en utilisant plusieurs réseaux neuronaux convolutifs (CNN) pour classer ou détecter les objets. Il est très important que tous les réseaux fonctionnent en parallèle afin de transmettre toutes les informations nécessaires et de prendre une décision commune. Aujourd'hui, à force de s'améliorer, les réseaux sont devenus plus gros et plus coûteux en termes
APA, Harvard, Vancouver, ISO, and other styles
8

Fernandez, Brillet Lucas. "Réseaux de neurones CNN pour la vision embarquée." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM043.

Full text
Abstract:
Pour obtenir des hauts taux de détection, les CNNs requièrent d'un grand nombre de paramètres à stocker, et en fonction de l'application, aussi un grand nombre d'opérations. Cela complique gravement le déploiement de ce type de solutions dans les systèmes embarqués. Ce manuscrit propose plusieurs solutions à ce problème en visant une coadaptation entre l'algorithme, l'application et le matériel.Dans ce manuscrit, les principaux leviers permettant de fixer la complexité computationnelle d'un détecteur d'objets basé sur les CNNs sont identifiés et étudies. Lorsqu'un CNN est employé pour détecter
APA, Harvard, Vancouver, ISO, and other styles
9

Verma, Sagar. "Deep Neural Network Modeling of Electric Motors." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPAST088.

Full text
Abstract:
Cette thèse traite de l’application des réseaux de neurones dans la résolution de problèmes liés aux moteurs électriques. Le chapitre 2 contribue à identifier une structure de réseau de neurones capable d’apprendre la relation multi-variée entre différents signaux d’un moteur électrique. La structure identifiée est ensuite utilisée pour l’estimation vitesse- couple à partir des courants et des tensions.Le chapitre 3 se concentre sur la détection et la correction de défauts de mesure. Notre méthode prend en compte les défauts de capteurs électriques, les défauts mécaniques et l’estimation de tempé
APA, Harvard, Vancouver, ISO, and other styles
10

Metz, Clément. "Codages optimisés pour la conception d'accélérateurs matériels de réseaux de neurones profonds." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPAST190.

Full text
Abstract:
Par leurs domaines d'application très divers (santé, énergie, défense, finance, navigation autonome...), les réseaux de neurones constituent une composante importante des outils d'apprentissage automatique. Les performances des réseaux de neurones sont grandement influencées par la complexité de leur architecture en nombre de couches, de neurones et de connexions. Mais l'entraînement et l'inférence de réseaux de plus en plus grands implique une sollicitation croissante de ressources matérielles et des temps de calcul plus longs. A l'inverse, leur portabilité se retrouve bridée sur des systèmes
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Compression de réseaux neuronaux"

1

Kamp, Yves. Réseaux de neurones récursifs pour mémoires associatives. Presses polytechniques et universitaires romandes, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Hawkins, Jeff. Intelligence. CampusPress, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Maren, Alianna. Handbook of Neural Computing Applications. Academic Press, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Artificial Neural Networks in Engineering Conference (1991 St. Louis, Mo.). Intelligent engineering systems through artificial neural networks: Proceedings of the Artificial Neural Networks in Engineering (ANNIE '91) Conference, held November 10-13, 1991, in St. Louis, Missouri, U.S.A. Edited by Dagli Cihan H. 1949-, Kumara Soundar T. 1952-, and Shin Yung C. ASME Press, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Amat, Jean-Louis. Techniques avancées pour le traitement de l'information: Réseaux de neurones, logique floue, algorithmes génétiques. 2nd ed. Cépaduès-Ed., 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Neural Information Processing Systems Conference. Proceedings of the 2003 conference. MIT, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Heaton, Jeff. Introduction to neural networks for C#. 2nd ed. Heaton Research Inc., 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

International Conference on Neural Information Processing (3rd 1996 Hong Kong). Progress in neural information processing: ICONIP'96 : proceedings of the International Conference on Neural Information Processing, Hong Kong, 24-27 September 1996. Springer, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

1931-, Taylor John Gerald, ed. Neural networks and their applications. UNICOM, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Rojas, Raúl. Neural networks: A systematic introduction. Springer-Verlag, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Compression de réseaux neuronaux"

1

ZHANG, Hanwei, Teddy FURON, Laurent AMSALEG, and Yannis AVRITHIS. "Attaques et défenses de réseaux de neurones profonds : le cas de la classification d’images." In Sécurité multimédia 1. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9026.ch2.

Full text
Abstract:
L’apprentissage automatique utilisant des réseaux neuronaux profonds appliqués à la reconnaissance d’images fonctionne extrêmement bien. Néanmoins, il est possible de modifier intentionnellement et très légèrement les images, modifications quasi invisibles à nos yeux, pour leurrer le système de classification et lui faire classer dans une catégorie visuelle erronée tel ou tel contenu. Ce chapitre dresse un panorama de ces attaques intentionnelles, mais aussi des mécanismes de défense visant à les déjouer.
APA, Harvard, Vancouver, ISO, and other styles
2

Lévy, Jean-Claude S. "4 - Complexité et désordre des structures magnétiques, application aux réseaux neuronaux." In Complexité et désordre. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-1961-4-005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Lévy, Jean-Claude S. "4 - Complexité et désordre des structures magnétiques, application aux réseaux neuronaux." In Complexité et désordre. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-1961-4.c005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Lévy, Jean-Claude S. "4 - Complexité et désordre des structures magnétiques, application aux réseaux neuronaux." In Complexité et désordre. EDP Sciences, 2020. https://doi.org/10.1051/978-2-7598-1777-1.c005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

BELMONTE, Romain, Pierre TIRILLY, Ioan Marius BILASCO, Nacim IHADDADENE, and Chaabane DJERABA. "Détection de points de repères faciaux par modélisation spatio-temporelle." In Analyse faciale en conditions non contrôlées. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9111.ch3.

Full text
Abstract:
Ce chapitre décrit les solutions actuelles en matière de modélisation spatio-temporelle. Il passe en revue les caractéristiques artisanales et les approches reposant sur l'apprentissage profond. Il décrit également les architectures développées pour étendre la connectivité des détecteurs de points de repère basés sur les réseaux neuronaux convolutionnels afin d'inclure le mouvement local par le biais d'une connectivité précoce. Il analyse les performances de chaque modèle en termes de vitesse, de taille et de nombre de paramètres. La complémentarité entre le mouvement local et le mouvement global a également fait l'objet d’expérimentations. Le protocole expérimental, les détails d'implémentation et les résultats sont présentés avec leur analyse. Des expérimentations sur deux ensembles de données, 300VW et SNaP-2DFe sont fournies afin d'évaluer les résultats obtenus et de les comparer avec les approches de l'état de l'art.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Compression de réseaux neuronaux"

1

Mdhaffar, Salima, Antoine Laurent, and Yannick Estève. "Etude de performance des réseaux neuronaux récurrents dans le cadre de la campagne d'évaluation Multi-Genre Broadcast challenge 3 (MGB3)." In XXXIIe Journées d’Études sur la Parole. ISCA, 2018. http://dx.doi.org/10.21437/jep.2018-20.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Compression de réseaux neuronaux"

1

Djamai, N., R. A. Fernandes, L. Sun, F. Canisius, and G. Hong. Python version of Simplified Level 2 Prototype Processor for retrieving canopy biophysical variables from Sentinel-2 multispectral data. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/p8stuehwyc.

Full text
Abstract:
La mission Sentinel-2 de Copernicus est conçue pour fournir des données pouvant être utilisées pour cartographier les variables biophysiques de la végétation a une échelle globale. Les estimations des variables biophysiques de la végétation ne sont pas encore produites de manière opérationnelle par le segment au sol de Sentinel-2. Plutôt, un algorithme de prédiction, appelé Simplified Level 2 Prototype Processor (SL2P), a été défini par l'Agence Spatiale Européenne. SL2P utilise deux réseaux neuronaux à rétropropagation, un pour estimer le variable biophysique de la végétation et l’autre pour
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!