Добірка наукової літератури з теми "Réseaux de neurones artificiels"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Réseaux de neurones artificiels".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "Réseaux de neurones artificiels"
-BORNE, Pierre. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 31. http://dx.doi.org/10.3845/ree.2006.074.
Повний текст джерела-BORNE, Pierre. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 37. http://dx.doi.org/10.3845/ree.2006.075.
Повний текст джерела-Y. HAGGEGE, Joseph. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 43. http://dx.doi.org/10.3845/ree.2006.076.
Повний текст джерела-BENREJEB, Mohamed. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 47. http://dx.doi.org/10.3845/ree.2006.077.
Повний текст джерела-Y. HAGGEGE, Joseph. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 50. http://dx.doi.org/10.3845/ree.2006.078.
Повний текст джерела-BENREJEB, Mohamed. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 55. http://dx.doi.org/10.3845/ree.2006.079.
Повний текст джерелаBélanger, M., N. El-Jabi, D. Caissie, F. Ashkar, and J. M. Ribi. "Estimation de la température de l'eau de rivière en utilisant les réseaux de neurones et la régression linéaire multiple." Revue des sciences de l'eau 18, no. 3 (April 12, 2005): 403–21. http://dx.doi.org/10.7202/705565ar.
Повний текст джерелаMézard, Marc, and Jean-Pierre Nadal. "Réseaux de neurones et physique statistique." Intellectica. Revue de l'Association pour la Recherche Cognitive 9, no. 1 (1990): 213–45. http://dx.doi.org/10.3406/intel.1990.884.
Повний текст джерелаJelassi, Khaled, Najiba Bellaaj-Merabet, and Bruno Dagues. "Estimation du flux par réseaux de neurones." Revue internationale de génie électrique 7, no. 1-2 (April 30, 2004): 105–31. http://dx.doi.org/10.3166/rige.7.105-131.
Повний текст джерелаLaks, Bernard. "Réseaux de neurones et syllabation du français." Linx 34, no. 1 (1996): 327–46. http://dx.doi.org/10.3406/linx.1996.1440.
Повний текст джерелаДисертації з теми "Réseaux de neurones artificiels"
Mignacco, Francesca. "Statistical physics insights on the dynamics and generalisation of artificial neural networks." Thesis, université Paris-Saclay, 2022. http://www.theses.fr/2022UPASP074.
Повний текст джерелаMachine learning technologies have become ubiquitous in our daily lives. However, this field still remains largely empirical and its scientific stakes lack a deep theoretical understanding.This thesis explores the mechanisms underlying learning in artificial neural networks through the prism of statistical physics. In the first part, we focus on the static properties of learning problems, that we introduce in Chapter 1.1. In Chapter 1.2, we consider the prototype classification of a binary mixture of Gaussian clusters and we derive rigorous closed-form expressions for the errors in the infinite-dimensional regime, that we apply to shed light on the role of different problem parameters. In Chapter 1.3, we show how to extend the teacher-student perceptron model to encompass multi-class classification deriving asymptotic expressions for the optimal performance and the performance of regularised empirical risk minimisation. In the second part, we turn our focus to the dynamics of learning, that we introduce in Chapter 2.1. In Chapter 2.2, we show how to track analytically the training dynamics of multi-pass stochastic gradient descent (SGD) via dynamical mean-field theory for generic non convex loss functions and Gaussian mixture data. Chapter 2.3 presents a late-time analysis of the effective noise introduced by SGD in the underparametrised and overparametrised regimes. In Chapter 2.4, we take the sign retrieval problem as a benchmark highly non-convex optimisation problem and show that stochasticity is crucial to achieve perfect generalisation. The third part of the thesis contains the conclusions and some future perspectives
Chevallier, Sylvain. "Implémentation d'un système préattentionnel avec des neurones impulsionnels." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00472849.
Повний текст джерелаWenzek, Didier. "Construction de réseaux de neurones." Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343569.
Повний текст джерелаTsopze, Norbert. "Treillis de Galois et réseaux de neurones : une approche constructive d'architecture des réseaux de neurones." Thesis, Artois, 2010. http://www.theses.fr/2010ARTO0407/document.
Повний текст джерелаThe artificial neural networks are successfully applied in many applications. But theusers are confronted with two problems : defining the architecture of the neural network able tosolve their problems and interpreting the network result. Many research works propose some solutionsabout these problems : to find out the architecture of the network, some authors proposeto use the problem domain theory and deduct the network architecture and some others proposeto dynamically add neurons in the existing networks until satisfaction. For the interpretabilityproblem, solutions consist to extract rules which describe the network behaviour after training.The contributions of this thesis concern these problems. The thesis are limited to the use of theartificial neural networks in solving the classification problem.In this thesis, we present a state of art of the existing methods of finding the neural networkarchitecture : we present a theoritical and experimental study of these methods. From this study,we observe some limits : difficulty to use some method when the knowledges are not available ;and the network is seem as ’black box’ when using other methods. We a new method calledCLANN (Concept Lattice-based Artificial Neural Network) which builds from the training dataa semi concepts lattice and translates this semi lattice into the network architecture. As CLANNis limited to the two classes problems, we propose MCLANN which extends CLANN to manyclasses problems.A new method of rules extraction called ’MaxSubsets Approach’ is also presented in thisthesis. Its particularity is the possibility of extracting the two kind of rules (If then and M-of-N)from an internal structure.We describe how to explain the MCLANN built network result aboutsome inputs
Côté, Marc-Alexandre. "Réseaux de neurones génératifs avec structure." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10489.
Повний текст джерелаVoegtlin, Thomas. "Réseaux de neurones et auto-référence." Lyon 2, 2002. http://theses.univ-lyon2.fr/documents/lyon2/2002/voegtlin_t.
Повний текст джерелаThe purpose of this thesis is to present a class of unsupervised learning algorithms for recurrent networks. In the first part (chapters 1 to 4), I propose a new approach to this question, based on a simple principle: self-reference. A self-referent algorithm is not based on the minimization of an objective criterion, such as an error function, but on a subjective function, that depends on what the network has previously learned. An example of a supervised recurrent network where learning is self-referent is the Simple Recurrent Network (SRN) by Elman (1990). In the SRN, self-reference is applied to the supervised error back-propagation algorithm. In this aspect, the SRN differs from other generalizations of back-propagation to recurrent networks, that use an objective criterion, such as Back-Propagation Through Time, or Real-Time Recurrent Learning. In this thesis, I show that self-reference can be combined with several well-known unsupervised learning methods: the Self-Organizing Map (SOM), Principal Components Analysis (PCA), and Independent Components Analysis (ICA). These techniques are classically used to represent static data. Self-reference allows one to generalize these techniques to time series, and to define unsupervised learning algorithms for recurrent networks
Teytaud, Olivier. "Apprentissage, réseaux de neurones et applications." Lyon 2, 2001. http://theses.univ-lyon2.fr/documents/lyon2/2001/teytaud_o.
Повний текст джерелаJodouin, Jean-François. "Réseaux de neurones et traitement du langage naturel : étude des réseaux de neurones récurrents et de leurs représentations." Paris 11, 1993. http://www.theses.fr/1993PA112079.
Повний текст джерелаBrette, Romain. "Modèles Impulsionnels de Réseaux de Neurones Biologiques." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00005340.
Повний текст джерелаTardif, Patrice. "Autostructuration des réseaux de neurones avec retards." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24240/24240.pdf.
Повний текст джерелаКниги з теми "Réseaux de neurones artificiels"
Michel, Verleysen, ed. Les réseaux de neurones artificiels. Paris: Presses universitaires de France, 1996.
Знайти повний текст джерелаKamp, Yves. Réseaux de neurones récursifs pour mémoires associatives. Lausanne: Presses polytechniques et universitaires romandes, 1990.
Знайти повний текст джерелаPersonnaz, L. Réseaux de neurones formels pour la modélisation, la commande et la classification. Paris: CNRS Editions, 2003.
Знайти повний текст джерелаAmat, Jean-Louis. Techniques avancées pour le traitement de l'information: Réseaux de neurones, logique floue, algorithmes génétiques. 2nd ed. Toulouse: Cépaduès-Ed., 2002.
Знайти повний текст джерелаJournées d'électronique (1989 Lausanne, Switzerland). Réseaux de neurones artificiels: Comptes rendus des Journées d'électronique 1989, Lausanne, 10-12 october 1983. Lausanne: Presses polytechniques romande, 1989.
Знайти повний текст джерелаSeidou, Ousmane. Modélisation de la croissance de glace de lac par réseaux de neurones artificiels et estimation du volume de la glace abandonnée sur les berges des réservoirs hydroélectriques pendant les opérations d'hiver. Québec, QC: INRS--ETE, 2005.
Знайти повний текст джерелаLevitan, Irwin B. The neuron: Cell and molecular biology. 3rd ed. Oxford: Oxford University Press, 2002.
Знайти повний текст джерелаLevitan, Irwin B. The neuron: Cell and molecular biology. 2nd ed. New York: Oxford University Press, 1997.
Знайти повний текст джерелаLevitan, Irwin B. The neuron: Cell and molecular biology. New York: Oxford University Press, 1991.
Знайти повний текст джерелаSuzanne, Tyc-Dumont, ed. Le neurone computationnel: Histoire d'un siècle de recherches. Paris: CNRS, 2005.
Знайти повний текст джерелаЧастини книг з теми "Réseaux de neurones artificiels"
Martaj, Dr Nadia, and Dr Mohand Mokhtari. "Réseaux de neurones." In MATLAB R2009, SIMULINK et STATEFLOW pour Ingénieurs, Chercheurs et Etudiants, 807–78. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. http://dx.doi.org/10.1007/978-3-642-11764-0_17.
Повний текст джерелаKipnis, C., and E. Saada. "Un lien entre réseaux de neurones et systèmes de particules: Un modele de rétinotopie." In Lecture Notes in Mathematics, 55–67. Berlin, Heidelberg: Springer Berlin Heidelberg, 1996. http://dx.doi.org/10.1007/bfb0094641.
Повний текст джерела"4. Les réseaux de neurones artificiels." In L'intelligence artificielle, 91–112. EDP Sciences, 2021. http://dx.doi.org/10.1051/978-2-7598-2580-6.c006.
Повний текст джерелаBENMAMMAR, Badr, and Asma AMRAOUI. "Application de l’intelligence artificielle dans les réseaux de radio cognitive." In Gestion et contrôle intelligents des réseaux, 233–60. ISTE Group, 2020. http://dx.doi.org/10.51926/iste.9008.ch9.
Повний текст джерелаCOGRANNE, Rémi, Marc CHAUMONT, and Patrick BAS. "Stéganalyse : détection d’information cachée dans des contenus multimédias." In Sécurité multimédia 1, 261–303. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9026.ch8.
Повний текст джерелаZHANG, Hanwei, Teddy FURON, Laurent AMSALEG, and Yannis AVRITHIS. "Attaques et défenses de réseaux de neurones profonds : le cas de la classification d’images." In Sécurité multimédia 1, 51–85. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9026.ch2.
Повний текст джерелаТези доповідей конференцій з теми "Réseaux de neurones artificiels"
Fourcade, A. "Apprentissage profond : un troisième oeil pour les praticiens." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601014.
Повний текст джерелаGresse, Adrien, Richard Dufour, Vincent Labatut, Mickael Rouvier, and Jean-François Bonastre. "Mesure de similarité fondée sur des réseaux de neurones siamois pour le doublage de voix." In XXXIIe Journées d’Études sur la Parole. ISCA: ISCA, 2018. http://dx.doi.org/10.21437/jep.2018-2.
Повний текст джерелаWalid, Tazarki, Fareh Riadh, and Chichti Jameleddine. "La Prevision Des Crises Bancaires: Un essai de modélisation par la méthode des réseaux de neurones [Not available in English]." In International Conference on Information and Communication Technologies from Theory to Applications - ICTTA'08. IEEE, 2008. http://dx.doi.org/10.1109/ictta.2008.4529985.
Повний текст джерела