Academic literature on the topic 'Réseaux de neurones binaires'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Réseaux de neurones binaires.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Réseaux de neurones binaires"

1

Le Bris, Arnaud, Cyril Wendl, Nesrine Chehata, Anne Puissant, and Tristan Postadjian. "Fusion tardive d'images SPOT-6/7 et de données multi-temporelles Sentinel-2 pour la détection de la tâche urbaine." Revue Française de Photogrammétrie et de Télédétection, no. 217-218 (September 21, 2018): 87–97. http://dx.doi.org/10.52638/rfpt.2018.415.

Full text
Abstract:
La fusion d'images multispectrales à très haute résolution spatiale (THR) avec des séries temporelles d'images moins résolues spatialement mais comportant plus de bandes spectrales permet d'améliorer la classification de l'occupation du sol. Elle tire en effet le meilleur parti des points forts géométriques et sémantiques de ces deux sources. Ce travail s'intéresse à un processus d'extraction automatique de la tache urbaine fondé sur la fusion tardive de classifications calculées respectivement à partir d'images satellitaires Sentinel-2 et SPOT-6/7. Ces deux sources sont d'abord classées indépendamment selon 5 classes, respectivement par forêts aléatoires et réseaux de neurones convolutifs. Les résultats sont alors fusionnés afin d'extraire les bâtiments le plus finement possible. Cette étape de fusion inclut une fusion au niveau pixellaire suivie d'une étape de régularisation spatiale intégrant un terme lié au contraste de l'image. Le résultat obtenu connaît ensuite une seconde fusion afin d'en déduire une tache urbaine : une mesure a priori de se trouver en zone urbaine est calculée à partir des objets bâtiments détectés précédemment et est fusionnée avec une classification binaire dérivée de la classification originale des données Sentinel-2.
APA, Harvard, Vancouver, ISO, and other styles
2

-BORNE, Pierre. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 31. http://dx.doi.org/10.3845/ree.2006.074.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

-BORNE, Pierre. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 37. http://dx.doi.org/10.3845/ree.2006.075.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

-Y. HAGGEGE, Joseph. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 43. http://dx.doi.org/10.3845/ree.2006.076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

-BENREJEB, Mohamed. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 47. http://dx.doi.org/10.3845/ree.2006.077.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

-Y. HAGGEGE, Joseph. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 50. http://dx.doi.org/10.3845/ree.2006.078.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

-BENREJEB, Mohamed. "Les réseaux de neurones." Revue de l'Electricité et de l'Electronique -, no. 08 (2006): 55. http://dx.doi.org/10.3845/ree.2006.079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Bélanger, M., N. El-Jabi, D. Caissie, F. Ashkar, and J. M. Ribi. "Estimation de la température de l'eau de rivière en utilisant les réseaux de neurones et la régression linéaire multiple." Revue des sciences de l'eau 18, no. 3 (April 12, 2005): 403–21. http://dx.doi.org/10.7202/705565ar.

Full text
Abstract:
La température de l'eau en rivière est un paramètre ayant une importance majeure pour la vie aquatique. Les séries temporelles décrivant ce paramètre thermique existent, mais elles sont moins nombreuses et souvent courtes, ou comptent parfois des valeurs manquantes. Cette étude présente la modélisation de la température de l'eau en utilisant des réseaux de neurones et la régression linéaire multiple pour relier la température de l'eau à celle de l'air et le débit du ruisseau Catamaran, situé au Nouveau-Brunswick, Canada. Une recherche multidisciplinaire à long terme se déroule présentement sur ce site. Les données utilisées sont de 1991 à 2000 et comprennent la température de l'air de la journée en cours, de la veille et de l'avant-veille, le débit ainsi que le temps transformé en série trigonométrique. Les données de 1991 à 1995 ont été utilisées pour l'entraînement ou la calibration du modèle tandis que les données de 1996 à 2000 ont été utilisées pour la validation du modèle. Les coefficients de détermination obtenus pour l'entraînement sont de 94,2 % pour les réseaux de neurones et de 92,6 % pour la régression linéaire multiple, ce qui donne un écart-type des erreurs de 1,01 C pour les réseaux de neurones et de 1,05 C pour la régression linéaire multiple. Pour la validation, les coefficients de détermination sont de 92,2 % pour les réseaux de neurones et de 91,6 % pour la régression linéaire multiple, ce qui se traduit en un écart-type des erreurs de 1,10 C pour les réseaux de neurones et de 1,25 C pour la régression linéaire multiple. Durant la période d'étude (1991-2000), le biais a été calculé à +0,11 C pour le modèle de réseaux de neurones et à -0,26 °C pour le modèle de régression. Ces résultats permettent de conclure qu'il est possible de prévoir la température de l'eau de petits cours d'eau en utilisant la température de l'air et le débit, aussi bien avec les réseaux de neurones qu'avec la régression linéaire multiple. Les réseaux de neurones semblent donner un ajustement aux données légèrement meilleur que celui offert par la régression linéaire multiple, toutefois ces deux approches de modélisation démontrent une bonne performance pour la prédiction de la température de l'eau en rivière.
APA, Harvard, Vancouver, ISO, and other styles
9

Mézard, Marc, and Jean-Pierre Nadal. "Réseaux de neurones et physique statistique." Intellectica. Revue de l'Association pour la Recherche Cognitive 9, no. 1 (1990): 213–45. http://dx.doi.org/10.3406/intel.1990.884.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Laks, Bernard. "Réseaux de neurones et syllabation du français." Linx 34, no. 1 (1996): 327–46. http://dx.doi.org/10.3406/linx.1996.1440.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Réseaux de neurones binaires"

1

Mayorquim, Jorge Luiz. "Étude en vue de la réalisation d'un réseau de neurones binaires logiques : détection de contours en temps réel." Compiègne, 1996. http://www.theses.fr/1996COMPD893.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Wenzek, Didier. "Construction de réseaux de neurones." Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343569.

Full text
Abstract:
La dénomination de réseaux de neurones recouvre tout un ensemble de méthodes de calcul dont le point commun est de décrire le calcul d'une solution a un probleme comme la recherche d'un état d'équilibre par un ensemble de cellules simples inter-agissant entre elles via un réseau de connections paramétrées. L'approche usuelle, pour obtenir un réseau de neurones ayant un comportement souhaite, consiste a tester sur des exemples un réseau choisi a priori et a modifier ses paramètres de contrôle jusqu'à ce que l'on obtienne un comportement satisfaisant. La difficulté de ces méthodes est que leur succès ou leur échec reposent sur le choix d'un premier réseau et que l'on ne dispose pas de règles permettant de déduire ce choix de la structure du probleme. La motivation de cette thèse a donc été de décrire des méthodes de synthèse permettant une construction modulaire de réseaux de neurones. Aussi, cette thèse propose une classe de réseaux de neurones parmi lesquels toute spécification de la forme chercher un élément de e (fini) vérifiant la propriété p admet au moins une réalisation. En outre, les réseaux de cette classe peuvent être combines pour obtenir un réseau réalisant une combinaison des spécifications des réseaux combines
APA, Harvard, Vancouver, ISO, and other styles
3

Tsopze, Norbert. "Treillis de Galois et réseaux de neurones : une approche constructive d'architecture des réseaux de neurones." Thesis, Artois, 2010. http://www.theses.fr/2010ARTO0407/document.

Full text
Abstract:
Les réseaux de neurones artificiels connaissent des succès dans plusieurs domaines. Maisles utilisateurs des réseaux de neurones sont souvent confrontés aux problèmes de définitionde son architecture et d’interprétabilité de ses résultats. Plusieurs travaux ont essayé d’apporterune solution à ces problèmes. Pour les problèmes d’architecture, certains auteurs proposentde déduire cette architecture à partir d’un ensemble de connaissances décrivant le domaine duproblème et d’autres proposent d’ajouter de manière incrémentale les neurones à un réseauayant une taille initiale minimale. Les solutions proposées pour le problème d’interprétabilitédes résultats consistent à extraire un ensemble de règles décrivant le fonctionnement du réseau.Cette thèse contribue à la résolution de ces deux problèmes. Nous nous limitons à l’utilisationdes réseaux de neurones dans la résolution des problèmes de classification.Nous présentons dans cette thèse un état de l’art des méthodes existantes de recherche d’architecturede réseaux de neurones : une étude théorique et expérimentale est aussi faite. Decette étude, nous observons comme limites de ces méthodes la disponibilité absolue des connaissancespour construire un réseau interprétable et la construction des réseaux difficiles à interpréteren absence de connaissances. En alternative, nous proposons une méthode appelée CLANN(Concept Lattice-based Artificial Neural network) basée les treillis de Galois qui construit undemi-treillis à partir des données et déduire de ce demi-treillis l’architacture du réseau. CLANNétant limitée à la résolution des problèmes à deux classes, nous proposons MCLANN permettantd’étendre cette méthodes de recherche d’architecture des réseaux de neurones aux problèmes àplusieurs classes.Nous proposons aussi une méthode appelée ’Approche des MaxSubsets’ pour l’extractiondes règles à partir d’un réseau de neurones. La particularité de cette méthode est la possibilitéd’extraire les deux formats de règles (’si alors’ et ’m parmi N’) à partir d’une structure quenous construisons. Nous proposons aussi une façon d’expliquer le résultat calculé par le réseauconstruit par la méthode MCLANN au sujet d’un exemple
The artificial neural networks are successfully applied in many applications. But theusers are confronted with two problems : defining the architecture of the neural network able tosolve their problems and interpreting the network result. Many research works propose some solutionsabout these problems : to find out the architecture of the network, some authors proposeto use the problem domain theory and deduct the network architecture and some others proposeto dynamically add neurons in the existing networks until satisfaction. For the interpretabilityproblem, solutions consist to extract rules which describe the network behaviour after training.The contributions of this thesis concern these problems. The thesis are limited to the use of theartificial neural networks in solving the classification problem.In this thesis, we present a state of art of the existing methods of finding the neural networkarchitecture : we present a theoritical and experimental study of these methods. From this study,we observe some limits : difficulty to use some method when the knowledges are not available ;and the network is seem as ’black box’ when using other methods. We a new method calledCLANN (Concept Lattice-based Artificial Neural Network) which builds from the training dataa semi concepts lattice and translates this semi lattice into the network architecture. As CLANNis limited to the two classes problems, we propose MCLANN which extends CLANN to manyclasses problems.A new method of rules extraction called ’MaxSubsets Approach’ is also presented in thisthesis. Its particularity is the possibility of extracting the two kind of rules (If then and M-of-N)from an internal structure.We describe how to explain the MCLANN built network result aboutsome inputs
APA, Harvard, Vancouver, ISO, and other styles
4

Voegtlin, Thomas. "Réseaux de neurones et auto-référence." Lyon 2, 2002. http://theses.univ-lyon2.fr/documents/lyon2/2002/voegtlin_t.

Full text
Abstract:
Le sujet de cette thèse est l'étude d'une classe d'algorithmes d'apprentissage non supervisés pour réseaux de neurones récurrents. Dans la 1ere partie (chap. 1 à 4), je présente plusieurs algorithmes, basés sur un même principe d'apprentissage : l'auto-référence. L'apprentissage auto-référent n'implique pas l'optimisation d'un critère objectif (comme une fonction d'erreur), mais il fait intervenir une fonction subjective, qui dépend de ce que le réseau a déjà appris. Un exemple de réseau supervisé basé sur ce principe est le Simple Recurrent Netword d'Elman (1990). Dans ce cas, l'auto-référence est appliquée à l'algorithme de rétro-propagation du gradient. Sur ce point, le réseau d'Elman diffère des autres méthodes de rétro-propagation pour réseaux récurrents, qui font intervenir un gradient objectif (Back-propagation Through Time, Real-Time Recurrent learning). Je montr que l'auto-référence peut être utilisée avec les principales techniques d'apprentissage non supervisé : Cartes de Kohonen, Analyse en composantes principales, Analyse en composantes indépendantes. Ces techniques sont classiquement utilisées pour représenter des données statiques. L'auto-référence permet de les généraliser à des séries temporelles, et de définir des algorithmes d'apprentissage nouveaux
The purpose of this thesis is to present a class of unsupervised learning algorithms for recurrent networks. In the first part (chapters 1 to 4), I propose a new approach to this question, based on a simple principle: self-reference. A self-referent algorithm is not based on the minimization of an objective criterion, such as an error function, but on a subjective function, that depends on what the network has previously learned. An example of a supervised recurrent network where learning is self-referent is the Simple Recurrent Network (SRN) by Elman (1990). In the SRN, self-reference is applied to the supervised error back-propagation algorithm. In this aspect, the SRN differs from other generalizations of back-propagation to recurrent networks, that use an objective criterion, such as Back-Propagation Through Time, or Real-Time Recurrent Learning. In this thesis, I show that self-reference can be combined with several well-known unsupervised learning methods: the Self-Organizing Map (SOM), Principal Components Analysis (PCA), and Independent Components Analysis (ICA). These techniques are classically used to represent static data. Self-reference allows one to generalize these techniques to time series, and to define unsupervised learning algorithms for recurrent networks
APA, Harvard, Vancouver, ISO, and other styles
5

Teytaud, Olivier. "Apprentissage, réseaux de neurones et applications." Lyon 2, 2001. http://theses.univ-lyon2.fr/documents/lyon2/2001/teytaud_o.

Full text
Abstract:
Les fondements théoriques de l'apprentissage sont en grande partie posés. Comme la calculabilité est venue à maturité en s'orientant vers la complexité, l'apprentissage mûrit face à des résultats négatifs forts qui rendent sans espoir la quête d'algorithmes universels, efficaces pour toute donnée. Vraisemblablement les grandes avancées à venir seront (a) soit dans des domaines connexes où l'étude théorique a moins été poussée, (b) soit moins philosophiques et plus concrètes (théorique à préoccupations algorithmiques, représentation de données structurées, implémentation physique, modularité), soit enfin (c) dans la modélisation biologique. Cette thèse résume (et essaie modestement de compléter) les avancées théoriques statistiques, des points de vue successifs des cas où l'apprentissage est difficile (i. E. , où l'on sort du cadre iid sans bruit avec a priori de VC-dimension finie), des utilisations non-standards de la VC-théorie (non-supervisé, extraction de règles : c'est le (a) ci-dessus), puis du passage au concret avec le passage aux préoccupations algorithmiques (validité des approximations dans les Supports Vector Machines, efficacité des algorithmes de Gibbs quoique l'étude soit très incomplète, plus proches voisins rapides d'un point de vue expérimental représentation de données structurées images ou textes - tout cela est le (b)) et la modélisation biologique (c)
APA, Harvard, Vancouver, ISO, and other styles
6

Côté, Marc-Alexandre. "Réseaux de neurones génératifs avec structure." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10489.

Full text
Abstract:
Cette thèse porte sur les modèles génératifs en apprentissage automatique. Deux nouveaux modèles basés sur les réseaux de neurones y sont proposés. Le premier modèle possède une représentation interne où une certaine structure a été imposée afin d’ordonner les caractéristiques apprises. Le deuxième modèle parvient à exploiter la structure topologique des données observées, et d’en tenir compte lors de la phase générative. Cette thèse présente également une des premières applications de l’apprentissage automatique au problème de la tractographie du cerveau. Pour ce faire, un réseau de neurones récurrent est appliqué à des données de diffusion afin d’obtenir une représentation des fibres de la matière blanche sous forme de séquences de points en trois dimensions.
APA, Harvard, Vancouver, ISO, and other styles
7

Jodouin, Jean-François. "Réseaux de neurones et traitement du langage naturel : étude des réseaux de neurones récurrents et de leurs représentations." Paris 11, 1993. http://www.theses.fr/1993PA112079.

Full text
Abstract:
Le but de ce travail a été d'évaluer les possibilités d'application des réseaux connexionnistes aux taches de haut niveau comme le traitement du langage naturel (tln). Un travail de réflexion a permis de cerner les types de réseaux et les techniques de représentation propices à ce domaine d'application. Deux réseaux de la classe des réseaux récurrents à couches ont été sélectionnés pour des études approfondies: le simple récurrent network et le time-unfolding network (tun). Le perceptron multicouches a servi d'étalon. Un domaine d'application mettant à l'épreuve la mémoire et les capacités de représentation des réseaux a aussi été choisi: la prédiction de séquences non déterministes. Un outil de simulation graphique, Baptise Simon, a été crée pour l'étude. Le travail empirique a consisté en trois séries d'expériences qui ont pour but d'étudier les capacités de réseaux dans des conditions se rapprochant progressivement du traitement d'énoncés réels. Cette étude a été approfondie par l'analyse des représentations développées par les réseaux durant leur traitement. Cette recherche semble montrer que les réseaux récurrents ont le potentiel de développer des représentations complexes, ce qui leur permet de traiter de façon efficace les taches qui leur ont été données. En particulier, les performances des tuns dépassent, dans le meilleur des cas, celles de nos meilleurs outils de comparaison. En conclusion, les réseaux récurrents à couches ont une utilité immédiate à la frontière entre la parole (ou l'information est généralement bruitée et incomplète) et le langage (ou les représentations symboliques pures supportent mal ce type d'imprécision). De plus, si un important travail de recherche reste encore à faire, les résultats obtenus permettent d'espérer l'application future de ces réseaux à des taches plus évoluées du tln
APA, Harvard, Vancouver, ISO, and other styles
8

Brette, Romain. "Modèles Impulsionnels de Réseaux de Neurones Biologiques." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00005340.

Full text
Abstract:
Les neurosciences computationnelles sont traditionnellement dominées par la conception selon laquelle les neurones codent l'information à travers leur fréquence de décharge. Récemment, les observations expérimentales de synchronisation neuronale ont motivé un renouveau du point de vue impulsionnel, selon lequel la structure temporelle des décharges est pertinente. Les modèles impulsionnels étant moins bien compris que leurs homologues fréquentiels, nous commençons par établir des résultats théoriques généraux, qui nous permettent en particulier de montrer que les modèles impulsionnels répondent de manière reproductible aux stimulations variables apériodiques. Cette propriété nous permet de construire un modèle de sélectivité à l'orientation dans le cortex visuel, le perceptron impulsionnel, qui, en détectant une propriété géométrique de l'image plutôt que l'adéquation entre l'image et un patron, permet d'obtenir avec une architecture feedforward une invariance naturelle au contraste.
APA, Harvard, Vancouver, ISO, and other styles
9

Tardif, Patrice. "Autostructuration des réseaux de neurones avec retards." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24240/24240.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Maktoobi, Sheler. "Couplage diffractif pour réseaux de neurones optiques." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCD019.

Full text
Abstract:
Les réseaux photoniques à haute performance peuvent être considérés comme des supports pour les futurs systèmes de calcul. Contrairement à l'électronique, les systèmes photoniques offrent des avantages intéressants, par exemple la possibilité de réaliser des réseaux complètement parallèles. Récemment, les réseaux de neurones ont attiré l'attention de la communauté photonique. L'une des difficultés les plus importantes, en matière de réseaux photoniques parallèles à grande échelle, est la réalisation des connexions. La diffraction est exploitée ici comme méthode pour traiter les connexions entre les nœuds (couplage) dans les réseaux de neurones optiques. Dans cette thèse, nous étudions l'extensibilité d'un couplage diffractif en détails de la façon suivante :Tout d'abord, nous commençons par une introduction générale à propos de l'intelligence artificielle, de l'apprentissage machine, des réseaux de neurones artificiels et des réseaux de neurones photoniques. Lors de la conception d'un réseau neuronal fonctionnel, les règles de l'apprentissage machine sont des éléments essentiels pour optimiser une configuration et ainsi obtenir une faible erreur du système, donc les règles de l'apprentissage sont introduites (chapitre 1). Nous étudions les concepts fondamentaux du couplage diffractif dans notre réservoir spatio-temporel. Dans ce cas, la théorie de la diffraction est expliquée. Nous utilisons un schéma analytique pour fournir les limites en termes de taille des réseaux diffractifs, qui font partie intégrante de notre réseau neuronal photonique (chapitre 2). Les concepts du couplage diffractif sont étudiés expérimentalement dans deux expériences différentes afin de confirmer les limites obtenues analytiquement, et pour déterminer le nombre maximum de nœuds pouvant être couplés dans le réseau photonique (Chapitre 3). Les simulations numériques d'une telle expérience sont basées sur deux schémas différents pour calculer numériquement la taille maximale du réseau, qui approche une surface de 100 mm2 (chapitre 4). Enfin, l'ensemble du réseau neuronal photonique est démontré. Nous concevons un réservoir spatialement étendu sur 900 nœuds. En conséquence, notre système généralise la prédiction pour la séquence chaotique de Mackey-Glass (chapitre 5)
Photonic networks with high performance can be considered as substrates for future computing systems. In comparison with electronics, photonic systems have substantial privileges, for instance the possibility of a fully parallel implementation of networks. Recently, neural networks have moved into the center of attention of the photonic community. One of the most important requirements for parallel large-scale photonic networks is to realize the connectivities. Diffraction is considered as a method to process the connections between the nodes (coupling) in optical neural networks. In the current thesis, we evaluate the scalability of a diffractive coupling in more details as follow:First, we begin with a general introductions for artificial intelligence, machine learning, artificial neural network and photonic neural networks. To establish a working neural network, learning rules are an essential part to optimize a configuration for obtaining a low error from the system, hence learning rules are introduced (Chapter 1). We investigate the fundamental concepts of diffractive coupling in our spatio-temporal reservoir. In that case, theory of diffraction is explained. We use an analytical scheme to provide the limits for the size of diffractive networks which is a part of our photonic neural network (Chapter 2). The concepts of diffractive coupling are investigated experimentally by two different experiments to confirm the analytical limits and to obtain maximum number of nodes which can be coupled in the photonic network (Chapter 3). Numerical simulations for such an experimental setup is modeled in two different schemes to obtain the maximum size of network numerically, which approaches a surface of 100 mm2 (Chapter 4). Finally, the complete photonic neural network is demonstrated. We design a spatially extended reservoir for 900 nodes. Consequently, our system generalizes the prediction for the chaotic Mackey–Glass sequence (Chapter 5)
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Réseaux de neurones binaires"

1

Michel, Verleysen, ed. Les réseaux de neurones artificiels. Paris: Presses universitaires de France, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Kamp, Yves. Réseaux de neurones récursifs pour mémoires associatives. Lausanne: Presses polytechniques et universitaires romandes, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Rollet, Guy. Les RÉSEAUX DE NEURONES DE LA CONSCIENCE - Approche multidisciplinaire du phénomène. Paris: Editions L'Harmattan, 2013.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Personnaz, L. Réseaux de neurones formels pour la modélisation, la commande et la classification. Paris: CNRS Editions, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Amat, Jean-Louis. Techniques avancées pour le traitement de l'information: Réseaux de neurones, logique floue, algorithmes génétiques. 2nd ed. Toulouse: Cépaduès-Ed., 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Journées d'électronique (1989 Lausanne, Switzerland). Réseaux de neurones artificiels: Comptes rendus des Journées d'électronique 1989, Lausanne, 10-12 october 1983. Lausanne: Presses polytechniques romande, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Seidou, Ousmane. Modélisation de la croissance de glace de lac par réseaux de neurones artificiels et estimation du volume de la glace abandonnée sur les berges des réservoirs hydroélectriques pendant les opérations d'hiver. Québec, QC: INRS--ETE, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Suzanne, Tyc-Dumont, ed. Le neurone computationnel: Histoire d'un siècle de recherches. Paris: CNRS, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Biophysics of computation: Information processing in single neurons. New York: Oxford University Press, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Levitan, Irwin B. The neuron: Cell and molecular biology. 2nd ed. New York: Oxford University Press, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Réseaux de neurones binaires"

1

Martaj, Dr Nadia, and Dr Mohand Mokhtari. "Réseaux de neurones." In MATLAB R2009, SIMULINK et STATEFLOW pour Ingénieurs, Chercheurs et Etudiants, 807–78. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. http://dx.doi.org/10.1007/978-3-642-11764-0_17.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Kipnis, C., and E. Saada. "Un lien entre réseaux de neurones et systèmes de particules: Un modele de rétinotopie." In Lecture Notes in Mathematics, 55–67. Berlin, Heidelberg: Springer Berlin Heidelberg, 1996. http://dx.doi.org/10.1007/bfb0094641.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

"4. Les réseaux de neurones artificiels." In L'intelligence artificielle, 91–112. EDP Sciences, 2021. http://dx.doi.org/10.1051/978-2-7598-2580-6.c006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

BENMAMMAR, Badr, and Asma AMRAOUI. "Application de l’intelligence artificielle dans les réseaux de radio cognitive." In Gestion et contrôle intelligents des réseaux, 233–60. ISTE Group, 2020. http://dx.doi.org/10.51926/iste.9008.ch9.

Full text
Abstract:
Dans ce chapitre, nous nous intéressons aux techniques de l’intelligence artificielle (IA) qui ont été les plus utilisées dans les trois dernières années dans la radio cognitive (RC). Nous nous intéressons à des métaheuristiques qui n’étaient pas discutées dans les précédents travaux, comme l’algorithme des lucioles, la recherche coucou, l’algorithme de recherche gravitationnel et l’optimisation par essaim de particules. Nous présentons également les travaux récents liés à l’application des autres techniques d’IA dans la RC, à savoir les algorithmes génétiques, les algorithmes de colonies d’abeilles, la logique floue, la théorie des jeux, les réseaux de neurones, les modèles de Markov, les machines à vecteurs de support, le raisonnement à partir de cas, les arbres de décision, les réseaux bayésiens, les systèmes multi-agents et l’apprentissage par renforcement.
APA, Harvard, Vancouver, ISO, and other styles
5

DE’ FAVERI TRON, Alvise. "La détection d’intrusion au moyen des réseaux de neurones : un tutoriel." In Optimisation et apprentissage, 211–47. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9071.ch8.

Full text
Abstract:
La détection d'intrusion est un concept clé dans la sécurité. Elle vise à analyser l'état actuel d'un réseau en temps réel et à identifier les anomalies potentielles qui se produisent dans le système. Un réseau de neurones à réaction formé sur l'ensemble de données NSL-KDD a pour objectif de maximiser la précision de la reconnaissance de nouveaux échantillons de données.
APA, Harvard, Vancouver, ISO, and other styles
6

BYTYN, Andreas, René AHLSDORF, and Gerd ASCHEID. "Systèmes multiprocesseurs basés sur un ASIP pour l’efficacité des CNN." In Systèmes multiprocesseurs sur puce 1, 93–111. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch4.

Full text
Abstract:
Les réseaux de neurones convolutifs (CNN) utilisés pour l’analyse des signaux vidéo sont très gourmands en calculs. De telles applications embarquées nécessitent des implémentations efficaces en termes de coût et de puissance. Ce chapitre présente une solution basée sur un processeur de jeu d’instructions spécifique à l’application (ASIP) qui représente un bon compromis entre efficacité et programmabilité.
APA, Harvard, Vancouver, ISO, and other styles
7

COGRANNE, Rémi, Marc CHAUMONT, and Patrick BAS. "Stéganalyse : détection d’information cachée dans des contenus multimédias." In Sécurité multimédia 1, 261–303. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9026.ch8.

Full text
Abstract:
Ce chapitre détaille comment analyser une image numérique en vue d’obtenir des informations sur les données cachées par une méthode de stéganographie. Après une présentation des objectifs, plusieurs stratégies de détection sont ensuite détaillées, notamment les méthodes statistiques utilisant le rapport de vraisemblance, les méthodes par apprentissage reposant soit sur l’extraction de caractéristiques, soit sur l’utilisation de réseaux de neurones profonds.
APA, Harvard, Vancouver, ISO, and other styles
8

ATTO, Abdourrahmane M., Fatima KARBOU, Sophie GIFFARD-ROISIN, and Lionel BOMBRUN. "Clustering fonctionnel de séries d’images par entropies relatives." In Détection de changements et analyse des séries temporelles d’images 1, 121–38. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch4.

Full text
Abstract:
Ce chapitre traite l'extraction d'attributs à partir d'ondelettes et de filtres ConvNet (réseaux de neurones à convolution) pour l'analyse non supervisée de séries chronologiques d'images. Nous exploitons les capacités des ondelettes et des filtres neuro-convolutifs à capturer des propriétés d'invariance non-triviales, ainsi que les nouvelles solutions de centroïdes proposées dans ce chapitre, pour l'analyse d'attributs de hauts niveaux par entropie relative. La détection d'anomalies et le clustering fonctionnel d'évolution sont développés à partir de ce cadre.
APA, Harvard, Vancouver, ISO, and other styles
9

ZHANG, Hanwei, Teddy FURON, Laurent AMSALEG, and Yannis AVRITHIS. "Attaques et défenses de réseaux de neurones profonds : le cas de la classification d’images." In Sécurité multimédia 1, 51–85. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9026.ch2.

Full text
Abstract:
L’apprentissage automatique utilisant des réseaux neuronaux profonds appliqués à la reconnaissance d’images fonctionne extrêmement bien. Néanmoins, il est possible de modifier intentionnellement et très légèrement les images, modifications quasi invisibles à nos yeux, pour leurrer le système de classification et lui faire classer dans une catégorie visuelle erronée tel ou tel contenu. Ce chapitre dresse un panorama de ces attaques intentionnelles, mais aussi des mécanismes de défense visant à les déjouer.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Réseaux de neurones binaires"

1

Fourcade, A. "Apprentissage profond : un troisième oeil pour les praticiens." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601014.

Full text
Abstract:
« L’intelligence artificielle connaît un essor fulgurant depuis ces dernières années. Lapprentissage automatique et plus précisément lapprentissage profond grâce aux réseaux de neurones convolutifs ont permis des avancées majeures dans le domaine de la reconnaissance des formes. Cette présentation fait suite à mon travail de thèse. La première partie retrace lhistorique et décrit les principes de fonctionnement de ces réseaux. La seconde présente une revue de la littérature de leurs applications dans la pratique médicale de plusieurs spécialités, pour des tâches diagnostiques nécessitant une démarche visuelle (classification dimages et détection de lésions). Quinze articles, évaluant les performances de ces solutions dautomatisation, ont été analysés. La troisième partie est une discussion à propos des perspectives et des limites présentées par les réseaux de neurones convolutifs, ainsi que leurs possibles applications en chirurgie orale. »
APA, Harvard, Vancouver, ISO, and other styles
2

Gresse, Adrien, Richard Dufour, Vincent Labatut, Mickael Rouvier, and Jean-François Bonastre. "Mesure de similarité fondée sur des réseaux de neurones siamois pour le doublage de voix." In XXXIIe Journées d’Études sur la Parole. ISCA: ISCA, 2018. http://dx.doi.org/10.21437/jep.2018-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Walid, Tazarki, Fareh Riadh, and Chichti Jameleddine. "La Prevision Des Crises Bancaires: Un essai de modélisation par la méthode des réseaux de neurones [Not available in English]." In International Conference on Information and Communication Technologies from Theory to Applications - ICTTA'08. IEEE, 2008. http://dx.doi.org/10.1109/ictta.2008.4529985.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Kim, Lila, and Cédric Gendrot. "Classification automatique de voyelles nasales pour une caractérisation de la qualité de voix des locuteurs par des réseaux de neurones convolutifs." In XXXIVe Journées d'Études sur la Parole -- JEP 2022. ISCA: ISCA, 2022. http://dx.doi.org/10.21437/jep.2022-82.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Gendrot, Cedric, Emmanuel Ferragne, and Anaïs Chanclu. "Analyse phonétique de la variation inter-locuteurs au moyen de réseaux de neurones convolutifs : voyelles seules et séquences courtes de parole." In XXXIVe Journées d'Études sur la Parole -- JEP 2022. ISCA: ISCA, 2022. http://dx.doi.org/10.21437/jep.2022-94.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Quintas, Sebastião, Alberto Abad, Julie Mauclair, Virginie Woisard, and Julien Pinquier. "Utilisation de réseaux de neurones profonds avec attention pour la prédiction de l’intelligibilité de la parole de patients atteints de cancers ORL." In XXXIVe Journées d'Études sur la Parole -- JEP 2022. ISCA: ISCA, 2022. http://dx.doi.org/10.21437/jep.2022-7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography