Articles de revues sur le sujet « Potts Attractor Neural Network »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Potts Attractor Neural Network ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Abdukhamidov, Eldor, Firuz Juraev, Mohammed Abuhamad, Shaker El-Sappagh et Tamer AbuHmed. « Sentiment Analysis of Users’ Reactions on Social Media During the Pandemic ». Electronics 11, no 10 (22 mai 2022) : 1648. http://dx.doi.org/10.3390/electronics11101648.
Texte intégralO'Kane, D., et D. Sherrington. « A feature retrieving attractor neural network ». Journal of Physics A : Mathematical and General 26, no 10 (21 mai 1993) : 2333–42. http://dx.doi.org/10.1088/0305-4470/26/10/008.
Texte intégralDeng, Hanming, Yang Hua, Tao Song, Zhengui Xue, Ruhui Ma, Neil Robertson et Haibing Guan. « Reinforcing Neural Network Stability with Attractor Dynamics ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 3765–72. http://dx.doi.org/10.1609/aaai.v34i04.5787.
Texte intégralTAN, Z., et L. SCHÜLKE. « THE ATTRACTOR BASIN OF NEURAL NETWORK WITH CORRELATED INTERACTIONS ». International Journal of Modern Physics B 10, no 26 (30 novembre 1996) : 3549–60. http://dx.doi.org/10.1142/s0217979296001902.
Texte intégralBadoni, Davide, Roberto Riccardi et Gaetano Salina. « LEARNING ATTRACTOR NEURAL NETWORK : THE ELECTRONIC IMPLEMENTATION ». International Journal of Neural Systems 03, supp01 (janvier 1992) : 13–24. http://dx.doi.org/10.1142/s0129065792000334.
Texte intégralFrolov, A. A., D. Husek, I. P. Muraviev et P. Yu Polyakov. « Boolean Factor Analysis by Attractor Neural Network ». IEEE Transactions on Neural Networks 18, no 3 (mai 2007) : 698–707. http://dx.doi.org/10.1109/tnn.2007.891664.
Texte intégralZOU, FAN, et JOSEF A. NOSSEK. « AN AUTONOMOUS CHAOTIC CELLULAR NEURAL NETWORK AND CHUA'S CIRCUIT ». Journal of Circuits, Systems and Computers 03, no 02 (juin 1993) : 591–601. http://dx.doi.org/10.1142/s0218126693000368.
Texte intégralDominguez, D. R. C., et D. Bollé. « Categorization by a three-state attractor neural network ». Physical Review E 56, no 6 (1 décembre 1997) : 7306–9. http://dx.doi.org/10.1103/physreve.56.7306.
Texte intégralSERULNIK, SERGIO D., et MOSHE GUR. « AN ATTRACTOR NEURAL NETWORK MODEL OF CLASSICAL CONDITIONING ». International Journal of Neural Systems 07, no 01 (mars 1996) : 1–18. http://dx.doi.org/10.1142/s0129065796000026.
Texte intégralWong, K. Y. M., et C. Ho. « Attractor properties of dynamical systems : neural network models ». Journal of Physics A : Mathematical and General 27, no 15 (7 août 1994) : 5167–85. http://dx.doi.org/10.1088/0305-4470/27/15/017.
Texte intégralGonzález, Mario, David Dominguez, Ángel Sánchez et Francisco B. Rodríguez. « Increase attractor capacity using an ensembled neural network ». Expert Systems with Applications 71 (avril 2017) : 206–15. http://dx.doi.org/10.1016/j.eswa.2016.11.035.
Texte intégralSteffan, Helmut, et Reimer K�hn. « Replica symmetry breaking in attractor neural network models ». Zeitschrift f�r Physik B Condensed Matter 95, no 2 (juin 1994) : 249–60. http://dx.doi.org/10.1007/bf01312198.
Texte intégralFunabashi, Masatoshi. « Synthetic Modeling of Autonomous Learning with a Chaotic Neural Network ». International Journal of Bifurcation and Chaos 25, no 04 (avril 2015) : 1550054. http://dx.doi.org/10.1142/s0218127415500546.
Texte intégralDominguez, D., K. Koroutchev, E. Serrano et F. B. Rodríguez. « Information and Topology in Attractor Neural Networks ». Neural Computation 19, no 4 (avril 2007) : 956–73. http://dx.doi.org/10.1162/neco.2007.19.4.956.
Texte intégralGislén, Lars, Carsten Peterson et Bo Söderberg. « Complex Scheduling with Potts Neural Networks ». Neural Computation 4, no 6 (novembre 1992) : 805–31. http://dx.doi.org/10.1162/neco.1992.4.6.805.
Texte intégralBollé, D., P. Dupont et J. Huyghebaert. « Thermodynamic properties of theQ-state Potts-glass neural network ». Physical Review A 45, no 6 (1 mars 1992) : 4194–97. http://dx.doi.org/10.1103/physreva.45.4194.
Texte intégralIRWIN, J., H. BOHR, K. MOCHIZUKI et P. G. WOLYNES. « CLASSIFICATION AND PREDICTION OF PROTEIN SIDE-CHAINS BY NEURAL NETWORK TECHNIQUES ». International Journal of Neural Systems 03, supp01 (janvier 1992) : 177–82. http://dx.doi.org/10.1142/s0129065792000504.
Texte intégralWu, Si, Kosuke Hamaguchi et Shun-ichi Amari. « Dynamics and Computation of Continuous Attractors ». Neural Computation 20, no 4 (avril 2008) : 994–1025. http://dx.doi.org/10.1162/neco.2008.10-06-378.
Texte intégralLattanzi, G., G. Nardulli et S. Stramaglia. « A Neural Network with Permanent and Volatile Memory ». Modern Physics Letters B 11, no 24 (20 octobre 1997) : 1037–45. http://dx.doi.org/10.1142/s0217984997001250.
Texte intégralRuppin, E., et M. Usher. « An attractor neural network model of semantic fact retrieval ». Network : Computation in Neural Systems 1, no 3 (janvier 1990) : 325–44. http://dx.doi.org/10.1088/0954-898x_1_3_003.
Texte intégralTsodyks, Misha. « Attractor neural network models of spatial maps in hippocampus ». Hippocampus 9, no 4 (1999) : 481–89. http://dx.doi.org/10.1002/(sici)1098-1063(1999)9:4<481 ::aid-hipo14>3.0.co;2-s.
Texte intégralСоловьева, К. П., et K. P. Solovyeva. « Self-Organized Maps on Continuous Bump Attractors ». Mathematical Biology and Bioinformatics 8, no 1 (27 mai 2013) : 234–47. http://dx.doi.org/10.17537/2013.8.234.
Texte intégralHoffman, Ralph E. « Additional tests of Amit's attractor neural networks ». Behavioral and Brain Sciences 18, no 4 (décembre 1995) : 634–35. http://dx.doi.org/10.1017/s0140525x00040255.
Texte intégralTang, Buzhou, Jianglu Hu, Xiaolong Wang et Qingcai Chen. « Recognizing Continuous and Discontinuous Adverse Drug Reaction Mentions from Social Media Using LSTM-CRF ». Wireless Communications and Mobile Computing 2018 (2018) : 1–8. http://dx.doi.org/10.1155/2018/2379208.
Texte intégralAkιn, H. « Phase diagrams of lattice models on Cayley tree and chandelier network : a review ». Condensed Matter Physics 25, no 3 (2022) : 32501. http://dx.doi.org/10.5488/cmp.25.32501.
Texte intégralBROUWER, ROELOF K. « AN INTEGER RECURRENT ARTIFICIAL NEURAL NETWORK FOR CLASSIFYING FEATURE VECTORS ». International Journal of Pattern Recognition and Artificial Intelligence 14, no 03 (mai 2000) : 339–55. http://dx.doi.org/10.1142/s0218001400000222.
Texte intégralAhissar, Ehud. « Are single-cell data sufficient for testing neural network models ? » Behavioral and Brain Sciences 18, no 4 (décembre 1995) : 626–27. http://dx.doi.org/10.1017/s0140525x00040176.
Texte intégralHorn, D., et E. Ruppin. « Compensatory Mechanisms in an Attractor Neural Network Model of Schizophrenia ». Neural Computation 7, no 1 (janvier 1995) : 182–205. http://dx.doi.org/10.1162/neco.1995.7.1.182.
Texte intégralFink, Wolfgang. « Neural attractor network for application in visual field data classification ». Physics in Medicine and Biology 49, no 13 (12 juin 2004) : 2799–809. http://dx.doi.org/10.1088/0031-9155/49/13/003.
Texte intégralYu, Jiali, Huajin Tang, Haizhou Li et Luping Shi. « Dynamical properties of continuous attractor neural network with background tuning ». Neurocomputing 99 (janvier 2013) : 439–47. http://dx.doi.org/10.1016/j.neucom.2012.06.029.
Texte intégralIgarashi, Yasuhiko, Masafumi Oizumi, Yosuke Otsubo, Kenji Nagata et Masato Okada. « Statistical mechanics of attractor neural network models with synaptic depression ». Journal of Physics : Conference Series 197 (1 décembre 2009) : 012018. http://dx.doi.org/10.1088/1742-6596/197/1/012018.
Texte intégralLakshmi, C., K. Thenmozhi, John Bosco Balaguru Rayappan et Rengarajan Amirtharajan. « Hopfield attractor-trusted neural network : an attack-resistant image encryption ». Neural Computing and Applications 32, no 15 (29 novembre 2019) : 11477–89. http://dx.doi.org/10.1007/s00521-019-04637-4.
Texte intégralSeow, M. J., et V. K. Asari. « Recurrent Neural Network as a Linear Attractor for Pattern Association ». IEEE Transactions on Neural Networks 17, no 1 (janvier 2006) : 246–50. http://dx.doi.org/10.1109/tnn.2005.860869.
Texte intégralDeco, Gustavo, et Edmund T. Rolls. « Sequential Memory : A Putative Neural and Synaptic Dynamical Mechanism ». Journal of Cognitive Neuroscience 17, no 2 (février 2005) : 294–307. http://dx.doi.org/10.1162/0898929053124875.
Texte intégralABDI, H. « A NEURAL NETWORK PRIMER ». Journal of Biological Systems 02, no 03 (septembre 1994) : 247–81. http://dx.doi.org/10.1142/s0218339094000179.
Texte intégralFiorelli, Eliana, Igor Lesanovsky et Markus Müller. « Phase diagram of quantum generalized Potts-Hopfield neural networks ». New Journal of Physics 24, no 3 (1 mars 2022) : 033012. http://dx.doi.org/10.1088/1367-2630/ac5490.
Texte intégralXiong, Daxing, et Hong Zhao. « Estimates of storage capacity in theq-state Potts-glass neural network ». Journal of Physics A : Mathematical and Theoretical 43, no 44 (13 octobre 2010) : 445001. http://dx.doi.org/10.1088/1751-8113/43/44/445001.
Texte intégralKang, Chol, Michelangelo Naim, Vezha Boboeva et Alessandro Treves. « Life on the Edge : Latching Dynamics in a Potts Neural Network ». Entropy 19, no 9 (3 septembre 2017) : 468. http://dx.doi.org/10.3390/e19090468.
Texte intégralMarconi, Carlo, Pau Colomer Saus, María García Díaz et Anna Sanpera. « The role of coherence theory in attractor quantum neural networks ». Quantum 6 (8 septembre 2022) : 794. http://dx.doi.org/10.22331/q-2022-09-08-794.
Texte intégralAmit†, Daniel, et Nicolas Brunel. « Learning internal representations in an attractor neural network with analogue neurons ». Network : Computation in Neural Systems 6, no 3 (1 août 1995) : 359–88. http://dx.doi.org/10.1088/0954-898x/6/3/004.
Texte intégralFassnacht, C., et A. Zippelius. « Recognition and categorization in a structured neural network with attractor dynamics ». Network : Computation in Neural Systems 2, no 1 (janvier 1991) : 63–84. http://dx.doi.org/10.1088/0954-898x_2_1_004.
Texte intégralBrunel, Nicolas. « Dynamics of an attractor neural network converting temporal into spatial correlations ». Network : Computation in Neural Systems 5, no 4 (janvier 1994) : 449–70. http://dx.doi.org/10.1088/0954-898x_5_4_003.
Texte intégralBadoni, Davide, Stefano Bertazzoni, Stefano Buglioni, Gaetano Salina, Daniel J. Amit et Stefano Fusi. « Electronic implementation of an analogue attractor neural network with stochastic learning ». Network : Computation in Neural Systems 6, no 2 (janvier 1995) : 125–57. http://dx.doi.org/10.1088/0954-898x_6_2_002.
Texte intégralBeňušková, Lubica. « Modelling transpositional invariancy of melody recognition with an attractor neural network ». Network : Computation in Neural Systems 6, no 3 (janvier 1995) : 313–31. http://dx.doi.org/10.1088/0954-898x_6_3_001.
Texte intégralAmit, Daniel J., et Nicolas Brunel. « Learning internal representations in an attractor neural network with analogue neurons ». Network : Computation in Neural Systems 6, no 3 (janvier 1995) : 359–88. http://dx.doi.org/10.1088/0954-898x_6_3_004.
Texte intégralFrolov, Alexander A., Dusan Husek, Pavel Y. Polyakov et Vaclav Snasel. « New BFA method based on attractor neural network and likelihood maximization ». Neurocomputing 132 (mai 2014) : 14–29. http://dx.doi.org/10.1016/j.neucom.2013.07.047.
Texte intégralTorres, J. J., J. M. Cortes, J. Marro et H. J. Kappen. « Competition Between Synaptic Depression and Facilitation in Attractor Neural Networks ». Neural Computation 19, no 10 (octobre 2007) : 2739–55. http://dx.doi.org/10.1162/neco.2007.19.10.2739.
Texte intégralBrunel, Nicolas. « Hebbian Learning of Context in Recurrent Neural Networks ». Neural Computation 8, no 8 (novembre 1996) : 1677–710. http://dx.doi.org/10.1162/neco.1996.8.8.1677.
Texte intégralKRAWIECKI, A., et R. A. KOSIŃSKI. « ON–OFF INTERMITTENCY IN SMALL NEURAL NETWORKS WITH TIME-DEPENDENT SYNAPTIC NOISE ». International Journal of Bifurcation and Chaos 09, no 01 (janvier 1999) : 97–105. http://dx.doi.org/10.1142/s0218127499000055.
Texte intégralAKCAN, BURCU, et YİĞIT GÜNDÜÇ. « A MONTE CARLO STUDY OF THE STORAGE CAPACITY AND EFFECTS OF THE CORRELATIONS IN q-STATE POTTS NEURON SYSTEM ». International Journal of Modern Physics C 13, no 02 (février 2002) : 199–206. http://dx.doi.org/10.1142/s012918310200305x.
Texte intégral