Добірка наукової літератури з теми "Backpropagation of error"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Backpropagation of error".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Backpropagation of error"

1

Refenes, A. N., and C. Alippi. "Iiistological image understanding by error backpropagation." Microprocessing and Microprogramming 32, no. 1-5 (August 1991): 437–46. http://dx.doi.org/10.1016/0165-6074(91)90383-5.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Pengsheng Zheng, Jianxiong Zhang, and Wansheng Tang. "Learning Associative Memories by Error Backpropagation." IEEE Transactions on Neural Networks 22, no. 3 (March 2011): 347–55. http://dx.doi.org/10.1109/tnn.2010.2099239.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Ong, H. C., and S. H. Quah. "Error backpropagation using least absolute criterion." International Journal of Computer Mathematics 82, no. 3 (March 2005): 301–12. http://dx.doi.org/10.1080/0020716042000301743.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Tesauro, Gerald, Yu He, and Subutai Ahmad. "Asymptotic Convergence of Backpropagation." Neural Computation 1, no. 3 (September 1989): 382–91. http://dx.doi.org/10.1162/neco.1989.1.3.382.

Повний текст джерела
Анотація:
We calculate analytically the rate of convergence at long times in the backpropagation learning algorithm for networks with and without hidden units. For networks without hidden units using the standard quadratic error function and a sigmoidal transfer function, we find that the error decreases as 1/t for large t, and the output states approach their target values as 1/√t. It is possible to obtain a different convergence rate for certain error and transfer functions, but the convergence can never be faster than 1/t. These results are unaffected by a momentum term in the learning algorithm, but convergence can be substantially improved by an adaptive learning rate scheme. For networks with hidden units, we generally expect the same rate of convergence to be obtained as in the single-layer case; however, under certain circumstances one can obtain a polynomial speed-up for non sigmoidal units, or a logarithmic speed-up for sigmoidal units. Our analytic results are confirmed by empirical measurements of the convergence rate in numerical simulations.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Sang-Hoon Oh. "Improving the error backpropagation algorithm with a modified error function." IEEE Transactions on Neural Networks 8, no. 3 (May 1997): 799–803. http://dx.doi.org/10.1109/72.572117.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Gogoi, Munmi, Ashim Jyoti Gogoi, and Shahin Ara Begum. "Optimizing Error Function of Backpropagation Neural Network." International Journal of Computer Sciences and Engineering 7, no. 4 (April 30, 2019): 1011–16. http://dx.doi.org/10.26438/ijcse/v7i4.10111016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

M., MOUSSA, ELARABY M., and KOUTB A. "LEARNING USING ERROR BACKPROPAGATION: A NEW VERSION." International Conference on Aerospace Sciences and Aviation Technology 9, ASAT Conference, 8-10 May 2001 (May 1, 2001): 1–13. http://dx.doi.org/10.21608/asat.2001.31148.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

M., MOUSSA, ELARABY M., and KOUTB A. "LEARNING USING ERROR BACKPROPAGATION: A NEW VERSION." International Conference on Aerospace Sciences and Aviation Technology 9, no. 9 (May 1, 2001): 959–71. http://dx.doi.org/10.21608/asat.2001.59777.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Widder, D. R., and M. A. Fiddy. "High performance learning by modified error backpropagation." Neural Computing & Applications 1, no. 3 (September 1993): 183–87. http://dx.doi.org/10.1007/bf01414945.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Suyatno, Suyatno, Sisno Riyoko, and R. Hadapiningradja Kusumodestoni. "PREDIKSI BISNIS FOREX MENGGUNAKAN MODEL NEURAL NETWORK BERBASIS ADA BOOST MENGGUNAKAN 2047 DATA." Simetris : Jurnal Teknik Mesin, Elektro dan Ilmu Komputer 7, no. 2 (November 1, 2016): 483. http://dx.doi.org/10.24176/simet.v7i2.758.

Повний текст джерела
Анотація:
Setelah melakukan penelitian dan percobaan maka didapatkan hasil penelitian pertama yang telah dilakukan dengan menggunakan Algoritma Neural Network Backpropagatioan dengan menggunakan data sebanyak 268 menunjungkan tingkat akurasi error prediksi pada waktu prediksi per 5 menit sebesar 0.758619403, bila menggunakan data sebanyak 2047 menunjukkan tingkat akurasi error prediksi sebesar 0.500161212 dan hasil penelitian kedua yang telah dilakukan menggunakan Algoritma Optimasi Adaboost pada proses trainning dan ditambah Neural Network Backpropagation pada proses learning menunjukkan tingkat akurasi error prediksi pada waktu prediksi per 5 menit menggunakan data sebanyak 268 sebesar 0.397014925, bila menggunakan data sebanyak 2047 menunjukkan tingkat akurasi error prediksi sebesar 0.099951148. Tahap awal dalam melakukan penelitian ini sampai dengan pengujian menggunakan perhitungan prediksi nilai akurasi error menggunakan rumus MSE (Mean Sequare Error) dengan menggunakan algoritma optimasi adaboost untuk memberikan jawaban atas permasalahan bahwa nilai akurasi error Algoritma Neural Network Backpropagation perlu direndahkan agar akurasi prediksi meningkat dan tahap kedua dilakukan uji coba menggunakan data yang lebih banyak dibandingan dengan tahap ke satu. Berdasarkan hasil penelitian yang telah dilakukan, dapat disimpulkan bahwa Algoritma Neural Network memiliki akurasi yang lebih rendah bila dibandingkan dengan akurasi menggunakan metode optimasi adaboost pada proses trainning ditambah dengan Neural Network, ini dapat dilihat dengan rendahnya tingkat error MSE menggunakan metode adaboost + neural network dan dapat disimpukan pula bahwa dengan menggunakan jumlah data yang lebih banyak maka dapat menurunkan tingkat akurasi error MSE sehingga berhasil meningkatkan akurasi prediksi dalam bisnis forex trading. Kata kunci: forex, trading, neural network, adaboost, central capital futures.
Стилі APA, Harvard, Vancouver, ISO та ін.

Дисертації з теми "Backpropagation of error"

1

Fischer, Manfred M., and Petra Staufer-Steinnocher. "Optimization in an Error Backpropagation Neural Network Environment with a Performance Test on a Pattern Classification Problem." WU Vienna University of Economics and Business, 1998. http://epub.wu.ac.at/4150/1/WSG_DP_6298.pdf.

Повний текст джерела
Анотація:
Various techniques of optimizing the multiple class cross-entropy error function to train single hidden layer neural network classifiers with softmax output transfer functions are investigated on a real-world multispectral pixel-by-pixel classification problem that is of fundamental importance in remote sensing. These techniques include epoch-based and batch versions of backpropagation of gradient descent, PR-conjugate gradient and BFGS quasi-Newton errors. The method of choice depends upon the nature of the learning task and whether one wants to optimize learning for speed or generalization performance. It was found that, comparatively considered, gradient descent error backpropagation provided the best and most stable out-of-sample performance results across batch and epoch-based modes of operation. If the goal is to maximize learning speed and a sacrifice in generalisation is acceptable, then PR-conjugate gradient error backpropagation tends to be superior. If the training set is very large, stochastic epoch-based versions of local optimizers should be chosen utilizing a larger rather than a smaller epoch size to avoid inacceptable instabilities in the generalization results. (authors' abstract)
Series: Discussion Papers of the Institute for Economic Geography and GIScience
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Verbylaitė, Laura. "Atgalinio klaidos sklidimo neuroninio tinklo realizavimo problemos ir taikymai." Master's thesis, Lithuanian Academic Libraries Network (LABT), 2008. http://vddb.library.lt/obj/LT-eLABa-0001:E.02~2008~D_20080924_175458-27006.

Повний текст джерела
Анотація:
Šiame magistriniame darbe išanalizuota dirbtinių neuroninių tinklų teorija. Detaliai išnagrinėtas atgalinio klaidos sklidimo algoritmas. Pagal jį parašytos programos: C++ kalba ir Matlab sistemoje su siūlomais neuroninių tinklų konstravimo įrankiais. Lyginant programas atlikti tyrimai su irisų ir vyno atpažinimo duomenimis. Tyrimo metu ištirti ir paanalizuoti daugiasluoksniai neuroniniai tinklai su paslėptais vienu ir dviem sluoksniais.
This paper offers a profound research the theory of artificial neural network. It gives a deep analysis of error back propagation and provides error back propagation program written in C++ language and Matlab system with relevant neural network construction tools. To compare both programs I carried out research of wines recognition data and irises data. Analyzed feedforward neural network with hidden one and two layers.
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Kubisz, Jan. "Využití umělé inteligence k monitorování stavu obráběcího stroje." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2020. http://www.nusl.cz/ntk/nusl-417752.

Повний текст джерела
Анотація:
Diploma thesis focus on creation of neural network’s internal structure with goal of creation Artificial Neural Network capable of machine state monitoring and predicting its remaining usefull life. Main goal is creation of algorithm’s and library for design and learning of Artificial Neural Network, and deeper understanding of the problematics in the process, then by utilising existing libraries. Selected method was forward-propagation network with multi-layered perceptron architecture, and backpropagation learning. Achieved results was, that the network was able to determine parts state from vibration measurement and on its basis predict remaining usefull life.
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Момот, Андрій Сергійович. "Удосконалення методу визначення характеристик дефектів багатошарових матеріалів за результатами активного теплового контролю". Doctoral thesis, Київ, 2020. https://ela.kpi.ua/handle/123456789/34952.

Повний текст джерела
Анотація:
В дисертації вперше отримані такі нові наукові результати: 1. Запропоновано метод автоматизованої обробки послідовності термограм, отриманих у результаті активного теплового контролю багатошарових матеріалів, який використовує нейромережеві технології для аналізу температурних профілів у кожній точці об’єкту та дозволяє одночасно проводити класифікацію знайдених дефектів, вимірювати їх глибину залягання та розкрив. 2. Набув подальшого розвитку метод синтезу нейронної мережі прямого розповсюдження зі зворотним поширенням помилки, який враховує залежності достовірності контролю та точності дефектометрії від архітектури та алгоритмів навчання нейронної мережі, що дозволило обґрунтувати вибір кількості прихованих прошарків нейронної мережі, кількості нейронів у цих прошарках та оптимального за показником середньоквадратичної помилки мережі алгоритму навчання. 3. Удосконалено метод формування навчального набору даних, який враховує залежності достовірності класифікації дефектів у багатошарових матеріалах, похибок визначення їх глибини залягання і розкриву від параметрів вибірки навчальних сигналів, що дозволило мінімізувати час навчання нейронної мережі без погіршення достовірності автоматизованої класифікації дефектів та точності дефектометрії. Практичне значення одержаних в дисертаційній роботі результатів полягає в тому, що було розроблено алгоритмічне і програмне забезпечення реалізації підсистеми визначення характеристик дефектів за результатами активного ТНК із використанням вдосконаленого методу на базі нейромережевих технологій, що дозволило автоматизувати класифікацію дефектів і побудову теплових томограм, підвищити точність теплової дефектометрії і достовірність контролю у порівнянні з існуючими методами. Розроблено віртуальний інтерфейс користувача, який містить інструменти для проведення дефектометрії та аналізу теплових томограм, що дало змогу покращити ефективність аналізу результатів контролю. Для розробленої системи експериментально визначено архітектуру та параметри навчання нейромереж, за яких досягається найвища достовірність класифікації дефектів та точність вимірювання їх характеристик. Розроблено та виготовлено експериментальний стенд та дослідні зразки для проведення активного теплового контролю і аналізу результатів із використанням удосконаленого методу визначення характеристик дефектів на основі нейронних мереж, що дозволило відпрацювати програмні алгоритми та підтвердити ефективність даного методу. У дисертаційній роботі описано особливості та проблеми теплового контролю виробів із багатошарових матеріалів. Показано, що на сучасному етапі розвитку методів теплового неруйнівного контролю важливим завданням є не лише виявлення та визначення координат і поперечних розмірів дефектів багатошарових матеріалів, але і вимірювання їх глибини залягання та розкриву. Проведено аналіз факторів, які впливають на результати теплового контролю та описано характер взаємозв’язків між інформативними параметрами. Розглянуто традиційні математичні та статистичні методи теплової дефектометрії та встановлено їх недоліки. Описано, що аналітичний розв’язок обернених задач теплового контролю в ряді випадків є неоднозначним. Особливо низьку ефективність традиційні методи та побудовані на їх основі системи теплової дефектометрії мають у випадку контролю багатошарових матеріалів. В роботі проведено порівняльний аналіз стандартних та спеціальних методів цифрової обробки термограм. Розглянуто методи Фур’є-аналізу, вейвлет-аналізу, аналізу головних компонент та динамічної теплової томографії. Показано, що дані методи мають низьку завадостійкість, сильну залежність результатів від вибору опорної точки та рівномірності нагріву об’єкту контролю. Окрім того, розглянуті традиційні методи обробки термограм не дозволяють проводити автоматичну класифікацію дефектів за типом та визначати їх розкрив. У дисертаційній роботі описано можливості використання штучних нейронних мереж для удосконалення методів визначення характеристик дефектів. Розглянуто особливості побудови нейромережевих систем для вирішення задач класифікації дефектів та визначення їх глибини залягання і розкриву. Проведено порівняння ефективності роботи нейронних мереж та традиційних методів обробки термограм. Показано переваги нейронних мереж над традиційними алгоритмами. Розглянуто найбільш перспективні області застосування нейромережевих систем аналізу результатів активного теплового неруйнівного контролю. Проведено аналіз існуючих робіт за напрямом теплового контролю композитів. Показано, що у відомій літературі не вирішуються завдання одночасної класифікації дефектів за типом та визначення їх глибини залягання і розкриву; не досліджено способи визначення глибини залягання дефектів або їх розкриву шляхом вирішення задачі регресії за допомогою нейронних мереж; не вирішується завдання побудови теплових зображень внутрішньої структури об’єкту контролю. Сформовано мету дослідження у вигляді автоматизації процесу активної теплової дефектоскопії та дефектометрії із застосуванням нейромережевих технологій, що забезпечуватиме підвищення інформативності, достовірності та ефективності контролю виробів із багатошарових матеріалів. З метою удосконалення методів активної теплової дефектоскопії і дефектометрії та автоматизації обробки даних в дисертації обґрунтовано та розроблено підсистему цифрової обробки термограм, що складається з трьох нейромережевих модулів. Описано можливість використання багатошарових нейронних мереж прямого розповсюдження зі зворотним поширенням помилки з повнозв’язними прошарками у складі модуля виявлення та класифікації дефектів та модулів визначення глибини залягання і розкриву дефектів. Сформовано алгоритми формування навчальних множин для задач класифікації дефектів та визначення їх глибини залягання і розкриву. Описано процедуру навчання нейромережевих модулів та розроблено відповідне програмне забезпечення в середовищі MATLAB. Виконано програмну реалізацію віртуальних приладів в середовищі NI LabVIEW, в яких втілено алгоритми роботи нейромережевих модулів та пост-обробки результатів. Створено графічний інтерфейс користувача, який містить елементи керування, інструменти для проведення дефектометрії та блоки графічного відображення інформації щодо положення дефектів та внутрішньої структури об’єкту контролю. На основі проведеного комп’ютерного моделювання процесу активного теплового контролю алюмінієвої пластини зі штучними внутрішніми дефектами отримано послідовності термограм. Встановлено, що внаслідок впливу високого рівня теплової дифузії та нерівномірності нагріву обробка отриманих послідовностей термограм традиційними методами є ускладненою та малоефективною. В результаті досліджень доведено, що розроблена автоматизована нейромережева система має покращені якісні та кількісні показники ефективності у порівнянні з традиційними методами. У роботі проведено комп’ютерне моделювання процесу активного теплового контролю зразка із багатошарового вуглепластику зі штучними внутрішніми дефектами. За результатами досліджень ефективності обробки отриманих послідовностей термограм різними методами встановлено, що розроблена нейромережева система забезпечує найвищі показники якості класифікації дефектів та точності дефектометрії серед розглянутих методів. Досліджено вплив архітектури нейронних мереж на результати роботи нейромережевих модулів розробленої системи у випадку обробки даних комп’ютерного моделювання. Дослідження показали, що найбільш оптимальним є використання двох прихованих прошарків з 12 нейронами в першому та 4 нейронами в другому прошарках. Встановлено, що із доступних алгоритмів навчання найбільш ефективним за показником середньоквадратичної помилки мережі є оптимізатор Левенберга-Маркарда. Проведено дослідження впливу обсягу та якості навчальної вибірки на результати роботи нейромережевих модулів. Встановлено кількісні значення погіршення показників ефективності роботи системи. У випадку зменшення кількості навчальних зразків в чотири рази, на 7,55 % знижується значення критерію Танімото та на 14,74 % зростає відносна похибка визначення глибини залягання дефектів. Водночас, в чотири рази зменшується час навчання. Аналогічні результати отримано і для випадку зменшення репрезентативності вибірки. Розроблено та виготовлено 2 тестових та 5 навчальних зразків у вигляді пластин із багатошарових композиційних матеріалів, які містять штучні внутрішні дефекти з відомими параметрами. Зразки використовувались для проведення експериментальних досліджень ефективності роботи розробленої автоматизованої системи. Для проведення експериментів було виготовлено стенд для проведення активного теплового контролю за схемою з двостороннім доступом до об’єкту. За результатами експериментальних досліджень встановлено, що в реальних умовах архітектура нейронних мереж відповідних модулів має бути ускладнена до 35 нейронів в першому та 15 нейронів в другому прихованому прошарках. Дослідження показали, що розроблена система дозволяє проводити безпомилкове виявлення та класифікацію дефектів за типом. Оцінка глибини залягання та розкриву дефектів із використанням розробленої системи відбувається з максимальною похибкою ±3,19 % та 3,50 % відповідно. Доведено, що розроблена система має підвищену достовірність контролю та точність дефектометрії у порівнянні з традиційними алгоритмами навіть в умовах нерівномірного нагріву. На основі результатів досліджень сформульовано рекомендації щодо методики контролю із використанням розробленої автоматизованої системи. Ключові слова: неруйнівний контроль, тепловий контроль, теплова дефектометрія, теплова томографія, теплове поле, композиційні матеріали, нейронні мережі, нейромережевий класифікатор, мережа прямого розповсюдження, зворотне поширення помилки, машинне навчання.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Olsson, Tim, and Konrad Magnusson. "Training Artificial Neural Networks with Genetic Algorithms for Stock Forecasting : A comparative study between genetic algorithms and the backpropagation of errors algorithms for predicting stock prices." Thesis, KTH, Skolan för datavetenskap och kommunikation (CSC), 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-186447.

Повний текст джерела
Анотація:
Accurate prediction of future stock market prices is of great importance to traders. The process can be automated using articial neural networks. However, the conventional backward propagation of errors algorithm commonly used for training the networks suffers from the local minima problem. This study investigates whether investing more computational resources into training an ar-ticial neural network using genetic algorithms over the conventional algorithm,to avoid the local minima problem, can result in higher prediction accuracy. The results indicate that there is no signicant increase in accuracy to gain by investing resources into training with genetic algorithms, using our proposed model.
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Soudani, Azeddine. "Application des réseaux de neurones aux mesures simultanées en écoulement turbulent." Grenoble INPG, 1996. http://www.theses.fr/1996INPG0180.

Повний текст джерела
Анотація:
Une nouvelle methode pour le depouillement des etalonnages des sondes thermo-anemometriques a fil et film chauds, est employee pour les mesures simultanees de vitesses et de densite dans un ecoulement turbulent. La methode est fondee sur une application specifique des reseaux de neurones. Il s'agit de reseaux du type perceptron multicouches ayant pour regle d'apprentissage, l'algorithme de la retropogation d'erreur. Cette methode auto-adaptative a ete appliquee aux etalonnages de deux types de sonde. Elle donne une meilleure precision sur la reduction des etalonnages que les methodes classiques d'ajustement utilisant les regressions polynomiales. Les resultats obtenus par ce type de reseaux de neurones, pour le depouillement des mesures doubles simultanees, sont tres satisfaisants. Les comparaisons effectuees montre que la methode semble plus precise que celles utilisees habituellement. Les effets des differences de densite importantes, sur la structure fine de la turbulence parietale sont etudies a partir des donnees experimentales, obtenues dans une soufflerie a recirculation. Ces differences de densite, dans la couche limite, sont produites par injection tangentielle d'air ou d'helium dans un melange air-helium. Les resultats d'analyse des donnees experimentales des fluctuations de vitesse et de densite montrent que, le developpement spatio-temporel du flux massique turbulent longitudinal est fortement lie aux gradients de densite. La structure fine du flux massique turbulent ne depend pas implicitement de la difference de densite mais plutot de ses gradients. L'analyse conditionnelle dans les quadrants montre que l'injection d'helium, dans la couche limite, engendre des ejections plus violentes que dans le cas d'une injection d'air. Ce resultat est confirme par l'analyse statistique qui revele la contribution importante des ejections au flux massique turbulent
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Fabbri, Alessandro. "Reti neurali in ambito finanziario." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19593/.

Повний текст джерела
Анотація:
In particolare in questo lavoro cercherò di analizzare l’utilizzo di reti neurali in ambito economico-finanziario in quanto alcuni dei temi che si riscontrano in economia ben si prestano ad un’analisi attraverso le reti neurali. In particolare nel primo capitolo di questo elaborato descriverò le origini delle reti neurali e alcuni criteri attraverso i quali oggi si classificano le reti stesse. Nel secondo capitolo mi occuperò invece di approfondire quali sono i passaggi da seguire al fine di costruire una rete neurale concentrandomi sulla risoluzione di problemi legati all’ambito economico-finanziario. Infine, nell’ultimo capitolo, mi dedicherò all’analisi di due articoli nei quali vengono confrontati i risultati ottenuti tramite l’utilizzo di diversi tipi di reti neurali accennando anche ad approcci diversi attraverso algoritmi di machine learning.
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Bělohlávek, Jiří. "Agent pro kurzové sázení." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2008. http://www.nusl.cz/ntk/nusl-235980.

Повний текст джерела
Анотація:
This master thesis deals with design and implementation of betting agent. It covers issues such as theoretical background of an online betting, probability and statistics. In its first part it is focused on data mining and explains the principle of knowledge mining form data warehouses and certain methods suitable for different types of tasks. Second, it is concerned with neural networks and algorithm of back-propagation. All the findings are demonstrated on and supported by graphs and histograms of data analysis, made via SAS Enterprise Miner program. In conclusion, the thesis summarizes all the results and offers specific methods of extension of the agent.
Стилі APA, Harvard, Vancouver, ISO та ін.
9

YA-TING, YU, and 游雅婷. "The Net-Input Error Backpropagation and Neuron Splitting for Neural Network." Thesis, 2003. http://ndltd.ncl.edu.tw/handle/06952593464202116590.

Повний текст джерела
Анотація:
碩士
國立臺灣科技大學
電機工程系
91
The standard backpropagation learning algorithm suffers from the problem of premature saturation in general. It causes the error to be trapped at the current value and decreases the learning efficiency of neural networks. Many efforts had been put on this problem, and detail mechanisms and conditions had been fully analyzed. In this thesis, a net-input error backpropagation learning algorithm and a neuron splitting method are proposed to relieve this problem. The net-input error backpropagation algorithm is based on the concept that the net-input (weighted sum ) to each output neuron can be calculated by inversely performing the sigmoid function. The neuron splitting method determines whether a hidden neuron has high tendency of saturation. If positive, the neuron is split into two independent neurons with weight values separated from the saturated neuron in some ratio. These two methods indeed demonstrate the superiority in our examples. Furthermore, the combination of the two methods also shows good improvement in speeding up the learning process.
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Liu, Shou-Fang, and 劉說芳. "Retrieval of Crop Biomass and Soil Moisture from Brightness Temperatures by Using Backpropagation Neural Networks with Error Correlation." Thesis, 2002. http://ndltd.ncl.edu.tw/handle/69480077339627890325.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Книги з теми "Backpropagation of error"

1

Billings, S. A. A comparison of the backpropagation and recursive prediction error algorithms for training neural networks. Sheffield: University of Sheffield, Dept. of Control Engineering, 1990.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Backpropagation of error"

1

Du, Ke-Lin, and M. N. S. Swamy. "Multilayer Perceptrons: Architecture and Error Backpropagation." In Neural Networks and Statistical Learning, 97–141. London: Springer London, 2019. http://dx.doi.org/10.1007/978-1-4471-7452-3_5.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Du, Ke-Lin, and M. N. S. Swamy. "Multilayer Perceptrons: Architecture and Error Backpropagation." In Neural Networks and Statistical Learning, 83–126. London: Springer London, 2013. http://dx.doi.org/10.1007/978-1-4471-5571-3_4.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Bilski, Jarosław, and Bogdan M. Wilamowski. "Parallel Levenberg-Marquardt Algorithm Without Error Backpropagation." In Artificial Intelligence and Soft Computing, 25–39. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-59063-9_3.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Sekino, Masashi, and Katsumi Nitta. "Automatic Model Selection via Corrected Error Backpropagation." In Advances in Neuro-Information Processing, 220–27. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-03040-6_27.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Klauer, B., and K. Waldschmidt. "Möglichkeiten zur Parallelisierung des Error-Backpropagation Algorithmus." In Physik und Informatik — Informatik und Physik, 135–42. Berlin, Heidelberg: Springer Berlin Heidelberg, 1992. http://dx.doi.org/10.1007/978-3-642-77382-2_22.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Meera Narvekar, Priyanca Fargose, and Debajyoti Mukhopadhyay. "Weather Forecasting Using ANN with Error Backpropagation Algorithm." In Proceedings of the International Conference on Data Engineering and Communication Technology, 629–39. Singapore: Springer Singapore, 2016. http://dx.doi.org/10.1007/978-981-10-1675-2_62.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Lv, Jiancheng, and Zhang Yi. "An Improved Backpropagation Algorithm Using Absolute Error Function." In Advances in Neural Networks — ISNN 2005, 585–90. Berlin, Heidelberg: Springer Berlin Heidelberg, 2005. http://dx.doi.org/10.1007/11427391_93.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Lee, Tae-Seung, and Ho-Jin Choi. "Elastic Learning Rate on Error Backpropagation of Online Update." In PRICAI 2004: Trends in Artificial Intelligence, 272–81. Berlin, Heidelberg: Springer Berlin Heidelberg, 2004. http://dx.doi.org/10.1007/978-3-540-28633-2_30.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Bilski, Jarosław, and Bogdan M. Wilamowski. "Parallel Learning of Feedforward Neural Networks Without Error Backpropagation." In Artificial Intelligence and Soft Computing, 57–69. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-39378-0_6.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Bohte, Sander M. "Error-Backpropagation in Networks of Fractionally Predictive Spiking Neurons." In Lecture Notes in Computer Science, 60–68. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-21735-7_8.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Тези доповідей конференцій з теми "Backpropagation of error"

1

Refenes, A. N., M. Azema-Barac, and S. A. Karoussos. "Currency exchange rate forecasting by error backpropagation." In Proceedings of the Twenty-Fifth Hawaii International Conference on System Sciences. IEEE, 1992. http://dx.doi.org/10.1109/hicss.1992.183441.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Cheng, Yiping, and Ze Liu. "Error Backpropagation for Fully Connected Cascade Networks." In 2021 13th International Conference on Intelligent Human-Machine Systems and Cybernetics (IHMSC). IEEE, 2021. http://dx.doi.org/10.1109/ihmsc52134.2021.00011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Tissera, Migel D., and Mark D. McDonnell. "Enhancing deep extreme learning machines by error backpropagation." In 2016 International Joint Conference on Neural Networks (IJCNN). IEEE, 2016. http://dx.doi.org/10.1109/ijcnn.2016.7727273.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Bogacz, R., M. W. Brown, and C. Giraud-Carrier. "Frequency-based error backpropagation in a cortical network." In Proceedings of the IEEE-INNS-ENNS International Joint Conference on Neural Networks. IJCNN 2000. Neural Computing: New Challenges and Perspectives for the New Millennium. IEEE, 2000. http://dx.doi.org/10.1109/ijcnn.2000.857899.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Singarimbun, Roy Nuary, Erna Budhiarti Nababan, and Opim Salim Sitompul. "Adaptive Moment Estimation To Minimize Square Error In Backpropagation Algorithm." In 2019 International Conference of Computer Science and Information Technology (ICoSNIKOM). IEEE, 2019. http://dx.doi.org/10.1109/icosnikom48755.2019.9111563.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Xiao-Hu Yu and Shi-Xin Cheng. "Adaptive implementation of minimum-error-rate equalizers via backpropagation neural networks." In [Proceedings] ICASSP-92: 1992 IEEE International Conference on Acoustics, Speech, and Signal Processing. IEEE, 1992. http://dx.doi.org/10.1109/icassp.1992.226400.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Lee, Chang Hwa, and Sang Wan Lee. "Error Backpropagation with Attention Control to Learn Imbalanced Data for Regression." In 2018 IEEE International Conference on Systems, Man, and Cybernetics (SMC). IEEE, 2018. http://dx.doi.org/10.1109/smc.2018.00480.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Xiao-Hu Yu. "On the nonexistence of local minima of the backpropagation error surfaces." In 1991 IEEE International Joint Conference on Neural Networks. IEEE, 1991. http://dx.doi.org/10.1109/ijcnn.1991.170572.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Miguel de Campos, Antonio, and Margarida Machado. "Training Of A Neural Network For Object Recognition Using Error Backpropagation." In 1989 Symposium on Visual Communications, Image Processing, and Intelligent Robotics Systems, edited by Michael J. W. Chen. SPIE, 1990. http://dx.doi.org/10.1117/12.969959.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Kim, J. Y., and H. S. Yang. "Markov random field based image labeling with parameter estimation by error backpropagation." In 1991 IEEE International Joint Conference on Neural Networks. IEEE, 1991. http://dx.doi.org/10.1109/ijcnn.1991.170524.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії