TWO-LEVEL SYSTEM FOR TUNING PARAMETERS OF ARTIFICIAL NEURAL NETWORKS
Наукові журнали Національного Авіаційного Університету
View Archive InfoField | Value | |
Title |
TWO-LEVEL SYSTEM FOR TUNING PARAMETERS OF ARTIFICIAL NEURAL NETWORKS
Двухуровневая система настройки параметров искусственных нейронных сетей Дворівнева система налаштування параметрів штучних нейронних мереж |
|
Creator |
Chumachenko, O. I.; Національний технічний університет України «Київський політехнічний інститут ім. Ігоря Сікорського»
Shymkov, S. V.; Національний технічний університет України «Київський політехнічний інститут ім. Ігоря Сікорського» Kot, A. T.; Національний технічний університет України «Київський політехнічний інститут ім. Ігоря Сікорського» |
|
Subject |
Neural networks; parametric tuning; training; optimization; genetic algorithms
UDC 004.032.26(045) Нейронные сети; настройка параметров; обучение; оптимизация; генетические алгоритмы УДК 004.032.26(045) Нейронні мережі; налаштування параметрів; навчання; оптимізація; генетичні алгоритми УДК 004.032.26(045) |
|
Description |
This paper focuses on the process of adjusting weights and biases of feed-forward ANN during their training process. A new algorithm for tuning artificial neural networks parameters has been proposed to overcome some limitations of existing optimization algorithms and to improve the training process of neural networks. This proposed algorithm combines the benefits of genetic algorithm and gradient-based optimization algorithms to improve the speed of training artificial neural networks and to increase the prediction accuracy of resulting network. The results of artificial neural networks training for classification task using two-level algorithm are presented and compared in performance with various gradient-based optimization algorithms.
Статья посвящена процессу корректировки весовых коэффициентов и коэффициентов смещения искусственных нейронных сетей прямого распространения во время их обучения. Предложен новый алгоритм для настройки параметров искусственных нейронных сетей для преодоления недостатков существующих оптимизационных алгоритмов и улучшения процесса обучения нейронных сетей. Предложенный алгоритм сочетает преимущества генетического алгоритма и градиентного алгоритма оптимизации с целью повышения скорости обучения искусственных нейронных сетей и улучшения точности предсказания сети. Результаты тренировки искусственных нейронных сетей для задачи классификации сравниваются с различными градиентными методами оптимизации. Статтю присвячено процесу коригування вагових коефіцієнтів та коефіцієнтів зсуву штучних нейронних мереж прямого розповсюдження під час їх навчання. Запропоновано новий алгоритм для налаштування параметрів штучних нейронних мереж для подолання недоліків існуючих оптимізаційних алгоритмів та покращення процесу навчання нейронних мереж. Запропонований алгоритм поєднує переваги генетичного алгоритму та градієнтного алгоритму оптимізації з метою підвищення швидкості навчання штучних нейронних мереж та покращення точності передбачення мережі. Результати тренування штучних нейронних мереж для задачі класифікації порівнюються з різними градієнтними алгоритмами оптимізації. |
|
Publisher |
National Aviation University
|
|
Contributor |
—
— — |
|
Date |
2020-03-25
|
|
Type |
—
— |
|
Format |
application/pdf
|
|
Identifier |
http://jrnl.nau.edu.ua/index.php/ESU/article/view/14517
10.18372/1990-5548.63.14517 |
|
Source |
Electronics and Control Systems; Том 1, № 63 (2020); 37-45
Электроника и системы управления; Том 1, № 63 (2020); 37-45 Електроніка та системи управління; Том 1, № 63 (2020); 37-45 |
|
Language |
en
|
|
Rights |
Authors who publish with this journal agree to the following terms:Authors retain copyright and grant the journal right of first publication with the work simultaneously licensed under a Creative Commons Attribution License that allows others to share the work with an acknowledgement of the work's authorship and initial publication in this journal.Authors are able to enter into separate, additional contractual arrangements for the non-exclusive distribution of the journal's published version of the work (e.g., post it to an institutional repository or publish it in a book), with an acknowledgement of its initial publication in this journal.Authors are permitted and encouraged to post their work online (e.g., in institutional repositories or on their website) prior to and during the submission process, as it can lead to productive exchanges, as well as earlier and greater citation of published work (See The Effect of Open Access).
|
|