Digitální knihovna UPCE přechází na novou verzi. Omluvte prosím případné komplikace. / The UPCE Digital Library is migrating to a new version. We apologize for any inconvenience.

Publikace:
Comparison of ReLU and linear saturated activation functions in neural network for universal approximation

Konferenční objektopen accesspeer-reviewedpostprint
dc.contributor.authorŠtursa, Dominikcze
dc.contributor.authorDoležel, Petrcze
dc.date.accessioned2020-03-19T13:17:18Z
dc.date.available2020-03-19T13:17:18Z
dc.date.issued2019eng
dc.description.abstractActivation functions used in hidden layers directly affect the possibilities for describing nonlinear systems using a feedforward neural network. Furthermore, linear based activation functions are less computationally demanding than their nonlinear alternatives. In addition, feedforward neural networks with linear based activation functions can be advantageously used for control of nonlinear systems, as shown in previous authors' publications. This paper aims to compare two types of linear based functions - symmetric linear saturated function and the rectifier linear unit (ReLU) function as activation functions of the feedforward neural network used for a nonlinear system approximation. Topologies with one hidden layer and the combination of defined quantities of hidden layer neurons in the feedforward neural network are used. Strict criteria are applied for the conditions of the experiments; specifically, the Levenberg-Marquardt algorithm is applied as a training algorithm and the Nguyen-Widrow algorithm is used for the weights and biases initialization. Three benchmark systems are then selected as nonlinear plants for approximation, which should serve as a repeatable source of data for testing. The training data are acquired by the computation of the output as a reaction to a specified colored input signal. The comparison is based on the convergence speed of the training for a fixed value of the error function, and also on the performance over a constant number of epochs. At the end of the experiments, only small differences between the performance of both applied activation functions are observed. Although the symmetric linear saturated activation function provides the lesser median of the final error function value across the all tested numbers of neurons in topologies, the ReLU function seems to be also capable of use as the activation function for nonlinear system modeling.eng
dc.description.abstract-translatedAktivační funkce používané ve skrytých vrstvách přímo ovlivňují možnosti popisu nelineárních systémů pomocí dopředné neuronové sítě. Kromě toho jsou lineární aktivační funkce méně výpočetně náročné než jejich nelineární alternativy. Dále lze pro řízení nelineárních systémů s výhodou použít dopředné neuronové sítě s aktivačními funkcemi založenými na lineárním uspořádání, jak je ukázáno v předchozích autorských publikacích. Tato práce si klade za cíl porovnat dva typy lineárních funkcí - symetrické lineární saturované funkce a ReLU jako aktivační funkce dopředné neuronové sítě používané pro nelineární aproximaci chování dynamického systému. Používají se topologie s jednou skrytou vrstvou a kombinace definovaných množství neuronů skryté vrstvy.cze
dc.event22nd International Conference on Process Control, PC 2019 (11.06.2019 - 14.06.2019, Štrbské Pleso)eng
dc.formatp. 146-151eng
dc.identifier.doi10.1109/PC.2019.8815057eng
dc.identifier.isbn978-1-72813-758-2eng
dc.identifier.obd39883953eng
dc.identifier.urihttps://hdl.handle.net/10195/75129
dc.language.isoengeng
dc.peerreviewedyeseng
dc.project.IDSGS_2019_021/Výzkum pokročilých metod modelování, simulace, řízení, databázových systémů a webových aplikacíeng
dc.publicationstatuspostprinteng
dc.publisherIEEE (Institute of Electrical and Electronics Engineers)eng
dc.relation.ispartofProceedings of the 2019 22nd International Conference on Process Control, PC 2019eng
dc.rightsopen accesseng
dc.subjectFeedforward neural networkeng
dc.subjectlinear saturated activation functioneng
dc.subjectrectified linear activation functioneng
dc.subjectnonlinear system identificationeng
dc.subjectDopředná neuronová síťcze
dc.subjectlineární saturovaná aktivační funkcecze
dc.subjectReLUcze
dc.subjectidentifikace nelineárních systémůcze
dc.titleComparison of ReLU and linear saturated activation functions in neural network for universal approximationeng
dc.title.alternativePorovnání ReLU a lineární saturované aktivační funkce v neuronové síti pro univerzální aproximacicze
dc.typeConferenceObjecteng
dspace.entity.typePublication

Soubory

Původní svazek

Nyní se zobrazuje 1 - 1 z 1
Načítá se...
Náhled
Název:
Paper.pdf
Velikost:
527.99 KB
Formát:
Adobe Portable Document Format