ReLU
Wygląd
Funkcja ReLU, prostowana jednostka liniowa[1] (ang. rectified linear unit), jednostronnie obcięta funkcja liniowa – funkcja aktywacji zdefiniowana jako nieujemna część jej argumentu[2][3]:

ReLU jest jedną z najpopularniejszych funkcji aktywacji sztucznych sieci neuronowych[4] i znajduje zastosowanie w komputerowym widzeniu[5] przy użyciu głębokich sieci neuronowych[6][7][8].
Zaletą ReLU jest lepsza propagacja gradientu i mniej problemów z zanikającym gradientem w porównaniu z funkcją sigmoidalną[5].
Zobacz też
[edytuj | edytuj kod]Przypisy
[edytuj | edytuj kod]- ↑ Aurélien Géron , Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow, Krzysztof Sawka (tłum.), Wydanie II, aktualizacja do modułu TensorFlow 2, Gliwice: Helion, 2020, ISBN 978-83-283-6002-0 [dostęp 2025-04-09] (pol.).
- ↑ Jason Brownlee , A Gentle Introduction to the Rectified Linear Unit (ReLU) [online], MachineLearningMastery.com, 8 stycznia 2019 [dostęp 2025-04-08] (ang.).
- ↑ A Practical Guide to ReLU [online], medium.com (ang.).
- ↑ Prajit Ramachandran , Barret Zoph , Quoc V. Le , Searching for Activation Functions, arXiv, 27 października 2017, DOI: 10.48550/arXiv.1710.05941 [dostęp 2025-04-08] .
- ↑ a b Xavier Glorot , Antoine Bordes , Yoshua Bengio , Deep sparse rectifier neural networks [online], 2021 .
- ↑ D. Hansel , C. van Vreeswijk , How noise contributes to contrast invariance of orientation tuning in cat visual cortex, „The Journal of Neuroscience: The Official Journal of the Society for Neuroscience”, 22 (12), 2002, s. 5118–5128, DOI: 10.1523/JNEUROSCI.22-12-05118.2002, ISSN 1529-2401, PMID: 12077207, PMCID: PMC6757721 [dostęp 2025-04-08] .
- ↑ Jonathan Kadmon , Haim Sompolinsky , Transition to chaos in random neuronal networks, arXiv, 26 sierpnia 2015, DOI: 10.48550/arXiv.1508.06486 [dostęp 2025-04-08] .
- ↑ Rainer Engelken , Fred Wolf , L.F. Abbott , Lyapunov spectra of chaotic recurrent neural networks, arXiv, 3 czerwca 2020, DOI: 10.48550/arXiv.2006.02427 [dostęp 2025-04-08] .