Przejdź do zawartości

ReLU

Z Wikipedii, wolnej encyklopedii

Funkcja ReLU, prostowana jednostka liniowa[1] (ang. rectified linear unit), jednostronnie obcięta funkcja liniowafunkcja aktywacji zdefiniowana jako nieujemna część jej argumentu[2][3]:

Wykres ReLU w pobliżu x = 0

ReLU jest jedną z najpopularniejszych funkcji aktywacji sztucznych sieci neuronowych[4] i znajduje zastosowanie w komputerowym widzeniu[5] przy użyciu głębokich sieci neuronowych[6][7][8].

Zaletą ReLU jest lepsza propagacja gradientu i mniej problemów z zanikającym gradientem w porównaniu z funkcją sigmoidalną[5].

Zobacz też

[edytuj | edytuj kod]

Przypisy

[edytuj | edytuj kod]
  1. Aurélien Géron, Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow, Krzysztof Sawka (tłum.), Wydanie II, aktualizacja do modułu TensorFlow 2, Gliwice: Helion, 2020, ISBN 978-83-283-6002-0 [dostęp 2025-04-09] (pol.).
  2. Jason Brownlee, A Gentle Introduction to the Rectified Linear Unit (ReLU) [online], MachineLearningMastery.com, 8 stycznia 2019 [dostęp 2025-04-08] (ang.).
  3. A Practical Guide to ReLU [online], medium.com (ang.).
  4. Prajit Ramachandran, Barret Zoph, Quoc V. Le, Searching for Activation Functions, arXiv, 27 października 2017, DOI10.48550/arXiv.1710.05941 [dostęp 2025-04-08].
  5. a b Xavier Glorot, Antoine Bordes, Yoshua Bengio, Deep sparse rectifier neural networks [online], 2021.
  6. D. Hansel, C. van Vreeswijk, How noise contributes to contrast invariance of orientation tuning in cat visual cortex, „The Journal of Neuroscience: The Official Journal of the Society for Neuroscience”, 22 (12), 2002, s. 5118–5128, DOI10.1523/JNEUROSCI.22-12-05118.2002, ISSN 1529-2401, PMID12077207, PMCIDPMC6757721 [dostęp 2025-04-08].
  7. Jonathan Kadmon, Haim Sompolinsky, Transition to chaos in random neuronal networks, arXiv, 26 sierpnia 2015, DOI10.48550/arXiv.1508.06486 [dostęp 2025-04-08].
  8. Rainer Engelken, Fred Wolf, L.F. Abbott, Lyapunov spectra of chaotic recurrent neural networks, arXiv, 3 czerwca 2020, DOI10.48550/arXiv.2006.02427 [dostęp 2025-04-08].