Rectified Linear Unit (ReLU)
Rectified Linear Unit (ReLU) — это функция активации, определяемая как положительная часть своего аргумента: f(x) = max(0, x). ReLU стала самой популярной функцией активации в глубоких нейронных сетях, так как она вычислительно эффективна и помогает решить проблему затухающего градиента, позволяя обучать более глубокие и сложные модели быстрее и качественнее.
Что такое «Rectified Linear Unit (ReLU)» простыми словами
Нейроны должны быть нелинейными, иначе сеть будет просто калькулятором. Раньше использовали сложные кривые (сигмоиды). ReLU (Rectified Linear Unit) — это гениальная простота. Формула: «Если число меньше 0, верни 0. Если больше — верни само число». Эта функция считается мгновенно и позволяет учить очень глубокие сети, не теряя сигнал (градиент) по пути. Это стандарт де-факто в современном Deep Learning.