Файл весов (.h5, .pt) — это файл, в котором сохраняются обученные параметры (числовые коэффициенты) нейронной сети. Это "мозг" модели: архитектура описывает структуру, а файл весов содержит знания....
ReLU (Rectified Linear Unit) — это самая популярная функция активации в глубоком обучении. Она работает просто: если вход больше 0, она возвращает его же, если меньше — возвращает 0. ReLU вычислите...
Softmax — это функция активации, которая превращает вектор произвольных чисел (логитов) в вектор вероятностей, сумма которых равна 1. Обычно используется в последнем слое нейросетей для задач много...
Tanh (Гиперболический тангенс)
Tanh (Гиперболический тангенс) — это функция активации, похожая на сигмоиду, но масштабированная в диапазон от -1 до 1. Благодаря центрированию вокруг нуля, она часто работает лучше сигмоиды в скры...