Градиентный спуск
Градиентный спуск — это фундаментальный итеративный алгоритм оптимизации, используемый для обучения большинства моделей машинного обучения и нейросетей. Его цель — найти минимум функции потерь, изменяя параметры модели в направлении, обратном вектору градиента (направлению наискорейшего роста функции). Существуют различные модификации: стохастический градиентный спуск (SGD), мини-пакетный и адаптивные методы (Adam, RMSProp), ускоряющие сходимость.
Что такое «Градиентный спуск» простыми словами
Представьте, что вы стоите на вершине горы в густом тумане и хотите спуститься в самую низкую точку долины. Вы не видите, куда идти, но чувствуете наклон земли под ногами. Вы делаете шаг туда, где спуск круче всего. Повторяя это много раз, вы дойдете до низа. Градиентный спуск — это именно такой способ, которым нейросеть «спускается» к минимальной ошибке, шаг за шагом улучшая свои настройки.