В искусственных нейронных сетях функция активации нейрона определяет выходные данные этого нейрона с учетом набора входных данных от нейронов на предыдущих слоях.
Функция активации относится к категории гиперпараметров.
Взвешенная сумма входов передается функции активации в нейроне. И эта функция активации будет выполнять какую-то операцию на входе, чтобы перевести сумму в нижний предел или верхний предел. Функции активации также используются для придания нелинейности и являются одним из важных факторов, влияющих на результаты и точность моделей.

Есть несколько функций активации. Давайте рассмотрим несколько наиболее часто используемых функций действия.

сигмовидная

Сигмоидальная функция будет преобразовывать или ограничивать выходные данные между 0 и 1.
Сигмоидальные функции будут моделями, в которых мы предсказываем вероятность в качестве выходных данных. Потому что значение вероятности существует где-то между 0 и 1.

Уравнение:
f(x)f(x) = 1/(1 + e-x)

Тан

Активация Tanh так же полезна для сигмовидной функции. Выходные данные находятся в диапазоне от -1 до 1.
Активация, которая почти всегда работает лучше, чем сигмовидная функция, — это функция Tanh, также известная как касательная гиперболическая функция. Это изменение масштаба логистической сигмовидной.

Уравнение:
f(x)f(x) = 2/(1 + e-2x) — 1

RELU (выпрямленная линейная единица)

RELU преобразует ввод либо в ноль (порог), либо в сам ввод. И это наиболее широко используемая функция активации. Обычно он используется для преобразования всех отрицательных значений в ноль в нейронных сетях.

Уравнение
f(x)f(x) = max(0,x)

Софтмакс

Softmax также является типом сигмовидной функции. Но это будет очень полезно, когда мы будем иметь дело с проблемами классификации.