_铁马冰河_

关注

深度学习:softmax函数

_铁马冰河_

关注

阅读 110

2022-01-23

一般回归问题的激活函数用的是恒等函数,二元分类问题用的是sigmoid函数,而多元分类问题可以使用softmax函数作为激活函数。

softmax函数式为:

softamx函数用Python实现:

import numpy as np
a = np.array([0.3,2.9,4.0])
exp_a = np.exp(a)
print(exp_a)
sum_exp_a = np.sum(exp_a)
print(sum_exp_a)
y = exp_a / sum_exp_a
print(y)

打印结果:

相关推荐

凯约

动手学习深度学习——softmax函数与sigmoid函数对比

凯约 163 0 0

奔跑的酆

一文彻底搞懂深度学习:Softmax函数、Log-Softmax函数

奔跑的酆 44 0 0

Aliven888

深度学习-Softmax回归

Aliven888 95 0 0

晚熟的猫

【深度学习基础】激活函数:Tanh、Sigmoid 和 Softmax

晚熟的猫 16 0 0

代码小姐

DL之softmax:深度学习中常用的函数之softmax——基于numpy定义优化softmax函数代码实现

代码小姐 228 0 0

phpworkerman

深度学习基础—Softmax回归

phpworkerman 44 0 0

认真的老去

动手学深度学习——softmax分类

认真的老去 23 0 0

一葉_code

深度学习:softmax激活实现多元分类

一葉_code 72 0 0

德州spark

深度学习基础(一):sigmoid/softmax/cross Entropy

德州spark 23 0 0

阎小妍

深度学习实验:Softmax实现手写数字识别

阎小妍 110 0 0

精彩评论(0)

0 0 举报