阅读记录

第588章 激活函数,一个故事解释[2/2页]

职场小聪明 翟晓鹰

设置 ×

  • 阅读主题
  • 字体大小A-默认A+
  • 字体颜色
bsp;?
      如果魔力值一般,门会半开半闭(0~1
      之间)。
      比喻:
      这就像一个温和的导师,会根据魔法师的天赋程度,决定“部分晋级”还是“完全晋级”。
      Tanh
      魔法门(Tanh
      激活函数):
      ?
      如果魔力值很高,门会完全打开(1)。
      ?
      如果魔力值很低,门会完全关闭(1)。
      比喻:
      这就像一个双向考核,既允许优秀的魔法师(正值)进入,也允许黑暗魔法师(负值)进入,而普通人(接近
      0)则会被忽略。
      3.
      进入下一层(神经网络的深度学习)
      ?
      通过魔法门的魔法师,进入更高级的学院,学习更强大的魔法(神经网络的下一层学习更复杂的特征)。
      ?
      经过多层考核,最终只有最强的魔法师才能成为大魔导师(AI
      预测出最优结果)。
      比喻:
      这就像深度神经网络,每一层的激活函数确保最重要的信息传递,最终形成智能预测。
      另一种比喻:水闸与激活函数
      想象一个水坝,它控制着水流的流动方式,不同的水闸系统就像不同的激活函数:
      ?
      ReLU
      水闸:只有水位达到一定高度(≥0),水闸才会打开;如果水位太低(负值),水闸就不会开。
      ?
      Sigmoid
      水闸:水闸会根据水位高度,逐渐调整开合程度(类似
      0
      到
      1
      的平滑输出)。
      ?
      Tanh
      水闸:可以控制双向水流,允许正向和负向的水流通过(1
      到
      1)。
      比喻:
      激活函数就像水闸,决定信息如何流动,确保神经网络学习复杂的模式,而不仅仅是线性计算。
      结论:激活函数的关键作用
      它决定哪些信息能传递到下一层,哪些信息被屏蔽。
      它给神经网络带来了“非线性能力”,让
      AI
      解决复杂问题,而不仅仅是简单的加法计算。
      不同的激活函数适用于不同的任务,比如
      ReLU
      适用于深度网络,Sigmoid
      适用于概率预测,Tanh
      适用于情感分析等。
      思考:你觉得在现实生活中,还有哪些场景符合“激活函数”的特点?

第588章 激活函数,一个故事解释[2/2页]